Kategori: Teknoloji

Yapılamaz denilen şey gerçekleşti. Google’ın AlphaGo yazılımı, Go Dünya Şampiyonu Lee Sedol’u yaptıkları 3 maçta da yendi. Maçtan sonra yapılan basın toplantısında, Sedol daha iyi bir sonuç gösteremediği için özür diledi. “Kendimi güçsüz hissettim,” dedi.

İlk maçta, AlphaGo’nun yapabileceklerini yanlış yorumladığını söyleyen Sedol, ikinci maçta kafa kafaya oynadı ama fırsatları kaçırdı. Üçüncü maçta, üzerinde çok baskı hissettiğini söyledi. Lee 176 hamleden sonra maçtan çekildi.

“Bu miktarda baskının üzerinden gelemedim.”

DeepMind’ın CEO’su Demis Hassabis

“Sersemledik ve dilimiz tutuldu,” diyerek düşüncelerini paylaştı.

Bu ezici zafer, yapay zeka için önemli bir dönüm noktası. Birkaç yıl önce, yapay zekanın satrançtaki olduğu gibi Go oyununda uzmanlaşmasının mümkün olmayacağını düşünülüyordu. Sebep olarak ise çok sayıda hesaplamanın olduğu söylenmişti. (Google’a göre evrendeki tüm atomlardan fazla sayıda hesaplama var)

Ocak ayında, Google’ın yapay zeka şirketi DeepMind‘ın projesi AlphaGo, Avrupa Şampiyonu Fan Hui’ye karşı kazanmıştı. Böylece ilk kez bir yapay zekanın profesyonel oyunculara karşı kazanabileceği kanıtlanmıştı.

En İyiye Karşı Kazanmak

Sedol’e karşı kazanmak ise farklı bir durumu anlatıyor. Birkaç kez dünya şampiyonu olmuş, dünya 4 numarası, son 10 yılın en baskın oyuncularından biri olan Sedol’un kolay kazanacağını düşünülüyordu. AlphaGo’ya sadece 5 maçtan birini kazanma ihtimali verilmişti.

Go ustası Yoo Changhyuk’a göre, Sedol AlphaGo’ya karşı birkaç değişik strateji denedi. “Birinci maç, Lee Sedol AlphaGo’yu altüst etmek için zor hamleler yaptı, ancak başarısız oldu. İkinci maçta ise tersini denedi ve garanti oynadı.”

AlphaGo’nun Zaferi Neden Önemli?

IBM’in satranç oynayan bilgisayarı Deep Blue‘nun 90’lı yılların sonunda aldığı galibiyetlerden beri yapay zekanın bazı konularda insanlardan daha iyi olduğunu görmüştük. Bilgisayarlar gücünün artmasıyla beraber, saniyeler içinde milyonlarca gelişmiş hamleler yapabilecek konuma geldiler ve satrançtaki sezgisel problem çözme yöntemi sayesinde başarılı oldular.

Go ise farklı bir oyun. Oyunda her iki taraf tahta üzerinde daha geniş alanı çevrelemek için yarışıyor. Kurallar daha basit, ancak oyun tahtası daha büyük, ve kombinasyonların sayısı bir bilgisayar için oldukça fazla.

AlphaGo – Ocak ayında Nature dergisinde detaylıca anlatıldığı gibi – sinir ağları ile uzman Go oyuncularını taklit etmeye çalışıyor. Kendi kendine oynadığı oyunlar ile öğrenebiliyor. Ayrıca kullandığı 3 arama algoritması ile kendi kendine oynadığı rastgele binlerce oyunu simülasyon haline getirebiliyor.

Satranç, Go’ya göre daha sınırlı koşullara sahip bir oyun. Her oyunda neredeyse aynı çıkışı yapabiliyorsunuz. Piyon gibi taşları düşündüğümüzde hamleler daha sınırlı. Ayrıca taşları kaybetmek çoğu zaman kötü bir durum. Go’da sürekli bütün olasılıkları değerlendirmeniz gerekiyor. Taşlar tahtadaki bütün boş yerlere konulabilir ve genelde bir hamlenin iyi mi kötü mü olduğunu söylemek zor. Bunun sebebi birçok seçeneğin olması.

DeepMind yazılımcısı David Silver‘ın aşağıdaki videodaki açıklamasına göre AlphaGo’da 2 farklı sinir ağı var. “Policy Network”, her oyunda güvenilir hamleler önermek için kullanılıyor. Böylece AlphaGo’nun dikkate alacağı olasılıklar büyük ölçüde azalıyor. “Value Network” ise aramanın derinliğini azaltmak için kullanıyor.

“Belki de 300 hamle sürecek bir oyun için çok derin bir arama yapması yerine daha sadece bir arama kullanıyoruz. Yaklaşık 20 hamlelik aramadan sonra pozisyonu değerlendiriyoruz. Oyunun sonuna kadar olan bütün olasılıkları düşünmüyoruz. Arama süreci deneme yanılmaya dayanmıyor, daha çok hayal gücüne benziyor.”

DeepMind’ın CEO’su Hassabis, AlphaGo’yu “Artificial general intelligence’a (AGI) bir sıçrama tahtası olarak görüyor. Yazılımcı Silver, tıptan örnek vererek bir yapay zekanın benzer teknikleri kullanarak tedavinin hangi aşamalarının en iyi sonucu verdiğinin bulunabileceğini söylüyor.

Kaynak: Mashable

İlgili Yazılar

Arama yapın