Share This Article
Dr. Binoy Kampmark | Çeviren: Taylan Alpagut
Yapay zekânın gerçek ya da varsayılan tehlikeleri üzerine yürütülen tartışmalar, özellikle üretken sohbet botlarının yükselişiyle birlikte giderek daha hararetli bir hâl aldı. Bu eleştiriler değerlendirilirken, eleştirmenlerin motivasyonlarına da dikkat etmek gerekir: Belirli bir tutumu savunmaktan ne kazanıyorlar? “Yapay zekânın vaftiz babası” olarak anılan Geoffrey Hinton söz konusu olduğunda, bu sorgulama çok daha titiz yapılmalıdır.
Hinton, yapay zekâ tarihinde bir dönem gözden düşmüş olan “bağlantıcı” (connectionist) ekolden gelir. Bu yaklaşım, insan beynini ve daha geniş anlamda insan davranışını taklit eden sinir ağlarını temel alır. Bağlantıcı perspektif, yapay zekâyı önceden tanımlanmış semboller ve kurallar üzerinden işleyen bir sistem olarak gören “sembolist” yaklaşımla karşıtlık içindedir.
Financial Times yazarı John Thornhill, Hinton ve diğer bağlantıcı araştırmacıların yükselişini şöyle anlatır:
Bilgisayarlar daha güçlü hâle geldikçe, veri kümeleri büyüdükçe ve algoritmalar gelişip karmaşıklaştıkça, Hinton gibi derin öğrenme araştırmacıları ana akım yapay zekâ camiasının artık görmezden gelemeyeceği sonuçlar üretmeye başladılar.
Zamanla derin öğrenme sistemleri son derece yaygınlaştı ve büyük teknoloji şirketleri Hinton gibi öncü isimleri bünyelerine katmak için yarıştı. Hinton ve meslektaşları Google, Facebook, Amazon ve Microsoft gibi devlerde yüksek maaşlarla çalışmaya başladı. Hinton, Google’da başkan yardımcısı ve mühendislik görevlisi olarak görev yaptı.
‘Bizden daha kalabalık, daha zeki zihinler geliştirmeli miyiz?’
Hinton’ın Google’dan ayrılması —daha özelde Google Brain ekibinin başındaki görevinden çekilmesi— kısa sürede yoğun spekülasyonlara yol açtı. Bir yoruma göre bu ayrılık, yıllarca katkıda bulunduğu şirketi artık özgürce eleştirebilmek amacıyla gerçekleşmişti. Bu durum, üretken yapay zekânın gelişimine bizzat öncülük etmiş bir isim için epey ironikti. Zira Hinton, 2012’de görüntülerdeki nesneleri yüksek doğrulukla tanıyabilen, kendi kendini eğiten bir sinir ağının geliştirilmesinde kilit rol oynamıştı.
Ayrılığın zamanlaması da dikkat çekiciydi. Hinton’ın istifasından yaklaşık bir ay önce, Future of Life Institute tarafından bir açık mektup yayımlandı. Mektupta, OpenAI’nin GPT-4’ü ve benzeri sistemlerin ötesinde, yapay zekânın yol açabileceği yıkıcı sonuçlara dikkat çekiliyordu. Metinde şu sorular yöneltilmişti:
Makinelerin bilgi kanallarımızı propaganda ve yanlış bilgilerle doldurmasına izin vermeli miyiz? Tatmin edici olanlar da dâhil olmak üzere tüm işleri otomasyona devretmeli miyiz? Sonunda bizden daha kalabalık, daha zeki ve daha etkili insan dışı zihinler geliştirmeli miyiz? Uygarlığımız üzerindeki kontrolü kaybetme riskini göze almalı mıyız?
Mektup, büyük ölçekli yapay zekâ projelerinin altı ay süreyle durdurulmasını talep ediyordu. Ancak imzacılar arasında yer alan bazı isimler, uyarıların inandırıcılığını zayıflattı. Zira bu kişilerden birçoğu, otomasyonun yaygınlaşmasında, işlerin ortadan kalkmasında ve “uygarlığımız üzerindeki kontrol kaybı” riskinin artmasında zaten önemli roller oynamıştı. Bu nedenle, Elon Musk ve Steve Wozniak gibi figürlerin teknolojik gelişmeleri durdurmayı öneren bir metne imza atmaları, birçok gözlemcide otomatik bir kuşku refleksi yarattı.
Yapay zekâ risklerine açık eleştiriler
Aynı ilkeler Geoffrey Hinton için de geçerli olmalıdır. Görünüşe bakılırsa Hinton yeni bir konum arayışındadır ve bu süreçte kendisini yoğun biçimde parlatmaktadır. Bu tutum, ironik biçimde, bizzat gelişimine katkıda bulunduğu teknolojilere yönelik örtük bir kınama hâlini almaktadır. Hinton bir söyleşisinde şöyle demişti:
Bunların gerçekten insanlardan daha akıllı hâle gelebileceği fikrine birkaç kişi inanıyordu. Çoğu kişi bunun çok uzak bir ihtimal olduğunu düşünüyordu. Ben de öyle düşünüyordum. […] Açıkçası artık böyle düşünmüyorum.
Bu sözler karşısında, insan ister istemez Hinton’ın bu konuda herkesten daha isabetli bir öngörüye sahip olması gerektiğini varsayıyor.
Hinton, Twitter’da Google’dan kırgın biçimde ayrıldığı ya da şirketi hedef almayı planladığı yönündeki iddialara da açıklık getirdi. Şöyle yazdı:
Bugünkü New York Times’ta Cade Metz, Google’u eleştirebilmek için ayrıldığımı ima ediyor. Oysa ben, Google’un bundan nasıl etkileneceğini düşünmeden yapay zekânın tehlikeleri hakkında konuşabilmek için ayrıldım. Google bu süreçte oldukça sorumlu davrandı.
Bu akıl yürütme biçimi, yapay zekâya yönelik eleştirilerin, bu teknolojileri geliştiren ve bundan kâr elde eden şirketlerden bütünüyle bağımsız olabileceğini ima ediyor. Aynı zamanda Hinton gibi öncü geliştiricileri de herhangi bir sorumluluk tartışmasının dışında tutuyor. Hinton’ın Google içindeyken yapay zekâ risklerine ilişkin açık eleştiriler geliştirmemiş ya da somut düzenleyici çerçeveler önermemiş olması, bu açıklamanın samimiyeti konusunda soru işaretleri doğuruyor.
Hinton’ın uzun süreli meslektaşının ayrılığına tepki gösteren Google DeepMind Baş Bilim İnsanı ve yöneticisi Jeff Dean ise, herkesin yüzünü güldürecek biçimde sükûnet çağrısı yaptı:
Geoff, yapay zekâda çığır açan çalışmalara imza attı ve Google’a yaptığı on yıllık katkıyı büyük takdirle karşılıyoruz […] Yapay zekâ ilkelerini yayımlayan ilk şirketlerden biri olarak sorumlu bir yaklaşımı sürdürmeye kararlıyız. Ortaya çıkan riskleri anlamaya çalışırken, aynı zamanda cesur biçimde yenilik yapmayı sürdüreceğiz.
Buna karşın yapay zekâ camiasındaki bazı isimler perde arkasında başka dinamikler olduğundan şüpheleniyor. Bilgisayar bilimcisi Roman Yampolskiy, Hinton’ın açıklamalarına yanıt verirken yerinde bir noktaya işaret etti: Yapay zekâ güvenliği konusundaki kaygılar, kurum içi araştırmalarla çelişmek zorunda değildir — ve olmamalıdır da. Yampolskiy’ye göre, “Yapay zekâ güvenliği konusunda endişe duymayı normalleştirmeliyiz; bunun için bir yapay zekâ araştırmacısının işinden ayrılması gerekmemeli.”
Uyardığı canavarı
Google’un yapay zekâ geliştirme sürecinde gerçekten de ciddi bir “etik sorunu” yaşadığı söylenebilir. Şirket, bu konudaki iç tartışmaları bastırma konusunda defalarca sert bir tutum sergilemiştir. Google’un 2017’de kurduğu Etik Yapay Zekâ ekibinin eski üyesi Margaret Mitchell, ekipten Timnit Gebru’nun görevden alınmasına ilişkin bir iç soruşturma yürüttükten sonra işten çıkarıldı.
Gebru, Aralık 2020’de devasa veri kümeleriyle eğitilmiş yapay zekâ sistemlerinin doğurabileceği riskleri eleştiren bir çalışmanın ortak yazarı olduktan sonra görevinden uzaklaştırılmıştı. Hem Gebru hem de Mitchell, alanın belirgin çeşitlilik eksikliğine dikkat çekmiş; Mitchell bu ortamı “erkekler denizi” olarak tanımlamıştı.
Hinton’ın kendi felsefi ikilemlerine gelince, bunların ne derin ne de sarsıcı olduğu söylenebilir. Uyardığı “canavarın” yaratımındaki Frankensteinvari rolüne rağmen, bunun vicdanını ciddi biçimde rahatsız ettiği izlenimi vermiyor. Hinton, New York Times’a şöyle demişti:
Kendimi klasik gerekçeyle avutuyorum: Ben yapmasaydım başkası yapacaktı. Kötü niyetli aktörlerin bu teknolojiyi kötü amaçlarla kullanmasını nasıl engelleyebileceğinizi görmek zor.
Dr. Binoy Kampmark, Cambridge Üniversitesi Selwyn College’da Commonwealth Bursiyeri idi. Hâlen RMIT Üniversitesi’nde ders vermektedir. E-posta: bkampmark@gmail.com

