Share This Article
Deepak P | Çeviren: Taylan Alpagut
Yapay zeka (YZ) söz konusu olduğunda karşı karşıya olduğumuz ikilem şu: Henüz ortaya çıkartılamamış bir “kolaylık” ve “lüks” çağına mı adım atıyoruz, yoksa toplumu felakete sürükleyecek bir distopyanın kapısını mı aralıyoruz?
YZ’ın yaratmış olduğu sonuçlardan (ne) yüzeysel düzeyde etkileniyoruz veya YZ’ın sürecini (nasıl) anlamaya çalıştığımızda genellikle hayal kırıklığına uğruyoruz. Bu ikilem, YZ’ın ortaya çıkardığı sonuçlara yüzeysel olarak bakıp etkilenmemiz ya da süreci anlamaya çalışırken hayal kırıklığına uğramamızdan kaynaklanıyor. Yapay zekayla olan ilişkimiz hiç bu kadar belirgin bir çelişki içeriyor.
ChatGPT gibi büyük dil modellerinin (LLM) ürettiği çıktıların mükemmel görünmesi bizi etkilerken, içeriklerindeki önyargılar ve gerçeklikten uzak anlatılar bizi endişelendiriyor. Benzer şekilde, YZ’nin sanat alanındaki çıktıları büyüleyici görünse de derin anlam eksikliği taşıdığı ve geçmişteki sanatçıların eserlerini taklit ettiği düşüncesi kaygı yaratıyor.
Bu endişelerin en çok, teknolojiyle doğrudan etkileşim kurduğumuz üretken YZ alanında yoğunlaşması tesadüf değil. İnsanlar arasındaki sohbetler birden fazla anlam katmanı içerir. Örneğin, “Kahve içelim mi?” gibi basit bir soru bile günün saati, rahat bir sohbet arzusu, içecek tercihi ve yakındaki kafelerin durumu gibi pek çok örtük anlama sahiptir. Benzer şekilde, “1970’lerin Vietnam’ı” başlıklı bir sanat eserini gördüğümüzde, sanatçının savaş sonrası Vietnam’daki yaşam hakkında bir şeyler anlatmak istediğini düşünürüz. Ancak, LLM’ler bizi derin anlamdan yoksun, insan benzeri fakat mekanik tepkilerle karşı karşıya bırakıyor. İşte, insan benzeri sunum ile makine benzeri düşünme arasındaki bu uyumsuzluk, YZ ikileminin merkezinde yer alıyor.
Ancak, YZ’nin taklit odaklı yapısının yeni olduğunu düşünmek yanlış olur. Taklit paradigması, yapay zekanın doğuşundan bu yana disiplinin temelini oluşturmuştur. Bu teknolojinin günümüzde neden bu kadar büyük bir ilgi gördüğünü anlamak için, yapay zekanın tarihine ve geçirdiği evrime bakmalıyız.
YZ’nin kurucularından kabul edilen Alan Turing (1912-1954), disiplinin temel düşüncelerini geliştirmesiyle tanınır. Yapay zeka, Turing’in ölümünden sonra 70 yıl boyunca dramatik biçimde evrildi ancak mirasının önemli bir parçası bugün bile YZ tartışmalarının merkezinde bulunuyor: Turing Testi.
Bu test, bir teknolojinin çıktılarının insan gibi algılanıp algılanamayacağını sorgulayan kavramsal bir ölçüttür. Bir insanla e-sohbet yapan bir teknoloji düşünelim: Eğer bu teknoloji, karşısındakini bir insanla konuştuğuna ikna edebilirse, Turing Testi’ni geçmiş sayılır. Günümüzde, LLM’lerin kullanımıyla birlikte bu test yeniden popülerlik kazanırken, bilim camiasında da zekanın bir göstergesi olarak benimsenmiştir. Ancak Turing’in orijinal makalesinde vurguladığı nokta, testin zekayı değil, taklidi ölçtüğüydü.
YZ hakkındaki tartışmalar ilerledikçe, teknoloji ve insan arasındaki bu karmaşık ilişkinin daha derinlemesine ele alınması gerekecektir. Bugün için, biz insanlar YZ’nın sunduğu olanakların cazibesine kapılsak da, onun gerçek anlamda “düşünme” kapasitesine ulaşıp ulaşmadığı konusunda soru işaretleri varlığını koruyor.
Turing, taklit oyununu bir zeka testi olarak görmedi
Turing’in buna ‘taklit oyunu’ adını vermesi dikkat çekicidir. Ancak daha sonra yapay zeka topluluğu tarafından ‘Turing testi’ olarak adlandırılmıştır. “Taklit oyunu” ile bir makinenin zeki olup olmadığı yargısı arasındaki farkı anlamak için Turing’in 1950 tarihli “Computing Machinery and Intelligence” adlı makalesinin ilk paragrafına göz atmamız yeterlidir. Bu makalenin girişinde Turing bizden “Makineler düşünebilir mi?” sorusunu ele almamızı ister ve bu sorunun kafa karıştırıcı olduğunu belirtir.
Biraz düşündükten sonra kendini toparlar ve makalenin ilk paragrafını kesin bir ifadeyle kapatır: “Bu soruyu, onunla yakından ilişkili olan ve nispeten açık kelimelerle ifade edilen başka bir soruyla değiştireceğim.” Daha sonra ‘sorunun yeni biçimi’ olarak adlandırdığı taklit oyununu tanımlamaya devam eder. Başka bir deyişle, Turing “taklit oyunu”nun “Makineler düşünebilir mi?” sorusunun yanıtı değil, bu sorunun yerine önerilen bir yaklaşım olduğunu belirtmektedir.
YZ topluluğu, ne yazık ki, taklit oyununu makinelerin zeki olup olmadığına (ya da düşünüp düşünemediklerine veya zeka kullanıp kullanmadıklarına) dair bir ölçüt olarak yanlış anlamıştır. Taklit oyununun ‘Turing testi‘ olarak adlandırılması, bu teste bir otorite havası kazandırmış ve belki de Turing’in bilgisayar topluluğundaki büyük itibarı nedeniyle, yapay zeka araştırmacılarının nesiller boyunca onu eleştirel bir şekilde inceleme konusunda isteksizlik göstermesine yol açmıştır. 2023 gibi yakın bir tarihte, çeşitli ülkelerin liderleri İngiltere’de, bir zamanlar Turing’in çalışma yeri olan Bletchley Park‘ta YZ güvenliğini müzakere etmek üzere bir araya geldiler. Bu bağlamda, Turing’in taklit oyununu bir zeka testi olarak görmediği gerçeği, konuyu eleştirel bir şekilde değerlendirmek için bir fırsat ve cesaret kaynağı sunmaktadır.
Turing’in 1950’lerin başında İngiltere’de taklit oyununu formüle etmesinin arka planında, Atlantik’in diğer yakasında düşünen makineler fikrine olan ilginin hızla artması yatıyordu. O dönemde New Hampshire’daki Dartmouth College‘da genç bir matematik asistan profesörü olan John McCarthy, 1956 yazında sekiz haftalık bir atölye çalışması düzenlemek için fon sağladı. Bu etkinlik daha sonra yapay zekanın “kurucu olayı” olarak kabul edilecekti ve kayıtlar, “yapay zeka” teriminin ilk önemli kullanımının McCarthy’nin Rockefeller Vakfı‘na sunduğu çalıştay için finansman teklifinde olduğunu göstermektedir.
Bir an için, şu anki anlamıyla “yapay zeka”yı unutun ve şunu düşünün: Akıllı makineler geliştirme sürecine doğal olarak hangi disiplinler dahil olmalıdır? Böyle bir sürecin bilişsel bilimler, felsefe, sinirbilim gibi insan zekasını anlama ve tanımlama ile ilgili disiplinlere odaklanması gerektiği düşünülebilir. Diğer disiplinler uygulama araçları olarak rol oynayabilir, ancak genel çabanın zihinle ilgilenen alanlardan gelen bilgi birikimiyle desteklenmesi gerekir. Gerçekten de Turing’in ufuk açıcı makalesini, bilişsel bilimlerle önemli ölçüde örtüşen bir felsefe dergisi olan Mind‘da yayınlamayı seçmesi tesadüf değildir. Dartmouth çalıştayının Rockefeller Vakfı‘nın Biyolojik ve Tıbbi Araştırma bölümü tarafından finanse edilmiş olması, yukarıdaki varsayımların doğruluk payı taşıdığını göstermektedir. Ancak McCarthy’nin çalıştayı yapısal olarak oldukça farklıydı.
Matematiksel araştırmacılar artık düşünen makinelerden ‘bilgisayar’ olarak bahsederken kendilerini yalnız hissetmek zorunda değillerdi.
Dartmouth çalıştayına, IBM gibi teknoloji şirketlerinden önemli bir katılımın yanı sıra, çoğunlukla matematikçiler ve mühendisler hakim olmuştur; diğer disiplinlerden akademisyenlerin katılımı oldukça sınırlıdır. Çalıştay katılımcılarından Ray Solomonoff‘un notlarından oluşan ve eşi Grace Solomonoff tarafından derlenen biyografik tarihçe, ‘yapay zeka’ projesinin mühendislik yönüne ağırlık verildiğini ve nöro-bilişsel-felsefi yönlerden uzaklaştırıldığını gösteren bol miktarda kanıt sunmaktadır. Özellikle Solomonoff’un notları, ana organizatörlerden biri olan ve daha sonra yapay zeka alanında önemli bir figür haline gelecek olan Marvin Minsky‘nin, çalıştay öncesinde yazdığı bir mektupta şu görüşlere yer verdiğini kaydetmektedir:
Proje başladığında, bahse girerim hepimiz felsefe ve dil konularında eşi benzeri görülmemiş bir anlaşmaya varmış olacağız, böylece bu tür önemsiz şeyler için çok az zaman harcanacak. Diğer katılımcılar da Minsky’nin felsefe ve dil konularının zaman kaybettiren önemsiz şeyler olduğu görüşünü paylaşıyor olabilirler, ancak bunu açıkça (ya da bu kadar net bir şekilde) dile getirmemiş olabilirler.

Sentetik zekanın geliştirilmesi
Bilim tarihçisi Ronald Kline, atölye çalışmasına giden tartışmaları anlatırken, başlangıçta beyin modellemesi gibi alanları kapsayan etkinliğin nasıl yavaş yavaş matematiksel bir modelleme projesine dönüştüğünü göstermektedir. Hem Solomonoff’un hem de Kline’ın anlatımlarında belirtildiği gibi, projenin ana bilimsel sonucu, matematiksel sembol manipülasyonunun – daha sonra sembolik YZ olarak bilinecek yaklaşımın – YZ’nin ilerleyeceği temel yol olarak belirlenmesi olmuştur. Bu durum, iki yıl sonra, 1958’de düzenlenen ‘Düşünce Süreçlerinin Mekanizasyonu’ başlıklı konferansta daha da belirgin hale gelmiştir. Konferansa katılan Dartmouth çalıştayının birçok üyesi, matematiksel modelleme üzerine bildiriler sunmuş ve bu eğilim iyice pekişmiştir.
Çalıştay bildirilerinin başlıkları ‘sezgisel programlama’dan ‘koşullu olasılık bilgisayarı’na kadar değişmektedir. Geriye dönüp baktığımızda, Dartmouth çalıştayının düşünen makinelerin gelişimini, bildiğimiz anlamda zekayı anlamaya çalışan disiplinlerden gelen fikirlerin öncülüğünde değil, mühendislik ve matematik bilimleri ekseninde şekillendirdiğini söyleyebiliriz. Dartmouth akademisyenlerinin desteğini alan matematik araştırmacıları, düşünen makinelerden bilgisayar olarak bahsederken artık kendilerini yalnız, özür dileyen ya da savunmacı hissetmek zorunda kalmadılar. Sentetik zekanın geliştirilmesinde sosyal bilimlerin dışlanması, ana akım bir yaklaşım haline gelmişti.
Yine de soru hâlâ ortada duruyor: Bir grup zeki insan, ‘yapay zeka’ arayışının felsefe, dil ve elbette biliş ve sinirbilim gibi konulara zaman harcamaması gerektiğine nasıl ikna oldu? Geriye dönüp baktığımızda, bunun dar bir Turing testi yorumundan, Batı düşüncesindeki dört-beş yüzyıllık felsefi gelişmelerin şekillendirdiği bir bakış açısından kaynaklandığını tahmin edebiliriz. Eğer ‘düşünme’ ya da ‘zeka’nın yalnızca bedenlenmiş ve yaşayan bir organizma içinde mümkün olduğuna inanıyorsanız, Turing’in ufuk açıcı makalesinde yaptığı gibi “Makineler düşünebilir mi?” diye sormak anlamsız olacaktır.
Dolayısıyla, sentetik zekayı bir olgu olarak kabul etmek bile, zekanın ya da düşünmenin bedenlenmiş, yaşayan bir organizmanın dışında var olabileceğine inanmayı gerektirir. Günümüz popüler kültürüne ‘Düşünüyorum, öyleyse varım’ sözüyle yerleşmiş olan 17. yüzyıl filozofu René Descartes, insan bedenindeki düşüncenin merkezinin zihin olduğunu ve bedenin düşünemeyeceğini öne sürmüştür. Kartezyen zihin-beden düalizmi olarak adlandırılan bu fikir, zihin (düşünen kısım) ile beden (düşünmeyen kısım) arasında bir hiyerarşi kurarak, zekanın canlı bir organizma içinde lokalize edilmesine yönelik bir anlayışa işaret etmektedir.
20. yüzyıldaki en önemli başarılarından biri
Descartes’ın vefatından kısa bir süre sonra, Manş Denizi’nin diğer tarafında Thomas Hobbes, “magnum opus”u Leviathan‘da (1651) “akıl… hesap yapmaktan başka bir şey değildir” diye yazacaktı. Buradaki hesaplama, toplama ve çıkarma gibi matematiksel işlemleri kapsayacak şekilde yorumlanmalıdır.
Descartes ve Hobbes, önemli fikir ayrılıklarına sahip olsalar da düşüncelerinde bir sinerji vardı: Descartes düşünmeyi zihne yerleştirirken, Hobbes düşünmeyi indirgemeci bir yaklaşımla hesaplama olarak tanımlıyordu. Bu sinerji, muhtemelen Descartes’ın düalizmi ve Hobbes’un materyalizmi ile tanış olmasının etkisiyle, insan düşüncesine indirgemeci bir açıdan bakan Gottfried Leibniz‘in düşüncelerinde daha da belirgin hale gelmiştir.
1685’te Leibniz, “Kişiler arasında anlaşmazlıklar olduğunda, basitçe ‘Hesaplayalım’ diyebilir ve daha fazla uzatmadan kimin haklı olduğunu görebiliriz” diye yazmıştı. Leibniz’e göre her şey hesaplamaya indirgenebilir. Batı düşüncesinin bu arka planına karşın, Turing – üç yüzyıl sonra – “Makineler düşünebilir mi?” sorusunu soracaktı. Ancak, bu fikirlere karşı çıkanlar da yok değildi; somutlaştırılmış biliş son zamanlarda yeniden gündeme gelse de hâlâ marjinal bir görüş olarak kalmaktadır.
Yüzyıllar boyunca gelişen bu felsefi altyapı, sentetik zekayı hesaplama olarak düşünmek için uygun bir temel sunarken, sentetik zeka geliştirme projesi başarıyı ölçmenin yolları olmadan başlayamaz. Çoğu bilimsel ve mühendislik alanı doğal başarı ölçütlerine sahiptir. Örneğin, bir uçağın başarısı, ne kadar iyi uçtuğuyla ölçülür – ne kadar uzun, ne kadar yüksek, ne kadar istikrarlı uçtuğu gibi nicel değerlerle belirlenebilir. Ancak, üst düzey bir sentetik zeka projesinin doğal bir başarı ölçütü yoktur.
Bu noktada taklit oyunu devreye girerek yapay zeka geliştirme konusundaki başarının, bir makinenin insan gibi görünüp görünmediğine dayanarak ölçülebileceğini öne sürmüştür. Descartes’ın düşünme üzerine fikirlerinde bedeni dışarıda bırakmasına benzer bir yaklaşımla, taklit oyunu da yapay zekanın süreçle (nasıl) değil, yalnızca çıktıyla (ne) ilgilenmesi gerektiğini öne sürmüştür. Bu düşünce, yapay zeka gelişimini şekillendirmiş ve eğer bir teknoloji insan davranışlarını iyi taklit edebiliyorsa, “akıllı” kabul edilebileceği fikrini desteklemiştir.
Taklidin zeka için yeterli olduğunu savunan yapay zeka topluluğunun sonraki adımı doğal olarak Turing testini geçebilecek sistemler tasarlamak olmuştur. Ancak Turing testi soyut, niteliksel ve özneldir. Bazı kişiler bir makinenin insan olmadığını fark etmede daha başarılı olabilir, tıpkı bazı uzmanların derin sahtekarlıkları fark etmede daha iyi olmaları gibi. Yapay zeka topluluğu, insanlar tarafından genel olarak “zeki” olarak kabul edilebilecek teknolojik taklitler geliştirme konusunda güvenilir yollar bulmalıdır. 1983’te McCarthy, yapay zekayı “bilgisayarların problemleri çözmesini ve genel olarak zeki olduğu düşünülen şekillerde davranmasını sağlama bilimi ve mühendisliği” olarak tanımlamıştır. 1960’lardan 80’lere kadar yapay zekanın ilerleme sürecine öncülük eden iki ana yol bulunmaktaydı.
1960’larda Joseph Weizenbaum, Rogerian psikoterapiyi temel alan basit bir sohbet robotu geliştirdi. ELIZA adı verilen bu sistem, hastaları kendi durumları üzerine düşünmeye teşvik etmek için basit dönüşüm kuralları kullanıyordu. Kullanıcıların birçoğu, sistemin iç yapısı oldukça basit olmasına rağmen ELIZA’yı insan sanmıştır.
Weizenbaum, 1966’da yazdığı bir makalede, “Bazı denekleri ELIZA’nın bir insan olmadığına ikna etmek oldukça zor oldu” diye belirtmiştir. Bugün ELIZA etkisi, sembol manipülasyonunun bilişsel yetenekle karıştırılmasını ifade eden bir hata türü olarak kullanılmaktadır.
Bu durum, Ross Ashby‘nin Dartmouth Konferansı‘nda yaptığı ve geriye dönüp bakıldığında kehanet gibi görülebilecek genel bir gözlemiyle yankılanmaktadır:
Bir mekanizmanın bir kısmı gözlemden gizlendiğinde, makinenin davranışı dikkat çekici görünür.
Günümüzde ELIZA etkisi, sembol manipülasyonunun bilişsel yetenekle karıştırıldığı bir hata kategorisine atıfta bulunmak için kullanılmaktadır. Birkaç yıl sonra, bilişsel bilimci Douglas Hofstadter, ELIZA etkisini “ortadan kaldırılamaz” olarak tanımlayacak ve insanlara özgü bir saflığın yapay zekanın hedefleri açısından yeterli olabileceğini öne sürecekti. ELIZA etkisi—yani opak sembol manipülasyonunun, insan kullanıcılar tarafından zeki olarak algılanmaya yetmesi—önümüzdeki yirmi otuz yıl boyunca yapay zekayı önemli ölçüde yönlendirecekti.
Sembolik yapay zeka dalgası, çeşitli boyut ve karmaşıklıktaki sembol manipülasyon kurallarına dayanan ve genellikle “uzman sistemler” olarak adlandırılan farklı yapay zeka sistemlerinin geliştirilmesine yol açtı. Bu alandaki en büyük başarılardan biri, 1970’lerde Stanford Üniversitesi’nde geliştirilen MYCIN adlı sistemdi. Yaklaşık 600 kuralla desteklenen MYCIN, antibiyotik önerileri sunmak üzere tasarlanmıştı (çoğu -mycin ile bitiyordu, dolayısıyla adı buradan geliyordu). Yapay zekanın 20. yüzyıldaki en önemli başarılarından biri olarak kabul edilen IBM’in Deep Blue adlı satranç oynayan bilgisayarı ise 1997 yılında dünya satranç şampiyonunu mağlup ederek kural tabanlı sembolik yapay zekanın başarısını gözler önüne serdi.
Aeon’da yayımlanan, “Mere imitation” başlıklı makaleden derlenmiştir.

