AI, Machine learning, Hands of robot and human touching on big data network connection background, Science and artificial intelligence technology, innovation and futuristic.
Yapay zeka (YZ) son yıllarda hızlı bir gelişme gösterdi. Bugün sahip olduğumuz bilgisayarlar, telefonlar ve diğer cihazlar, insanları ilkel gösterecek seviyede zekaya ve kabiliyetlere sahip. Teknolojinin bu hızlı gelişen sahasında birçok kişi YZ’nin bilinç sahibi olabileceğini ve bu durumun sonuçlarının dini anlatımı sarsacağını/altını oyacağını öne sürüyor. Eğer YZ bilinç sahibi olabiliyorsa, bizi insan yapan şeyin ne olduğunu anlatmak fizikalist bir açıklama olması gerekiyor.1 İslam’daki ruh kavramı, hakkında çok az bilgiye sahip olduğumuz bir kavram. Fakat ruh hakkında, onun ‘gözle görünmeyen/gayb’ olduğunu, aşkın bir gerçekliğe ait olduğunu söyleyebiliriz. Bu açıdan bakıldığında eğer bedeni hareket ettiren ve maddi olmayan bir şey olarak ruh, fizikalist ve maddeci bir açıklama ile ikame edilebilirse dini[n temelleri] sarsılmış olur.2
Fizikalistler bilincin ve öznel bilinçli hallerin (fenomenal haller olarak da ifade edilirler) yapay zeka üzerinden açıklanabileceğini —bilincin bir bilgisayar programına benzer şekilde çalışacağını—iddia edebilirler. Fakat, zayıf YZ ile güçlü YZ arasında bir fark var. Zayıf YZ bir bilgisayar sisteminin zeka [ürünü sonuçlar] sergileme kabiliyetidir. Buna karmaşık matematiksel eşitlikleri çözmek veya satrançta birden fazla rakibi yenmek örnek olarak verilebilir. Güçlü YZ ise bilgisayar sistemlerinin gerçekten bilinç sahibi olması anlamına gelir. Bir diğer deyişle, öznel bilinçli halleri tecrübe etme kabiliyetine sahip olmaları anlamındadır—ki buna şeylere anlam yüklemek de dahildir. Zayıf YZ mümkündür ve halihazırda geliştirilmiştir. Güçlü YZ ise mümkün değildir. Aşağıda bunun sebeplerini açıklayacağız.
Birinci sebep bilgisayarların akıl yürütme kabiliyetine sahip bağımsız sistemler olmamasıdır. Bir şeyin bilinçli olarak vasıflandırılmış olması onun rasyonel düşüncenin bağımsız bir kaynağı olduğunu ima eder. Fakat bilgisayarlar (ve bilgisayar programları) tasarlanmış, geliştirilmiş ve bağımsız olarak rasyonel olan insanlar tarafından yapılmışlardır. Dolayısıyla bilgisayarlar bizim zeka istidadımızın (kabiliyetimizin) bir uzantısıdırlar. William Hasker şöyle açıklıyor:
“Bilgisayarlar, kendilerine verilen ölçüler üzere işlem yaparlar. Bir bilgisayar, diğer bir deyişle, kendisini tasarlayanların ve kullananların aklının bir uzantısıdır; bir televizyon yayınlanan haber bültenlerinden ne kadar bağımsızsa bir bilgisayar da kullanıcısından ve tasarımcısından o kadar bağımsızdır.”3
İkinci sebep ise insanların zeki olmanın yanında akıl yürütme süreçlerinde niyet sahibi olmasıdır. Bu da bizim akıl yürütüşümüzün bir şey hakkında veya üzerine olduğu ve bir anlam ile bağlantılı olduğu anlamına geliyor.4 Buna karşın bilgisayar programları bir anlama sahip olma [veya anlam verme] vasfına sahip değildirler. Bilgisayar sistemleri sadece sembolleri manipüle ederler. Bir sistem için semboller bir şey hakkında veya üzerine değildir —bilgisayarlar o sembolleri, sembollerin ne hakkında veya ne üzerine olduğundan bağımsız olarak “görürler/anlarlar”. Bilgisayar programları sentaktik (sözdizimsel, semboller üzerine) kaideler üzerine çalışır, semantik (anlam) üzerine değil. Semantik (anlam) ve sentaks (sözdizim) arasındaki farkı daha iyi anlayabilmek için aşağıdaki örneği inceleyelim:
– Ailemi seviyorum
– αγαπώ την οικογένειά μου.
– আমি আমার পরিবারকে ভালবাসি.
Üç cümle de ‘’ailemi seviyorum’’ manasına geliyor. Bu, semantikle alakalıdır yani cümlelerin anlamı ile. Fakat sentaks farklıdır. Bir diğer deyişle, kullanılan semboller birbirine benzemez. İlk cümle, Türkçe’de kullanılan ‘sembolleri’, ikincisi Yunanca ve üçüncüsü de Bengalce’de kullanılan sembolleri kullanıyor. Buna göre aşağıdaki argüman geliştirilebilir:
1. Bilgisayar programları sözdizim (sentaks) temelli çalışır.
2. Zihin, anlam temelli işler.
3. Sözdizim, yani bir araya getirilmiş birtakım semboller, bizatihi bir anlam oluşturmaz.
4. Dolayısıyla, bilgisayar programlarının [insan zihni gibi] bir ‘zihin’ olduğu söylenemez.5
Düşünün ki bir çığ, dağdan sürüklediği taşları ‘Ailemi seviyorum’ yazacak şeklinde dizebilsin. Dağın, taşların nasıl tanzim edileceğini (sembolleri) bildiğini söylemek çok garip olurdu değil mi? Yani sembollerin bir şekilde tanzim edilmiş olması (sentaks), anlamlı bir ifade (semantik) ile sonuçlanacağını göstermez.
Bilgisayar programları sembollerin manipülasyonu üzerine çalışır, anlam üzerine değil. Tıpkı benim Bengalce’nin alfabesiyle yazılmış bir cümlenin anlamını, harflerin (sembollerin) yerlerini değiştirerek (manipüle ederek) bilemeyeceğim gibi. Alfabedeki harfleri ne kadar manipüle edersem edeyim, kelimelerin anlamını çıkaramam. Bu yüzden semantik için doğru bir sentakstan daha fazlasına ihtiyacımız vardır. Bilgisayar programları sentaks üzerine çalışır, semantik üzerine değil. Dolayısıyla bilgisayarlar, hiçbir şeyin ‘anlamını’ bilmezler.
Prof. John Searle’nin Çin Odası Deneyi, sembollerin manipülasyonlarının anlam üzerinde herhangi bir tesiri olmadığını göstermek için oldukça etkili bir yoldur:
“Bir odada kilitli olduğunuzu düşünün; odada, üzerlerinde Çince semboller bulunan sepetler olsun. Diyelim ki siz (benim gibi) tek sözcük Çince anlamıyorsunuz. Ama elinizde Çince sembolleri nasıl manipüle edeceğinizi İngilizce olarak açıklayan bir kural kitabı bulunsun. Kurallar Çince’yi tamamen biçimsel olarak, yani sözdizimlerine uygun olarak açıklıyor; anlamlarına göre değil. Kural şunu söyleyebilir: “Falan falan tabelayı bir numaralı sepetten al ve iki numaralı sepetten aldığın filan filan tabelanın yanına koy.” Şimdi, odaya başka Çince sembollerin de getirildiğini ve size Çince sembolleri odanın dışına vermek için, başka kurallar da verildiğini varsayın. Odaya getirilen ve sizin tarafınızdan bilinmeyen sembollerin oda dışındakilerce ‘soru’ diye; sizin oda dışına vermeniz istenen sembollerin ise ‘soruların yanıtları’ diye adlandırıldığını düşünün. Diyelim ki programı yazanlar da, bu sembolleri işleten siz de çok ustasınız ve sembolleri manipüle etmekte çok iyisiniz, öyle ki verdiğiniz yanıtlar anadili Çince olan birininkinden ayırt edilemeyecek seviyede. İşte orada kilitli olduğunuz odanın içinde Çince sembolleri birbirine karıp gelen Çince sembollere yanıt olarak bazı Çince semboller veriyorsunuz…Şimdi bu hikayenin ana fikri şu: dışarıdan bir gözlemcinin bakış açısına göre, bir bilgisayar programı şeklinde çalışarak Çince biliyormuş gibi davranmış oldunuz, fakat buna karşın tek kelime dahi Çince anlamıyorsunuz.”6
Çin odası düşünce-deneyinde odadaki kişi bir bilgisayarı temsil ediyor. Diğer kişi sembolleri öyle yönetiyor ki odadaki kişi Çince anlıyormuş gibi görünüyor. Fakat içerideki kişi Çince anlamıyor, sadece bir taklitte bulunuyorlar. Prof. Searle şöyle tamamlıyor:
“Semboller tek başına –sadece sözdizim ile- bir anlam ortaya koymak için yeterli değildir. Sembollerle oynamak sembollerin ne anlama geldikleri hakkında bir bilgi edinmeyi garantilemez.”7
Buna itiraz eden biri diyebilir ki, bilgisayar programı anlamı bilmiyor olsa dahi sistemin tamamı biliyor. Profesör Searle bu itirazı “sistem cevabı”8 olarak isimlendiriyor. Fakat bilgisayar programı neden anlamı bilmiyor? Cevap basit: bir bilgisayar programı, sembollere hiçbir şekilde bir anlam yükleyemez. Sembollere anlam yükleyemeyeceğine göre, nasıl olur da bu programa dayanan bir bilgisayar sistemi, anlamı kavrayabilir? Sadece doğru programa sahip olarak bir ‘anlayış/idrak’ üretemezsiniz. Searle, Çin Odası Düşünce-Deneyi’ni genişleterek bir bütün olarak sistemin, anlamı kavrayamadığını anlatıyor: “sepetlerde ve kuralların yazılı olduğu kitapçıktaki her şeyi ezberlediğimi ve bütün hesapları zihnimde yaptığımı düşünün. Dışarıda bir yerde çalıştığımı da düşünebilirsiniz. Bende olmayıp da ‘sistemde’ olan hiçbir şey yok ve ben Çince anlamadığıma göre, sistem de Çince anlamıyor.”9
Lawrence Carleton Searle’nin Çin Odası deneyinin geçersiz olduğunu öne sürüyor. Ona göre Searle’nin argümanı ‘öncülün reddi’10 olarak bilinen safsataya denk düşüyor. Carleton, Searle’nin bu safsataya düşmesinin sebebini “amaçlılık üretmek için tek yol olduğuna dair hiçbir delil yok”11 diyerek açıklıyor. Searle’nin sadece beyinlerin sembolleri anlama ve onları manipüle etme süreçlerine sahip olduğunu (amaçlılığı) varsaydığını ve bilgisayarların bu süreçlere sahip olmadığını iddia ediyor. Carleton safsatayı aşağıdaki şekilde sunuyor:
“’Belirli beyin-süreçlerinin karşılıkları amaçlılık üretir’, ‘X bu karşılıklara sahip değildir’, dolayısıyla ‘X’de amaçlılık yoktur’ demek biçimsel safsataya düşmektir, ‘öncülün reddi’ safsatasına.”12
Bununla birlikte Dale Jacquette, Searle’nin argümanın aşağıdaki şekilde yorumlanması halinde biçimsel bir safsataya düşmediğini öne sürüyor:
“Eğer X (doğası itibarıyla) amaçlı ise X’in belirli beyin-süreci karşılıkları vardır.”13
Jacquette, Searle’nin argümanının işlevselcilikten bir taviz olduğunu düşünüyor. Jacquette’a göre işlevselciler “protoplazma hakkında özel bir şey olmadığını iddia ederler, böylece girdi-çıktı programını doğru bir şekilde somutlaştıran düzgünce organize edilmiş herhangi bir madde zihnin amaçlılığını kopyalar.”14 Searle, makinelerin Çince anlamaya kabiliyetine sahip olabileceğini de kabul ediyor gibi görünüyor. Fakat şöyle bir ifadesi de var: “Makinenin çalışmasının yalnızca şeklen tanımlanmış öğeler üzerine [inşa edilen] hesaplama süreçleri açısından tanımlandığı bir makineye böyle bir şey [Çince anlama kabiliyeti] veremeyeceğimizi söylemek için çok güçlü argümanlar görüyorum…”15
Eğer bilgisayarlar sembollere anlam yükleyemiyorlarsa Searle hangi bilinçli makineden söz ediyor? Eğer bir robot postule edilse dahi (ki bunu Searle reddeder), yine üstesinden gelinemez problemler ortaya çıkardı. Makineler “şeklen tanımlanmış öğeler” temelinde çalışır. Öyle görünüyor ki bir makinenin anlayışa (sembollere anlam yüklemeye) sahip olması yukarıdaki süreç ve öğelerden fazlasını gerektirir. Böyle bir makine var mıdır? Cevap hayır. Peki var olabilir mi? Eğer bu mümkün olsaydı, “şeklen tanımlanmış öğeler üzerine [inşa edilen] hesaplama süreçleri”nden başka bir şey gerekiyorsa makine olarak tanımlanmazlardı.
Rocco Gennaro’ya göre birçok felsefeci Searle’nin robotların fenomenal bilinç sahibi olamayacağı görüşüne katılıyorlar.16 Bazı felsefeciler bilinç sahibi bir robot yapmak için “niteliksel tecrübenin mevcut olması gerekir”17 diyorlar, bu onların kötümser olduğu bir konu. Diğerleri bu kötümserliği şöyle açıklıyorlar:
“Bilinci açıklamak, bilginin öznel, iç beliriminin beyinde nasıl ortaya çıktığını açıklamaktır ve öyleyse bilinçli bir robot oluşturmak bilginin öznel iç belirimini robotun içinde oluşturmak olur… ne kadar ileri seviye olursa olsun bu büyük ihtimalle robotu bilinçli yapmayacak çünkü [bunun gerçekleşmesi için] fenomenal iç belirimlerin de mevcut olması gerekiyor.”18
Yapay zeka sembollere anlam yükleyemez, onları sadece çok karmaşık şekillerde manipüle eder. Dolayısıyla yapay zekanın hiçbir zaman güçlü versiyonu olmayacak. Bu sebeple yapay zeka dini yanlışlayamaz, sarsamaz.
1 Fizikalizm bilincin bir şekilde fiziksel süreçlere indirgenebileceğini, fiziksel süreçlerle açılanabileceğini veya fiziksel süreçlerle özdeş olduğunu öne süren görüştür.
2 Fizikalizm ile materyalizm terimleri, farklı alanlarda farklı anlam ve tarihe sahip olsalar da, zihin felsefesinde aynı anlama sahiptirler.
3 Hasker, Hasker. Metaphysics (Downer’s Grove, IL: InterVarsity, 1983), 49; also see “The Transcendental Refutation of Determinism,” Southern Journal of Philosophy 11 (1973) 175–83.
4 Searle, John, Intentionality: An Essay in the Philosophy of Mind. (Cambridge: Cambridge University Press, 1983), p. 160.
5 Searle, John. (1989). Reply to Jacquette. Philosophy and Phenomenological Research, 49(4), 703.
6 Searle, John. (1984) Minds, Brains and Science. Cambridge, Mass: Harvard University Press, pp. 32–33.
7 Searle, John. (1990) Is the Brain’s Mind a Computer Program? Scientific American 262: 27.
8 A.g.e, 30
9 A.g.e
10 İngilizce: Denial of the antecedent (çev. notu)
11 Carleton, Lawrence (1984). Programs, Language Understanding, and Searle. Synthese, 59, 221.
12 A.g.e
13 Jacquette, Dale. “Searle’s Intentionality Thesis.” Synthese 80, no. 2 (1989): 267.
14 A.g.e, 268
15 Searle, John. (1980b) Minds, Brains, and Programs. Behavioral and Brain Sciences 3, 422.
16 Gennaro, Rocco. Consciousness. (London: Routledge, 2017), p. 176.
17 A.g.e
18 A.g.e