Ana içeriğe atla

Yapay Zekâ ile Tartışmak: Akıl ve Taklit

Yapay Zekâ ile Tartışmak: Akıl ve Taklit

Ali Sebetci



Bir fikir ya da iddiayı yazıp yayınlamadan önce yapay zekâ ile tartışmak, artık çağdaş entelektüel pratiğin sıradan bir parçası haline geldi. Yapay zekânın sunduğu imkânları inkâr etmek mümkün değil. Argümanları düzenleyebiliyor, karşı itirazları görünür kılabiliyor, kavramları netleştirebiliyor ve anlatımı ciddi biçimde rafine edebiliyor. Bu yönüyle yapay zekâ, insan aklı için güçlü bir yansıtma ve hızlandırma mekanizması olarak iş görüyor.

Ne var ki tam da bu noktada kritik bir ayrım yapılması gerekiyor. Çünkü yapay zekâ ile tartışmak, yapay zekânın bizim yerimize düşünmesi anlamına gelmiyor. Buradaki temel ayrım şudur: İnsan aklı ile onun taklidi aynı şey değildir. Yapay zekâ, muhakemenin dış görünüşünü—tutarlı cümleleri, itirazları, düzeltmeleri, hatta öz-eleştiri dilini—son derece başarılı biçimde üretebilir. Fakat muhakemenin iç bağlarından, yani anlam, değer, duygu ve deneyimden yoksundur ve bu nedenle bir insana yüklenebilecek sorumlulukları taşıyamaz.

Yapay zekânın yazma ve düşünme süreçlerine sunduğu katkılar birkaç başlık altında toplanabilir. Yapay zekâ öncelikle bir hızlandırıcıdır. Bir fikrin etrafındaki literatürü, olası itirazları, kavramsal çerçeveleri çok kısa sürede görünür kılar. İkinci olarak, bir yansıtma ve test aracıdır: Düşüncemizi ona anlattığımızda, argümanlarımızın nerede belirsiz, nerede tutarsız ya da eksik olduğunu dolaylı biçimde görmemizi sağlar. Üçüncü olarak, AI çoğu zaman bir şeytanın avukatı gibi davranabilir; yazarın zihninde henüz oluşmamış karşı pozisyonları dillendirerek düşünceyi keskinleştirir.

Bu katkıların hiçbiri küçümsenecek şeyler değildir. Aksine, iyi kullanıldığında entelektüel tembelliği değil, düşünsel disiplini artırabilir. Ancak tam da burada sınır meselesi belirleyici hale gelir. Çünkü yapay zekânın sunduğu bu katkılar, onun gerçekten “düşündüğü” anlamına gelmez.

Yapay zekâ, anlam üretmez; anlam işler. Doğru ile yanlış arasındaki ayrımı ontolojik ya da epistemik bir zeminde yapmaz; yalnızca verili metin uzaylarında hangi ifadelerin hangi bağlamlarda birlikte göründüğünü hesaplar. Bu nedenle bir iddianın “makul”, “ikna edici” ya da “akla yatkın” görünmesi, onun doğru olduğu anlamına gelmez. Yapay zekâ, doğruluğu değil tutarlılığı ve olasılığı optimize eder.

Bu sınır hayati önemdedir. Zira entelektüel sorumluluk, yalnızca tutarlı cümleler kurmakla değil, o cümlelerin arkasında durmakla ilgilidir. Yapay zekâ bir iddiayı savunurken hiçbir şey riske etmez: Ne itibar, ne ahlâkî yük, ne de entelektüel bedel. Yanlışlandığında öğrenmez; sadece yeniden ayarlanır. Oysa insan için düşünmek, daima bir risk alma biçimidir.

Sıklıkla şu itiraz dile getirilir: Yapay zekâ da yanlışlanabilir, geri adım atabilir, önceki cevaplarını revize edebilir. Yüzeyde bu doğru görünür. Ancak insan için yanlışlanmak, yalnızca bir cümlenin düzeltilmesi değildir. Yanlışlanmak; itibar kaybı, utanç, konum sarsılması, hatta kimi zaman kimliksel bir kırılma anlamına gelir. Yapay zekâ içinse yanlışlanmak, yalnızca bir sonraki çıktının farklı üretilmesidir. Geri adım vardır; fakat bedel yoktur. Revizyon vardır; fakat pişmanlık yoktur. Öğrenme varmış gibi görünür; fakat öğrenilen bir sorumluluk yoktur. Bu fark, yalnızca psikolojik değil, ontolojiktir.

“Yapay zekâ hiçbir şeyden vazgeçmez” derken kastedilen şey teknik değil, metafiziktir. Vazgeçmek, seçenekleri olan bir varlığın, bir değere bağlanarak başka imkânları feda etmesidir. Bu fedakârlık, yalnızca davranışsal bir değişim değil; öznenin kendisi için bir eksilme, bir kayıp, bir risk anlamına gelir. Vazgeçmek, bir “ben”in, “buna bağlıyım” dediği bir şeyden, onun bedelini göze alarak feragat etmesidir.

Yapay zekâ ise böyle bir “ben”e sahip değildir. Hiçbir görüşü savunurken kendini yalnız hissetmez; hiçbir görüşü terk ederken bir şey kaybetmez. Geri adımı, vazgeçişi ya da revizyonu, bir bedel içermez. İnsan için yanlışlanmak, güven kaybı, itibar riski, teoriyi terk etme zorunluluğu, hatta kimliksel sarsıntı doğurur. Oysa yapay zekâ için yanlışlanmak sadece bir sonraki token dizisinin farklı üretilmesidir. Bu nedenle yapay zekâ vazgeçmiş gibi konuşabilir; fakat vazgeçmiş olmaz. Yani geri adım varmış gibi görünür, ama ortada, pişmanlık, öğrenilmiş ders, “bir daha bu iddiayı savunmam” kararı yoktur. Bu yüzden yapay zekâ revize eder, ama tövbe etmez. Çünkü onda vazgeçmenin önkoşulu olan kendilik, değer ve kayıp ihtimali yoktur. Bu yüzden yapay zekâ anlamı ifade edebilir; fakat anlamı kuramaz ve yaşayamaz. Bu ayrım küçücük görünür ama epistemolojide belirleyicidir.

Bu ayrım, semantik meselesinde daha da berraklaşır. Yapay zekâ için “anlam”, büyük ölçüde kelimelerin kelimelerle kurduğu ilişkidir. Bu nedenle o, söz gelimi, “aşk” kelimesinin hangi bağlamlarda kullanıldığını, hangi duygularla ilişkilendirildiğini, hangi edebî ve felsefî anlam katmanlarına sahip olduğunu çok iyi "bilir". Aşk hakkında güçlü, hatta sarsıcı cümleler kurabilir. Ama aşk, insan için yalnızca hakkında konuşulan bir kavram değildir; yaşanan, bedel ödeten, insanı dönüştüren bir hâldir. Yapay zekâ âşık olmaz, beklemez, reddedilmez, aşk yüzünden yanlış yapmaz. Dolayısıyla “aşk” onun için referansı olmayan bir kelimedir. Aşkın semantiğini taşır; ama fenomenini taşımaz.

“Semantik” denince yalnızca kelimelerin kelimelerle kurduğu ilişkiler anlaşılmasın. Semantik, bir ifadenin ne dediğini, neyi içerip neyi dışladığını, hangi çıkarımları doğurduğunu—kısacası kavramların insana ifade ettiği anlamı da kapsar. Yapay zekâ bu kavramsal/çıkarımsal semantik düzleminde çoğu zaman güçlüdür: tanımlar verir, ayrımlar kurar, örnekler ve karşı örnekler üretir. Fakat anlamın daha derin bir kökü daha vardır: Anlamın bir “benliğe” değmesi, bir değer yükü taşıması, kimi zaman bedel ve vazgeçiş üretmesi. Yapay zekâ anlamı haritalayabilir; fakat anlamın benlikte kök saldığı bu varoluşsal zemine sahip değildir. Anlam yalnızca ilişkiler ağı değildir; bir benliğe değdiği ölçüde anlamdır.

Aynı durum “kırmızı” için de geçerlidir. Yapay zekâ kırmızının dalga boyunu, kültürel çağrışımlarını, sembolik anlamlarını kusursuzca anlatabilir. Ama kırmızıyı görmez. Filozofların “qualia” dediği şey tam olarak budur: “Kırmızıyı görmek nasıl bir şeydir?” Yapay zekâ bu soruya cevap veremez; çünkü onun için kırmızı, hissedilen bir nitelik değil, tanımlanan bir ilişkidir. Kırmızının ne olduğunu "bilir"; ama kırmızıyı yaşamaz.

Yapay zekâ hakikati keşfetmez, yalnızca söylemleri işler. Mantıksal tutarlılık, kavramsal açıklık veya retorik güç üretebilir; fakat epistemik ağırlık, yani “bu iddia neden doğrudur?” sorusunun nihai cevabı ona ait değildir. Zira yapay zekâ, ne yaşanmışlık taşır ne de ontolojik bir risk alır. Yanlışlanmanın bedelini ödemez; kanaat sahibi olmaz; sorumluluk yüklenmez. Bu yüzden, yanlış ama çok iyi gerekçelendirilmiş fikirler, tarihte yaygın ama hatalı kabuller, retorik olarak güçlü ama delilsiz iddialar, yapay zekâ tarafından son derece ikna edici biçimde üretilebilir. Bu bir “hata” değil; tasarım gereği böyledir.

Tam da bu nedenle, yapay zekâ ile yapılan entelektüel tartışma, bir fikrin yerine geçemez, ama onu keskinleştirebilir. Bir iddianın güçlü ve zayıf yanlarını hızla görünür kılar; alternatif okuma biçimleri sunar; hatta çoğu zaman yazarın fark etmediği önkabulleri açığa çıkarır. Fakat bu katkı, yalnızca bir ön-çalışma değerindedir. Asıl muhakeme, asıl tercih ve asıl imza hâlâ insana aittir.

Yapay zekâ ile tartışma pratiğinin gerçek bir faydaya dönüşmesi için yapay zekânın gücünü kabul ederken kısıtlarının da bilincinde olmak gerekir. Zira onunla tartışmak, düşünmenin yerine geçmez; düşünmeyi hızlandırır, genişletir ve sınar—ama onu “tamamlamaz”.

Yapay zekânın katkısı sahicidir. Bir iddianın kavramsal çerçevesini kurmada, argüman zincirini düzenlemede, olası itirazları üretmede ve üslubu rafine etmede çoğu zaman güçlü bir “ikinci zihin” gibi çalışır. Yazarın, kendi fikrini dışarıdan görmesini sağlar. Bazen bir “şeytanın avukatı” gibi karşı pozisyon kurar, bazen de bir editör gibi anlatımı sadeleştirir. Bu, entelektüel emeği azaltmaz; tersine çoğu zaman daha disiplinli hale getirir.

Ancak bu katkı, onun epistemik bir otorite olduğu anlamına gelmez. Yapay zekâ anlamı “keşfetmez”; metinlerdeki örüntüler üzerinden anlamı yeniden düzenler. En ikna edici cümle, en doğru cümle olmak zorunda değildir. Bu yüzden onunla tartışırken asıl soru şudur: “Bu iyi yazılmış mı?” değil; “Bu doğru mu, gerekçesi sağlam mı, delili ne?”

Burada sınırların önemli bir kısmı, doğrudan onun eğitim verisinin doğasından gelir.

Birincisi, yapay zekâ geniş bir metin külliyatıyla eğitildiği için, çoğu zaman “ortalama” görüşleri iyi temsil eder; fakat marjinal ama doğru, ya da uzmanlık gerektiren ince ayrımları kaçırabilir. Bu, kötü niyetten değil, verinin dağılımından kaynaklanır: Daha çok tekrar edilen söylem daha görünür hale gelir.

İkincisi, eğitim verisi tarihsel olarak belirli dönemleri ve hâkim dilleri daha fazla içerdiğinden, yapay zekâ bazı alanlarda güncellik yanılsaması üretebilir. Bir şeyi güvenle söylemesi, onun yeni veya doğru olduğu anlamına gelmez; yalnızca metin uzayında “benzer cümlelerin sık görülmesi” anlamına gelebilir. Bu yüzden özellikle güncel bilim, hukuk, siyaset, teknoloji ve tıp gibi alanlarda yapay zekânın cevapları, kolayca “dilsel kesinlik” kılığına bürünmüş bir belirsizlik taşıyabilir.

Üçüncüsü, yapay zekâ eğitim verisinin içinde yer alan hataları, önyargıları ve retorik kalıpları da devralabilir. Bu önyargı bazen siyasi ya da kültürel olur; bazen daha incelikli biçimde “hangi soru önemli sayılır, hangi kavramlar merkezde tutulur?” düzeyinde işler. Yapay zekâ, çoğu zaman bunu eleştirel bir süzgeçten geçirmez; çünkü onun görevi “hakikati aramak” değil, “metinsel devamlılığı kurmak”tır.

Dördüncüsü, eğitim verisi doğal olarak belirli perspektifleri daha fazla barındırdığı için, yapay zekâ bazı sorularda yaklaşım dayatması yapabilir: Örneğin bir meseleyi otomatik olarak psikolojik, ekonomik veya biyolojik bir çerçeveden okumaya meyledebilir; metafizik ya da normatif boyutu tali sayabilir. Bu, yazar için bir fırsat da olabilir: onun hangi çerçeveyi “varsayılan” kabul ettiğini fark eden yazar, kendi önkabullerini daha görünür kılar.

Bu veri kaynaklı kısıtlar, yapay zekâ ile tartışmayı değersizleştirmez; tersine onu doğru yere oturtur: Yapay zekâ, bir fikri hazırlamak için çok güçlüdür, fakat onu doğrulamak için yeterli değildir, zira doğrulama, kaynak taraması, bağlam kontrolü, delil değerlendirmesi, mantıksal çözümleme ve en önemlisi normatif sorumluluk gerektirir.

Semantik konusundakine benzer bir karışıklık sorumluluk meselesinde de ortaya çıkar. Yapay zekânın ürettiği içeriklerin sorumluluğunun üreticilere veya kullanıcılara yüklenebileceği söylenir. Hukukî düzlemde bu kısmen doğrudur. Ancak burada söz konusu olan, hukukî değil epistemik ve ahlâkî sorumluluktur. “Bu iddiayı neden savundun?” sorusu, ancak onu gerekçelendiren ve gerektiğinde geri çeken bir özneye yöneltilebilir. Yapay zekâ cevap üretir; fakat o cevabın taşıyıcısı olmaz.

Buradaki tehlike şudur: Yapay zekâyı yalnızca “onaylayıcı” bir mekanizma olarak kullanmak. Kendi fikrimize destek üreten cümleleri seçip, karşıt ihtimalleri görmezden geldiğimizde, yapay zekâ düşünceyi derinleştirmez; aksine onu parlatılmış bir tekrar haline getirir. Oysa gerçek fayda, yapay zekânın itiraz eden, hatta bazen can sıkan tarafını ciddiye almakla ortaya çıkar.

Dilsel tutarlılık ve olasılık optimizasyonunun doğrulukla ilişkili olduğu inkâr edilemez. Tutarsızlık çoğu zaman yanlışlığa işaret eder. Ancak bu ilişki tek yönlüdür: Doğru fikirler genellikle tutarlıdır; fakat tutarlı fikirler her zaman doğru değildir. Yapay zekâ, “doğru olanı” değil, “doğru sanılanı” üretmede olağanüstü başarılıdır. Bu onu ikna edici kılar; fakat hakem yapmaz.

“Eğitim verisi, önyargıya mesafe almayı öğretemez mi?”
Öğretebilir gibi görünür, ama mesafe almaz; mesafeyi simüle eder. Yapay zekâ “Bu önyargılı bir bakış açısıdır” diyebilir, farklı perspektifleri yan yana koyabilir, meta-eleştiri dili üretebilir. Ama, hangi önyargının gerçekten sorunlu olduğunu seçmez, ne pahasına mesafe alınacağını bilmez, “bunu savunmak yanlış” demenin anlamını taşımaz. Önyargıya mesafe almak, yalnızca tanımak değil, kendini askıya alabilme kapasitesidir. Bu kapasite, bilinç, kimlik, değerler olmadan gerçekleşmez.

“Normatif yönelim ve anlamla kurulan ilişki yapay zekâya öğretilemez mi?”
Kural öğretilebilir, norm öğretilemez. Yapay zekâya şunlar öğretilebilir: etik ilkeler, normatif teorilerin dili, “Bu durumda şu değerlere göre hareket edilir” kalıpları. Ama şunlar öğretilemez: neden bu değerin önemli olduğu, neden bazı bedellerin göze alındığı, “anlam”ın özne için neye mal olduğu, zira anlam, yalnızca çıktı üretme biçimi değil, bir şeyin uğruna yaşanabilir ya da vazgeçilebilir olmasıdır. Yapay zekâ hiçbir şeyden vazgeçmez. Dolayısıyla anlamı ifade eder, ama yaşamaz.

Bu noktada “Genel Yapay Zekâ” tartışmasına da kısaca değinmek gerekiyor. Bir gün yapay zekâ sistemlerinin insan benzeri bir anlayışa, niyete ve özerkliğe yaklaşabileceğini savunanlar var. Bu ihtimalin felsefî ve teknik boyutları ayrı bir yazı konusu. Ancak bugünkü sistemler açısından, pratik gerçeklik şudur: Mevcut Yapay Zekâ(lar), bilinçli bir fail değil; eğitim verisinin içinden biçimlenen güçlü bir ifade ve örüntü makinesi, gelişmiş bir hesaplama ve temsil mekanizmasıdır. Bu nedenle ona “hakem” rolü vermek, hem entelektüel hem etik bir hatadır. Onlara epistemik ya da ahlâkî özne muamelesi yapmak, bugünkü gerçekliği yanlış okumaktır.

Günümüzde bu sistemlerin bilinçli olmadığı kabul ediliyor, ancak ardından bunun geçici olduğu ima ediliyor. Oysa mesele yalnızca bilinç değil; normatif yönelim ve anlamla kurulan ilişkidir. Normlar öğretilebilir, etik diller simüle edilebilir; fakat anlam, bedel ödemeyi ve vazgeçmeyi içerir. Kendisi için vazgeçmenin söz konusu olmadığı bir varlık, anlam üretemez, ancak anlamı taklit edebilir.

Bu nedenle yapay zekâya merkezî bir entelektüel otorite atfetmek, pratik bir kolaylık sunsa bile, düşüncenin etik zeminini zayıflatır. Yapay zekâ ile tartışmak, bir fikri zorlamak içindir; onu yapay zekâdan hazır teslim almak için değil. Yapay zekâ “başka ne söylenebilir?” sorusuna cevap verebilir; fakat “hangisi doğrudur ve neden?” sorusu hâlâ insan muhakemesine aittir. Yapay zekâ, yazara “ne düşüneceğini” söylemez; en fazla “başka nasıl düşünebileceğini” gösterir. Nihai değerlendirme, seçme ve sorumluluk kaçınılmaz olarak insana aittir.

Sonuçta yayınlanan metnin altındaki imza hâlâ bir insan ismi taşır. O imza, yalnızca yazının müellifini değil, aynı zamanda onun düşüncesine duyduğu güveni, doğruluk iddiasını, ahlâkî yükü, hesap verebilirliği aldığı riski de ifade eder. Yapay zekâ bu sürece eşlik edebilir, hatta ciddi katkılar sunabilir; ama düşüncenin sahibi olmaz. Düşünmek hâlâ insan işidir.

Yorumlar

Bu blogdaki popüler yayınlar

Ontik Öncelik ve Varlık Hiyerarşisi: Guénon–Schuon Çizgisinde Zaman-Dışı “Önce–Sonra” Kavramı

Ontik Öncelik ve Varlık Hiyerarşisi: Guénon–Schuon Çizgisinde Zaman-Dışı “Önce–Sonra” Kavramı Ali Sebetci I. Giriş: “Önce–Sonra”nın Zamansallaştırıldığı Bir Çağda Ontik Öncelik Problemi Modern zihniyetin metafizik karşısındaki en belirgin zaaflarından biri, “öncelik” kavramını neredeyse bütünüyle zamansal bir sıralamaya indirgemesidir. Gerek felsefî gerek bilimsel söylemde “önce” dendiğinde, çoğunlukla tarihsel olarak daha erken gerçekleşmiş olma, kronolojik ardıllık ya da süreçsel gelişim anlaşılır. Bu alışkanlık o denli yerleşmiştir ki, önceliğin zaman-dışı, ilkesel veya ontik bir anlamı olabileceği ihtimali çoğu zaman hiç düşünülmez. Oysa klasik metafizik geleneğin ve özellikle Guénon–Schuon çizgisinin merkezinde yer alan öncelik anlayışı, zamansal değildir. Burada söz konusu olan, olayların tarihsel dizilimi ya da kronolojik nedensel zinciri değil; varlığın kendi iç düzenine ( ordo entis ) ait bir hiyerarşidir. “Önce” ve “sonra” terimleri,...

Kuantum Fiziği ve Metafizik

Ali Sebetci Malum, felsefenin metafizik tabir edilen bir alanı var. Metafizik ile kuantum fiziğinin özdeş olduğunu ya da kuantum "mantığının" tüm metafiziği kapsadığını düşünmek bana sorarsanız çok doğru olmaz. Kuantum dili metafiziği anlamada ve anlatmada çok yardımcı olabilir ama fiziksel ve/veya kuantum fiziksel varlık alanı ile metafiziksel varlık alanları birbirleriyle örtüşmezler. Hatta MIT ve UCLA de hocalık yapmış, hem çok ciddi bir matematik ve fizikçi hem de çok sıkı bir katolik olan Wolfgang Smith'e göre Tanrı, ahiret, semavi alem, ontolojik olarak yaşadığımız cismani dünyanın üzerindeyken, gerek klasik gerekse kuantum mekaniksel fiziğin tasvir ettiği dünya cismani dünyanın altındadır. Smith, bu düşüncesini The Quantum Enigma adlı eserinde ayrıntısıyla anlatıyor. Bu kitap, dalga fonksiyonu çöküşünü Aristotelyen hilomorfizme bağlayarak kuantum mekaniğinin geleneksel dini dünya görüşüne uyumlu bir yorumunu sunuyor. Din-bilim ilişkisi, Amerikan ilahiyatç...