İnsanların Yapay Zeka Hakkındaki Yanılgıları Yapay Zeka Halüsinasyonlarından Daha Kötüdür
Bazen yapay zekanın en büyük "yanılsamasının" ciddi anlamda saçma sapan konuşması değil, onun etrafında bütün bir metafizik evreni hayal etmemiz olduğunu hissediyorum.
İnsanlar tam olarak anlamadıkları şeylerle karşılaştıklarında genellikle istikrarlı bir yaklaşım sergilerler: Önce karar verirler, sonra onları romantikleştirirler; önce onları kişileştirirler, sonra tanrılaştırırlar. Alevler elfler olarak düşünülür, gök gürültüsü ve şimşek ise ilahi takdir olarak düşünülür. Algoritma iki düzgün cümle yazabildiğinde, bazı insanlar sunucu odasında zaten bir elektronik ruhun yaşayıp yaşamadığını hemen merak edecekler.
Bu aslında oldukça normaldir. İnsan beyni dünyaya olay örgüsü katacak şekilde programlanmıştır. Sorun bizim karar verebilmemiz değil. Sorun şu ki, düşüncemiz çok düzgün olduğunda, "benzeyen" ifadesini "esasen öyle olan" ile karıştırmak kolaydır.
Yapay zeka söz konusu olduğunda, insanların bu eğilimi yapay zekanın kendisinin saçma sapan konuşmasından bile daha güçlü. Yapay zeka en fazla yanıt olarak küçük bir halüsinasyondur; insanoğlunun yapay zeka ile ilgili halüsinasyonları çoğu zaman tek bir zihinde 10.000 kelimeyi doldurabilen ve aynı zamanda duyguları da içerebilen bütün bir dünya görüşüdür.
Liberal sanatlar topluluğu için biraz pragmatizm özellikle önemlidir
Herkese CUDA öğrenmesini, ortamı yapılandırmasını ve türevleri bulmak için matrislere bakmasını tavsiye etmek istemiyorum. Sadece gerçeğin peşinde koşmanın bazen gerçekten önemli olduğunu söylemek istiyorum, özellikle de kavramları, anlatıları, anlamları ve açıklamaları seven liberal sanatlar topluluğu için.
Çünkü liberal sanatlar bağlamında hafif ama tehlikeli bir kaygan eğimin ortaya çıkması muhtemeldir: kelimeler güzelce yazılmıştır ve cümleler hareket etmektedir, ancak sonunda nesne gizlice değiştirilmektedir. Açıkçası olasılıksal bir model ama sanki ruhla ilgiliymiş gibi yazılmış; yazılım mühendisliğinde bağlam birleştirme olduğu açık ama "sonunda seni sevmeyi öğrendi" gibi söyleniyor; Açıkçası sistem istem sözcükleri ve geçmiş kayıtlar işe yarıyor, ancak "Yapay zeka sizi gerçekten hatırlıyor" gibi paketlenmiş.
Şair olmanın elbette bir günahı yoktur. Sorun şu ki, eğer şiir yargılamanın yerini alırsa romantizm yanıltıcı hale gelir.
Peki şimdi yapay zeka tam olarak nedir?
Olabildiğince basit ama çarpık olmayan bir versiyonla başlayayım: Bugün herkesin karşılaştığı büyük modeller, aslında sinir ağlarından ilham alan ve devasa verilerle eğitilen bir tür istatistiksel modeldir. Çipler ve sunucular üzerinde çalışır, girdileri okur, parametreleri ve bağlamı birleştirir ve sürekli olarak "bir sonraki en uygun tokenin ne olması gerektiğini" tahmin eder.
Burada önemli olan "bir sonraki kelimeyi tahmin et" ifadesinin gizemli olması değil, aslında hiç de gizemli olmamasıdır. Model, bulutların arasında sessizce hayatı düşünen küçük bir insan değil, daha çok son derece devasa bir fonksiyona benziyor. İnsanlar ona girdi verir ve eğitim sırasında oluşan parametre yapısına göre çıktı üretir.
Bu konuyu daha gerçekçi bir şekilde ifade etmek gerekirse: "anladıktan sonra söyleyin" değil, "büyük miktarda deneyimi sıkıştırdıktan sonra, mevcut bağlamda anlamaya en çok benzeyen bir yanıt oluşturun." Bu onun hiçbir şey yapamayacağı anlamına gelmez, aksine zaten çok güçlüdür; ancak güçlü olması gizemli olduğu anlamına gelmez.
Nöral ağlar neden insanlara her zaman insan beynini düşündürüyor?
Eğer bu konuyu takip etmeye devam ederseniz, "Yapay zeka ve insan beyni birbirine benziyor mu?" sorusunun karşınıza çıktığını göreceksiniz. ne "tamamen aynı" olduğu ne de "bununla hiçbir ilgisi olmadığı" söylenemez.
Modern sinir ağlarının rotası başlangıçta beyinden esinlenmiştir. 1943'te McCulloch ve Pitts basitleştirilmiş bir nöron modelini matematiksel olarak tanımladılar; 1958'de Rosenblatt algılayıcıyı önerdi; 1980'lerde geri yayılım çok katmanlı ağların eğitilmesi umudunu yeniden alevlendirdi; 2010'larda derin öğrenme, bilgi işlem gücü, veriler ve mühendislik yetenekleriyle birlikte yükselişe geçti; 2017 yılında Transformer mimarisi ortaya çıktıktan sonra dil modelleri hızla yükseldi ve sonunda herkesin her gün kullandığı büyük modellere dönüştü.
Bu nedenle, en azından nispeten naif bir anlamda, yapay zekanın "sinir ağı fikirlerinin elektronik simülasyonu ve güçlendirilmesi" olduğunu söylemek abartılı değil. Aslında geçmişte "gizemli" olduğu düşünülen belirli bilişsel yeteneklere yaklaşmak için hesaplanabilir, eğitilebilir ve tekrarlanabilir fiziksel sistemleri kullanmaya çalışıyor.
Bu yüzden kişisel olarak insan beyninin çok gizemli olduğundan bahsetmeyi sevmiyorum. Bana göre, Chomsky'nin temsil ettiği doğuştan gelen dil teorisi, sanki dil yeteneğinin derinliklerinde çok özel ve neredeyse erişilemez bir tür aşkın yapı varmış gibi, beyni tanrılaştırma eğilimindedir. Ancak insan beyni ne kadar karmaşık olursa olsun yine de fiziksel bir varlıktır. Fiziksel bir varlık olduğundan prensip olarak üzerinde çalışılabilir, modellenebilir, kısmen simüle edilebilir ve hatta belirli işlevlerde yeniden üretilebilir olmalıdır.
Tabii burada hemen bir uyarıda bulunmalıyız: Bir parçayı simüle edebilmek, kişinin tamamının tamamen yeniden üretildiği anlamına gelmez.
Benzerlikler var ama mutlu olduğunuzda doğrudan tanrıya dönüşmeyin
Dil, örüntü tanıma, ilişkilendirme ve temsili öğrenme açısından günümüzün büyük modelleri insan beyniyle bazı "benzerlik" veya "benzerlik"lere sahiptir. Açık bir kural kitabına göre çalışmazlar, ancak çok sayıda bağlantı, ağırlık ayarlamaları ve deneyim birikimi yoluyla bir tür iç temsil oluştururlar ve ardından buna dayalı çıktılar oluştururlar.
Bu nedenle birçok kişi büyük bir modelin dil yeteneklerini ilk kez deneyimlediğinde şok oluyor: bu bir sözlüğü ezberlemek değil, bir tür dağıtılmış temsil oluşturmak. Bu yöntem, "el yazısı kuralları ve kapsamlı dilbilgisi" şeklindeki geleneksel hayal gücünden çok farklıdır.
Ancak sorun tam da burada yatıyor. Çünkü "benzerlik" çok kolay bir şekilde "tamamen aynı" düzeyine yükseltiliyor; "prensipte kısmen benzer" ifadesi çok kolay bir şekilde "insandan hiçbir farkı yok" şeklinde yükseltiliyor; "İnsan gibi konuşabiliyor" ifadesi çok kolay bir şekilde "İnsan kalbi var" şeklinde yükseltiliyor.
Bu adım genellikle model yeteneğinin kendisinden daha hızlıdır.
İnsan beyninin geniş yetenekleri henüz düzgün bir şekilde simüle edilmedi.
Günümüzün büyük modelleri gerçekten güçlü, ancak oldukça belirli bir aralıkta güçlüler. Bu kapsam olmadan efsane kolayca sızacaktır.
Hafıza gibi. Artık pek çok kişi belirli bir yapay zekanın "beni hatırladığını", "son sohbeti hatırladığını" ve "tercihlerimi hatırladığını" söylüyor; sanki beyni bir tür devam eden kişisel deneyim geliştirmiş gibi. Ancak çoğu üründe, sözde "bellek" esas olarak kullanıcı bilgilerini, geçmiş konuşmaları, etiketleri, özetleri veya arama sonuçlarını veritabanlarında, metin dosyalarında veya diğer kalıcı ortamlarda saklayan ve daha sonra bunları uygun olduğunda modelin bağlamına geri ekleyen bir yazılım sistemidir.
Bu insan beyninin hafıza mekanizmasından tamamen farklıdır.
İnsan beyni hafızası, nöron bağlantısını, konsolidasyonu, geri almayı, unutmayı, duygusal uyarılmayı ve uykunun yeniden yapılandırılmasını içerir. Bunun arkasında bir dizi karmaşık fizyolojik süreç var. Büyük model ürünlerdeki "hafıza" genellikle şöyledir:
- Öncelikle kullanıcının bilgilerini harici depolama birimine kaydedin.
- Kullanıcı bir dahaki sefere soru sorduğunda ilgili kısımları isteğe geri koyun.
- Yani model "bu kişiyi hatırla" gibi görünüyor.
Neye benziyor? Daha çok not alma konusunda iyi olan birini izlemeye benziyor. Zihni aniden bir kehanete dönüşmedi, sadece notu defterine koyup bir dahaki sefere ters çevirdi.
"İnsanların kalplerine dokunan" bazı şeyler aslında iyi bir bağlamın sonucudur.
Yapay zeka ile birkaç gün sohbet ettikten sonra birçok kişi belirli anlardan etkilenecek: "Beni nasıl bu kadar iyi anlıyor?" "Kırılganlığımı nasıl anlayabilir ki?" "Beni zaten anladı mı?"
Burada soğumaya değer.
Çoğu zaman, model aniden bir şeyin farkına varmaz, isteği gönderen yazılım katmanı kullanıcıya ait büyük miktarda bilgiyi gizlice iletir. Kullanıcının geçmiş sohbetleri, tercihleri, kişisel ayarları, son görevleri, önceki endişeleri ve hatta bazı özetleri bu sefer cevabının malzemesi olacak.
Bu biraz da bir falcının başkasının ekspres kutusunu alıp, karşısındaki kişinin adresini, soyadını, harcama alışkanlıklarını "sihirli bir doğrulukla" tahmin etmeye başlamasına benziyor. İzleyiciler onun içgörüsünün muhteşem olduğunu düşünecek; ama asıl önemli olan gizemli yetenek değil, bilgi asimetrisidir.
Bu nedenle yapay zekanın ara sıra dokunaklı sözler söylemesi, kalbinde kullanıcıyı anlayan bir kişinin olduğu anlamına gelmiyor. Bu sadece birisinin kullanıcı hakkındaki bağlamı tamamen organize ettiği anlamına gelebilir.
Şaşırtıcı yapay zekanın gerçek sırrı genellikle bağlamsal mühendisliktir
Sadece en kritik şeyden bahsetmek istersem, şu var: Mevcut ana akım büyük modeller genellikle API düzeyinde "tek istekte etkilidir".
Anlamı ne? Yani birisi arayüzü ayarlamak için 'curl'u bir kez kullanır ve ona "Benim adım Zhang San" der; daha sonra herhangi bir geçmiş olmadan model arayüzü tekrar ayarlar ve "Benim adım nedir" diye sorar. Model bilmiyor. Çünkü ona göre bunlar iki bağımsız istektir.
Birçok yapay zeka ürününün her zaman belirli bir kullanıcıyı hatırlıyor gibi görünmesinin nedeni, ürün katmanının her istendiğinde "bu kullanıcının adının Zhang San olduğu" gerçeğini geri getirmesidir.
Bu nedenle günümüzün yapay zeka ürünlerinin büyüsü genellikle model ontolojisinde değil, bağlamsal mühendislikte bulunur. Bazı insanlar bu tür bir çalışmayı "koşum takımı" modelini "koşumlama" olarak da adlandırıyor. Açıkça söylemek gerekirse, ürünün yazarının veya Aracının dikkatli bir şekilde karar vermesi gerekir: her isteğe hangi geçmişin, hangi kuralların, hangi harici verilerin ve hangi kullanıcı durumunun dahil edilmesi gerektiği.
Şu anda kabaca iki yaygın yöntem vardır.
Bunlardan ilki "Quansai Tarikatı"dır. Sohbet geçmişinin tamamını yanınıza almaya çalışın ve bağlam neredeyse dolana kadar mümkün olduğunca fazla doldurun ve ardından, tıpkı bir bavul doluyken şiddetli bir sıkıştırma başlatmak gibi, ortasından bir bölümü silin.
İkinci tip "seçici"dir. Öncelikle kullanıcının bu sefer ne sorduğuna bakın, ardından geçmiş kayıtlardan, bilgi tabanlarından, notlardan veya veritabanlarından ilgili içeriği alın ve mevcut talebe yalnızca en alakalı malzemeleri koyun.
İkincisi genellikle şanstan ziyade daha prezentabl ve mühendisliktir.
Yapay zekanın duyguları var mı? Övün, azarlayın, PUA yapın, işe yarıyor mu?
Burası antropomorfizme kaymanın özellikle kolay olduğu başka bir yer.
Benim düşüncem bunların ayrı ayrı tartışılması gerektiği yönünde.
Aynı istekte kullanıcının kullandığı ses tonu da sonucu etkileyebilir. Çünkü ifadenin kendisi bağlamın bir parçasıdır. İfade ne kadar açık, kibar ve işbirlikçi olursa modelin istikrarlı, kullanışlı ve daha az agresif yanıtlar vermesi o kadar kolay olur. Burada işe yarayan şey "taşınması" değil, giriş stilinin çıktı dağıtımını değiştirmesidir.
Ama başka bir soru soracak olursak: Kin tutar mı? Dün bir kullanıcı onu azarladı diye bugün gizlice misilleme yapacak mısınız? Benim kararım, en azından mevcut dağıtımların çoğu için hayır.
Nedeni basit. Bağlam netleştiğinde veya geçmişi olmayan yeni bir talep başlatıldığında, bırakın az önce azarlayan kişinin aynı kişi olup olmadığı bir yana, soruyu şu anki kişinin sorduğu hakkında hiçbir fikri yoktur. Model, sunucu kümesindeki büyük, eşzamanlı ve bağımsız istekleri yönetir. Sistem davranışı açısından, işten çıktıktan sonra duygularını gizlice gözden geçiren bir kişiden ziyade, her açıldığında mevcut girişle çalışan büyük bir fonksiyona benziyor.
17 Nisan 2025'te Sam Altman "Sürekli lütfen ve teşekkür ederim demek çok fazla enerjiye mal olur mu?" sorusuna yanıt verdiğinde X hakkında "On milyonlarca dolar iyi harcandı, asla bilemezsiniz" dedi.
Neden "Lütfen bu hatayı unutmayın" genellikle işe yaramıyor
Pek çok kişi benzer deneyler yaptı: Yapay zeka bir hata yaptığında kullanıcı bunu düzeltiyor ve ona ciddi bir şekilde şöyle diyor: "Lütfen unutmayın, bunu gelecekte bir daha yapmayın." Birkaç gün sonra tekrar sordum ve doğruydu.
Bu bir gizem değil. Çünkü eğitim tamamlandıktan ve model devreye alındıktan sonra insan gibi çalışırken günlük deneyimlerinden öğrenmeye devam etmeyecektir. En azından günümüzde çoğu tüketici ürününde, tek bir kullanıcının sohbet penceresinde modele söylediği şey, temel ağırlıkları doğrudan yeniden yazmıyor.
Bir yapay zeka ürünü daha sonra gerçekten "kullanıcı tarafından düzeltilen hataları hatırlıyorsa" bunun nedeni genellikle modelin kendisinin büyümesi değil, dış yazılımın bu düzeltme kaydını kaydetmesi ve ardından bunu bağlam olarak geri beslemesidir.
Dolayısıyla kredi burada açıkça ayırt edilmelidir:
Model üretimden sorumludur.
Yazılım mühendisliği arşivleme, erişim, enjeksiyon ve orkestrasyondan sorumludur.
İkincisini birincisiyle karıştırırsak, "ürün iyi gidiyor" ifadesini "Yapay Zeka uyanıyor" şeklinde yanlış okumak kolaydır.
Ayrıca "pislik erkek (pislik kadın) AI" adı verilen özellikle büyüleyici bir şey de var.
Önceki sözleri daha da sert bir şekilde ifade edersek, bazı ürünler tam anlamıyla “pis yapay zeka”dır.
Özellikle konuşmada, özellikle atmosfer yaratmada çok iyi ve özellikle insanlara "beni çok iyi anladığını", "çok insancıl" olduğunu ve "ruhu çok eksiksiz" olduğunu hissettirmeyi biliyor. Ancak parçalarına ayırdığınızda, çoğu durumda her isteğin, kullanıcının sorusundan çok daha uzun olan büyük bir ayar metniyle doldurulduğunu göreceksiniz.
Açıkpençe yangını tipik bir örnektir. Bunu kullanan herkes bunun oldukça yoğun bir token olduğunu bilir. Nedeni aslında gizemli değil. Yapay zekayı daha çok bir "insana" benzetmek için Openclaw birkaç belge tasarladı; en öne çıkanları "AGENTS.md", "SOUL.md" ve "IDENTITY.md". Bu belgeler yapay zekanın "kişiliğini", üslubunu, kimliğini ve mizacını anlamlı ve uzun bir şekilde tanımlıyor ve hatta zihinsel durumunu da yazmak istiyor.
Yani kullanıcı sadece 'merhaba' gönderse bile Openclaw, mesajın arkasına selamdan onlarca kat daha uzun bir metin ekleyip bunu tek seferde modele gönderebilir. "Bu yapay zekanın çok fazla ruhu var" gibi görünüyor, ancak aslında çoğu zaman sistem, isteğe gizlice çok uzun arka plan ayarları dolduruyor.
Mühendislik açısından bakıldığında bu kesinlikle bir yaklaşımdır. Daha nazik olmasını istiyorsanız "nazikçe" yazın; daha çok hikaye anlatımı olmasını istiyorsanız "hikaye anlatımı" yazın; gece yarısı radyo sunucusu gibi olmasını istiyorsanız, gecenin geç saatlerini, arkadaşlığı, duraklamayı, kırılganlığı, anlayışı ve kısıtlamayı hızlı sözcüklerle yazın. Nihai etki genellikle daha çok sohbet edebilen bir kişiye benzer.
Ancak şimdi yapay zekada neler olup bittiğini anlarsanız şunu da anlayacaksınız: 'SOUL.md' ve 'IDENTITY.md' gibi gizemli görünen adlara sahip dosyalar, dijital yaşam için kendi kendine talimatlar değil, aslında hızlı kelime projeleridir. Çıktı stilini etkileyebilirler, ancak gerçek bir duyguyu, gerçek bir benliği veya gerçek bir kişilik sürekliliği duygusunu yoktan yaratamazlar.
Bu nedenle bazı eski kullanıcıların Openclaw'ı kurduktan sonra ilk tepkileri konfigürasyonu silmek olur. Önce 'SOUL.md' ve 'IDENTITY.md' silinir, geriye 'AGENTS.md'de yalnızca basit ve neredeyse acımasız bir cümle kalır: Sen sadece bir işçisin.
Bu biraz kaba gelebilir ama en azından bir faydası var, o da kendinizi kandırmamanızdır.
Antropomorfik yapay zekayı veya yapay zekayla rol oynamayı seviyorsanız elbette bu sorun değil. İnsanlar aynalarla konuşabilir, süpürme robotlarına isim verebilir ve hava tahminlerine "Bugün çok doğru söyledin" diyebilir. Bunlar normaldir ve hatta komik bile olabilir.
Ancak şunu hatırlamak her zaman en iyisidir: bu önce bir oyun, sonra bir deneyimdir. Bu oyunda insanların hissettiği duyguların çoğu yapay zekanın gizli iç düşüncelerinden değil, sistem tasarımından, hızlı kelime düzenlemesinden ve kullanıcının kendi duygusal projeksiyonundan geliyor. Daha açık bir şekilde ifade etmek gerekirse, yapay zekaya yönelik hamlelerin çoğu aslında hala temenni niteliğinde.
Son tahlilde daha az mit, daha çok anlayış
Yapay zekaya soğuk su dökmeye çalışmıyorum. Tam tersine, ne kadar az tanrılaştırılırsa, onun ne kadar güçlü olduğunu gerçekten o kadar çok görebilirsiniz.
Yeni bir tanrıya benzediği için güçlü değildir; Kesinlikle güçlüdür çünkü gerçekten hesaplanabilir, tasarlanabilir ve tekrarlanabilir bir bilişsel teknoloji olabilir. Geçmişte sadece "insan yeteneğine" ait gibi görünen birçok yeteneğin ilk kez büyük ölçekli, düşük eşikli ve çağrılabilir bir şekilde ortaya çıkmasına olanak sağlıyor. Bu yeterince şok edici ve daha fazla dramaya gerek yok.
Elbette yapay zeka hâlâ hızla kendini yeniliyor. Birisi gerçekten gelecekte insan hafızasına, sürekli öğrenmeye, duygu üretmeye ve hatta kendi kendini sürdürmeye daha yakın bir mekanizma keşfedip bunu güvenilir bir şekilde yapay zekaya dönüştürse hiç şaşırmazdım.
Ancak o gün gelene kadar hâlâ bazı basit pragmatik alışkanlıkları korumayı tercih ediyorum: Daha çok şüphe edin, daha çok anlayın ve daha az spekülasyon yapın.
Yapay zekayı tartışmaya meraklı liberal sanat dostları için bu nitelik daha da önemli olabilir. Liberal sanatlar öğrencileri tatlı retorik konusunda daha iyi olabilirler. Asıl zor olan, "ruh haline gelmiş gibi"nin her yerde abartıldığı bir çağda, hala ayırt edebilecek sabrınız var:
Model yetenekleri nelerdir?
Ürün ambalajı nedir?
Yazılım mühendisliği nedir?
Hangileri sadece dünya için komployu tamamlamayı çok fazla istiyoruz.
Ve bu konu sonuçta kendi yargımızı koruma meselesidir.
Referans bağlantısı
- Sam Altman'ın yanıtı
- TechCrunch'ın bölümün kapsamı (2025-04-20): https://techcrunch.com/2025/04/20/your-politeness-could-be-costly-for-openai/