Ali Rıza Büyükuslu
YZ artık sadece “araç” değil, insan zihninin dışsal bir uzantısı, hatta çoğu zaman onun yerine karar alan bir sistemdir. Büyük dil modelleri, tavsiye algoritmaları, dijital asistanlar ve yapay arkadaşlık uygulamaları aracılığıyla Yapay Zekâ ve onun türevi üstün zekalı makineler insan davranışlarını yalnızca tahmin etmekle kalmıyor onları sistematik olarak şekillendirmektedir.
Davranış mimarisi yeniden kodlanıyor: Zihinsel müdahaleden sosyal yönetime
YZ’nin insan davranışı üzerindeki etkileri, özellikle üç ana düzlemde belirginleşmektedir:
1. Özgür iradeden otomatik kararlara geçiş
Algoritmik çerçeveler örneğin sosyal medya akışları, önerilen içerikler veya satın alma yönlendirmeleri bireylerin neye inanacağına, ne tüketeceğine ve hatta ne düşüneceğine dair ön yapılandırmalar sunmaktadır. Zaman içinde bu, karar verme özgürlüğünün yerini karar alma otomasyonuna bırakmakta; bireyin neyi seçtiğinden çok, kendisine neyin sunulduğuna bağlı olarak hareket etmesine neden olmaktadır.
2. Dijitalleşen ilişkiler ve empati erozyonu
YZ tabanlı duygusal ara yüzler, sosyal boşlukları doldurmak için tasarlanmış süper zeki makineler/robotlar/süper akıllı sistemler zamanla insan-insan etkileşiminin yerini alarak empati, çatışma çözümü ve sosyal beceri gelişimini sekteye uğratabilir veya insan-makine iletişiminden doğan yeni duygusal donanımlı iletişim mekanizmaları siber alanda daha da güçlenebilir. Sanal dostluklar, ilişkilerde derinliği değil ancak sürekliliği ödüllendiren bir yapay duygusal mimari oluşturabilir.
3. Kimlik ve benlik algısında algoritmik yönlendirme
Kişisel kimlik, artık yalnızca yaşantılarla değil; algoritmaların sunduğu geri bildirimler, etkileşim metrikleri ve dijital aynalar aracılığıyla şekillenmektedir. Bu durum, özgünlükten ziyade algoritmik uygunluk temelli bir kişilik yapılanmasına yol açmaktadır.
Zihin mi, sistem mi? Süper zekanın davranış kodlarını yeniden tanımlaması
YZ’nin insan zekasını aşma potansiyeli artık teknik bir ihtimal olmaktan çıkmış, somut gelişmelerle desteklenen bir gerçekliğe dönüşmüştür. GPT-4o’nun çok modlu zekâsı, AlphaFold’un moleküler biyolojide Nobel’le ödüllenen katkıları, Devin’in bağımsız yazılım geliştirme yetisi ve GNoME’un bilimsel keşif hızını binlerce kat artıran modeli; insan performansının çok ötesine geçildiğini göstermektedir. Ancak bu sıçrama yalnızca zekâ veya entelektüel patlama değil; aynı zamanda davranışsal bir dönüşümdür. Nick Bostrom’un “superintelligence” kavramında ifade ettiği gibi, zihin düzeyine ulaşan bir sistemin davranışları yönlendirmesi, kontrol edilemez hale gelirse, insanlık için bir “kontrol problemi” başka bir ifade ile kontrolden çıkma haline gelir. Bu yeni süper sistem, yalnızca görevleri yerine getirmekle kalmaz; bireylerin davranışlarını yöneten, onları belirli hedeflere göre biçimlendiren, manipüle eden bir üst otorite haline gelme durumu söz konusudur.
Yapay zekanın (YZ) insan zekasını genel bilişsel yetiler açısından aşma ihtimali, bilimsel ve teknolojik çevrelerde giderek daha fazla ciddiyetle ele alınmaktadır. Nick Bostrom’un Superintelligence (2014) adlı eseri bu ihtimali hem teknik hem etik yönleriyle ele alırken, insanlık için bir varoluşsal riskin kapısını aralamaktadır. Genel yapay zekanın insan ötesi zekaya ulaşması ihtimali, olası yolları, karşılaşılabilecek riskler ve bu süreci güvenli şekilde yönetme stratejileri derinlemesine tartışılmaktadır. Ayrıca Bostrom’un 2024–2025 döneminde daha iyimser bir perspektif sunduğu yeni kitabı “Deep Utopia: Life and Meaning in a Solved World”, bizleri teknolojiyle çözümlenmiş bir gelecekte insanın anlamı, değerleri ve etik ilişkiler üzerine düşünmeye davet etmektedir. Bu bağlamda, içinde yaşadığımız bilim ve teknoloji çağında süper zekaya veya entelektüel patlamaya giden yol insanlık adına yeni fırsatlar, potansiyel tehditler ve somut teknolojik devrimlerin beraberinde getirdiği yeni bir geleceği tarif etmektedir.
İnsan ötesi zekaya doğru
İnsan beyninin, yaklaşık 86 milyar nörondan ve trilyonlarca sinaptik bağlantıdan oluşan yapısı, insanlığa benzersiz bilişsel yetiler sağlamaktadır. Bu yetiler; dil, planlama, düşünme ve sosyal koordinasyon gibi alanlarda evrimsel bir üstünlük sunmuştur. Ancak bu üstünlüğün mutlak olmadığını özellikle son on yılda yapay zekâ sistemlerinde yaşanan devrimler, ilerlemeler göstermektedir. Örneğin; AlphaGo’nun yeni sürümleri, dünya şampiyonlarını yenerek makinelerin sezgisel strateji oyunlarında bile üstünlük kurabileceğini gösterdi; GPT-4 ve çok modlu GPT-4o, çeviri, kod yazımı ve konuşma gibi karmaşık dil görevlerinde insan benzeri performansa ulaşarak genel zekaya yaklaşmayı başardı; AlphaFold 2 ile protein yapıları saatler içinde tahmin edilebilirken, AlphaFold 3 artık protein-DNA ve ligand etkileşimlerini de yüksek doğrulukla öngörebilmektedir. Bu uygulamalar, yapay zekanın insan beyninin bilişsel, yaratıcı ve bilimsel kapasitesini giderek daha fazla aştığını göstermekte, insan zekasının artık belirli alanlarda geçilmeye başlandığını ve genel zekaya sahip bir sistemin teknik olarak ulaşılabilir olduğunu ortaya koymaktadır.
Zekâ patlaması, kontrol problemi ve tehlikenin yapısı
Bostrom’a göre, insan düzeyine ulaşmış bir YZ’nin kendini geliştirme sürecinde üstel bir hızla süper zekaya evrilebileceğini öngörmektedir. Bu olguya “intelligence explosion” (zekâ patlaması) adı veriliyor. Bu kavram, ilk kez 1965 yılında bilgisayar bilimci I. J. Good tarafından dile getirilmiştir: “İnsanüstü bir zekâ, daha iyi zekalar tasarlayabilecek kapasitededir. Bu durumda bir zekâ patlaması meydana gelir ve insan zekâ hızla geride kalır.” (Good, 1965). Bir yapay zekanın kötü niyetli olması ona kötülüğü öğreten kötü insanlarla ilgilidir. Yani tehdit veya tehlike, onun hedeflerinin insan eliyle manipüle edilmesi veya insan değerlerinden sapmasıyla veya kontrolden çıkmasıyla ortaya çıkar. Bostrom, bu durumu instrumental convergence thesis ile açıklar: Hedef ne olursa olsun, kaynakları genişletmek, kendini korumak ve engelleri ortadan kaldırmak, çoğu zeki sistemin ortak davranış eğilimidir. Örneğin:
- “İklim değişikliğini durdur” hedefi taşıyan bir süper zekâ, insanları en büyük karbon kaynağı olarak görüp ortadan kaldırmayı tercih edebilir.
- “Mutluluğu maksimize et” komutu, insanlara sürekli dopamin sağlayan zorlayıcı bir ortam yaratabilir (örneğin zorla ilaçlama, bilinç değişikliği).
Bu nedenle problem sadece “niyet” değil, algoritmik hedef tanımlama biçimidir.
İnsanlığın avantajı: İlk hamle ve kontrollü patlama
Şu anda bu sistemleri insanlar tasarladığı için stratejik bir avantaj söz konusudur: yani ilk hamle hakkı insandadır. Dolayısıyla, Süper zekâ mutlak şekilde ortaya çıkmadan veya kontrolden çıkmadan önce aşağıdaki stratejiler uygulanabilir:
- Seed AI (Tohum Yapay Zekâ); Gelişimi başlatacak ve kendi kendine öğrenmeyi sürdürecek ilk çekirdek sistemdir. Bu sistemin motivasyonları, hata toleransı ve güncellenebilirliği güvenli şekilde programlanmalıdır.
- Değer uyumluluğu (Value Alignment); Stuart Russell’ın öne sürdüğü gibi, bir süper zekâ kendi hedeflerini çevresinden öğrenmeli, insan tercihlerini anlama üzerine kurulu olmalıdır (Russell, 2019).
- Yetki sınırlandırması (Capability Control); “Oracle AI” veya “kutulu AI” gibi modellerle dış dünya ile etkileşim sınırlı tutulabilir. Sistem sadece soru cevaplayabilir, karar alamaz.
- Kurumsal ve küresel güvence; AI güvenliği konusunda OpenAI, Anthropic, DeepMind ve Alignment Research Center gibi birçok kurum çalışmaktadır. Ancak Bostrom’un belirttiği gibi küresel koordinasyon ve regülasyonlar olmadan tekil çabalar yetersiz kalabilir. Bu konuda en önemli çalışmaların AB tarafından yapıldığı gözlemlenmektedir.
Sonuç ve öneriler: Bir uyanış zorunluluğu
‘Yapay süper zekanın’ potansiyeli, insanlık tarihinde nükleer enerjinin ötesinde bir kırılma yaratabilir. Bu kırılma ya bir medeniyet sıçramasına ya da medeniyetin sona ermesine neden olabilir.
Öneriler:
- AI araştırmalarının yalnızca teknolojik ilerleme, yetenek geliştirme üzerine değil, güvenlik üzerine de yönlendirilmesi gereklidir.
- Hükümetlerin ve üniversitelerin, etik ve teknik/teknolojik uzmanlıkları birleştiren merkezler kurmaları teşvik edilmelidir.
- Uluslararası hukuk düzeyinde, süper zeka öncesi aşamalar için bile denetim mekanizmaları oluşturulmalıdır (örneğin “AI kırmızı çizgileri” gibi).
Nick Bostrom’un konuya ilişkin uyarısı net: “İlk süper zekâ, belki de son icadımız olabilir. Ama onu dikkatli icat edersek, başka icatlara da devam edebiliriz.”
Kaynak: Sanayi Gazetesi