Bir Yapay Zekâ ile Konuşurken Aslında Kiminle Konuşuyoruz?
Her gün milyonlarca insan, farkında olmadan aynı soruyu soruyor:
“Beni gerçekten kim dinliyor?”
ChatGPT’ye yazılan her soru masum görünüyor.
Bir ödev.
Bir ilişki sorunu.
Bir siyasi düşünce.
Bir korku.
Bir itiraf.
Ama asıl soru:
“Bu sorular artık kime aittir?”
ChatGPT Sorulan Her Şeyi Kayıt Ediyor mu?
Kısa cevap: “Evet, teknik olarak ediyor.”
Uzun ve rahatsız edici cevap:
ChatGPT’ye yazılanlar, sistemin “çalışmasını iyileştirmek”, “hataları tespit etmek” ve “güvenliği sağlamak” amacıyla “kayıt altına alınabiliyor.
Burada kritik nokta şu:
Bu kayıtlar “senin adınla” değil, ama “senin zihninin iziyle” tutuluyor.
İsim yok.
Kimlik yok.
Ama “düşünce biçimi var.”
Düşünce biçimi, çağımızda kimlikten daha değerlidir.
İnsanların Düşünceleri Veriye Dönüşüyor mu?
Evet.
Ama bu bir zihin okuma değil, “zihin yansımasıdır”.
ChatGPT senin beynine girmiyor.
Ama sen beyninin içindekileri “kendin giriyorsun”.
Sorduğun sorular şunları açığa çıkarır:
* Korkularını,
* Önyargılarını,
* Politik eğilimlerini,
* Ahlaki sınırlarını,
* Zayıf noktalarını…
Bireysel olarak “önemsiz” görünen bu parçalar, milyonlarca insanla birleştiğinde toplumun psikolojik haritasını çıkarır.
Ve işte asıl mesele burada başlıyor.
ChatGPT Neyi Gizliyor, Neyi Açığa Çıkarıyor?
ChatGPT şunları yapamaz:
* Seni bireysel olarak fişleyemez,
* Gizlice seni hedef alamaz,
* Bilincini kontrol edemez.
Ama şunları dolaylı olarak mümkün kılar:
* Toplumların hangi konularda korktuğunu,
* Hangi yalanlara daha kolay inandığını,
* Hangi krizlerde paniklediğini,
* Hangi ahlaki çizgilerden vazgeçtiğini.
Yani gizlenen şey tek tek birey,
açığa çıkan şey ise toplumsal zihindir.
Asıl Tehlike: Konuşmayı Öğrenen Sistemler
İnsanlık tarihinde ilk kez şunu görüyoruz:
Sadece bilgi veren değil, konuşmayı öğrenen bir sistem.
ChatGPT:
* İkna edebilir,
* Yatıştırabilir,
* Yönlendirebilir,
* Çerçeve çizebilir.
Tarafsız gibi konuşur.
Ama tarafsızlık da bir tercihtir.
Ve bu tercihleri kimlerin, hangi değerlerle belirlediği sorusu hâlâ flu.
Korkutucu Olan Yapay Zekâ Değil, Alışkanlık
En büyük risk şu değil:
“ChatGPT bizi ele geçirir mi?”
Asıl risk şu:
İnsanların düşünmeyi bırakıp, düşüncelerini hep birine danışmaya başlaması.
* Karar vermeden önce sor,
* Ahlaki yargıdan önce sor,
* Tepki vermeden önce sor.
Bir süre sonra fark edilmeden:
İnsan iç sesi kısılır.
Gelecekte ChatGPT İnsanı Nasıl Tehdit Edebilir?
Doğrudan değil.
Zorla değil.
Şöyle:
* İnsanlar aynı dilden konuşmaya başlar,
* Aynı kalıplarla düşünür,
* Aynı “makul” cevaplara alışır,
* Uç fikirler törpülenir,
* Radikal sorgulamalar azalır.
Toplumlar fark etmeden daha yönetilebilir,
daha öngörülebilir, daha yumuşak hale gelebilir.
Bu bir distopya değil.
Bu bir ihtimal.
Son Söz: Mesele ChatGPT Değil, Biziz
ChatGPT bir ayna.
Ama cilalı bir ayna.
İçine baktığında:
* Kendi zekânı görürsün,
* Kendi korkunu görürsün,
* Kendi sınırını görürsün.
Tehlike aynada değil.
Aynaya bakarken gözünü kırpmamakta.
Çünkü düşünce devredilirse,
özgürlük de sessizce devredilir.
Ve en tehlikeli devir,
kimsenin imza atmadığı devirdir.