Doğukan Gezer - GZT Yayın Yönetmeni
Binyamin Netanyahu’nun öldüğü ya da ağır yaralandığı iddiaları son günlerde sosyal medyada büyük bir dalga halinde yayıldı. Bu iddiaların ardından Netanyahu’nun kamuoyuna ‘hayatta olduğunu’ göstermek için paylaşılan görüntüler ise ironik biçimde yeni bir tartışma doğurdu: Videolardaki kimi görsel bozulmalar, parmak sayısı etrafındaki spekülasyonlar, yüz ve nesne geçişlerindeki tutarsızlıklar, birçok kullanıcıda ‘burada yapay zeka dokunuşu mu var?’ sorusunu akıllara getirdi.
Uluslararası ajanslar, Netanyahu’nun kafede çekilen son videosunun gerçekliğini mekan ve tarih doğrulamasıyla teyit etti; yani ortada tümüyle uydurma bir kayıt olduğu kesinleşmiş değil. Buna rağmen videonun etrafında oluşan şüphe bulutu dağılmadı. Çünkü artık hakikat yalnızca görüntünün gerçek olup olmamasıyla değil, görüntünün ne kadar güven verdiğiyle ölçülüyor.
Tam da burada asıl soru başlıyor: Eğer bu videolarda gerçekten yapay zeka rötuşları, dijital düzeltmeler ya da sentetik müdahaleler varsa, üstelik bunlar bu kadar kolay fark edilebiliyorsa, neden daha kusursuz bir üretim tercih edilmiyor?
YENİ PROPAGANDA MODELİ: KALICI BELİRSİZLİK
Neden ‘hiç iz bırakmayan’ bir sahicilik yerine, tartışmayı büyüten bir gri alan bırakılıyor? Bu sorunun cevabı teknik yetersizlikten çok, modern propaganda mantığında saklı olabilir. Çünkü günümüz enformasyon savaşında amaç çoğu zaman insanları tek bir yalana ikna etmek değil; hakikatin kendisini tartışmalı hale getirmektir.
ABD ordusu için çalışmalar yapan CIA bağlantılı bir kuruluş olan RAND Corporation’ın yıllardır dikkati çektiği bir propaganda modeli var. Bu modele göre modern enformasyon savaşlarında amaç, tek bir doğruyu kabul ettirmek değil; aynı anda çok sayıda, hızlı ve çelişkili içerik dolaşıma sokarak insanların zihinlerinde kalıcı bir belirsizlik üretmek. Kurumun yaptığı çalışmalarda özellikle şu tespit öne çıkıyor: Yanlış bilgi bir kez yayılıp zihinlere yerleştikten sonra, sonradan yapılan düzeltmelerin etkisi oldukça sınırlı kalıyor. Yani bir içerik çürütülse bile, bıraktığı iz kolay kolay silinmiyor.
CAMBAZA BAK!
Bu yüzden kusur bazen bir zaaf değil, işlevsel bir araçtır. Bariz sayılabilecek bir dijital iz, iki yönlü çalışır. İlk olarak, destekçiye ‘bakın adam hayatta’ mesajı verir. İkinci olarak ise karşı tarafa saatlerce, günlerce görüntü analizi yaptırır; parmak mı fazla, fincan neden eksilmiyor, yüz çizgisi neden kayıyor, gölge neden tutarsız gibi tartışmalarla kamusal enerjiyi tüketir. Böylece savaşın, saldırının, sivil kayıpların ya da siyasi sorumluluğun konuşulması gereken yerde herkes piksel konuşmaya başlar. Gündem maddesi, olayın kendisinden görüntünün otantikliğine kaydırılır. Bu da psikolojik harp açısından son derece rasyonel bir sonuçtur.
“MÜKEMMEL SAHTE” YERİNE “YETERİNCE TARTIŞMALI SAHTE”
Bir diğer ihtimal daha var: Kusurun görünür olması, kontrollü inkar alanı üretir. Eğer içerik kusursuz olursa ‘kesin sahte’ hükmü bir süre sonra daha güçlü biçimde kurulabilir; fakat hafif bozulmuş, hafif rötuşlanmış, ‘Belki sıkıştırmadan oldu, belki kötü yayın kalitesidir’ denebilecek görüntüler daha verimli bir belirsizlik yaratır. Böylece içerik üreticisi gerektiğinde ‘Bu yapay zeka değil, sadece düşük kalite video’ diyebilir; gerektiğinde de tartışmanın kendisinden faydalanır. Başka bir ifadeyle burada amaç yalnızca ikna değil, yoruma açık bir alan açmaktır. Modern propaganda çoğu zaman kanıt bırakmamayı değil, fazla sayıda alternatif açıklama bırakmayı tercih eder.
Bilimsel veriler de bu tabloyu destekliyor. 2024’te yayımlanan kapsamlı bir sistematik derleme, insanların deepfake tespitindeki toplam doğruluk oranını yüzde 55,54 olarak buldu; video özelinde oran yaklaşık yüzde 57,31’de kaldı. Yani insan gözü çoğu zaman ancak yazı tura seviyesinin biraz üstünde ayırt edebiliyor. Nature Communications’ta yayımlanan başka bir çalışmada ise bazı deney koşullarında katılımcıların politik deepfake videoları ayırt etme başarısı yüzde 51 düzeyine kadar düştü. Bu şu anlama geliyor: Görüntü biraz kusurlu olsa bile geniş kitleler için hâlâ yeterince işlevsel olabilir. Propagandacı açısından ‘mükemmel sahte’ yerine ‘yeterince tartışmalı sahte’ çoğu zaman daha ucuz, daha hızlı ve daha verimlidir.
ŞÜPHE EŞİĞİNİ DOĞRU AYARLAMAK
Üstelik yeni araştırmalar daha çarpıcı bir noktaya işaret ediyor: Her zaman en sofistike içerik en etkili içerik değil. 2024 tarihli bir politik iletişim çalışması, deepfake’lerin bazı bağlamlarda cheapfake’lerden, yani daha basit manipülasyonlardan daha inandırıcı olmadığını gösteriyor. Hatta kimi durumlarda daha düşük teknolojiyle üretilmiş içerikler, ‘fazla kusursuz görünmedikleri’ için daha doğal algılanabiliyor. Demek ki propaganda operasyonunda mesele yalnızca yüksek teknoloji kullanmak değil; hedef kitlenin şüphe eşiğini doğru ayarlamak. Fazla pürüzsüz görüntü bazen alarm üretir, hafif kusurlu görüntü ise ‘gerçek hayatta da telefon kamerası böyledir’ hissi verebilir yani hayatın gürültülü akışına uygundur.
Netanyahu videoları etrafındaki tartışmanın bize söylediği asıl şey de bu: Yapay zeka çağında ikna, artık yalnızca ‘inanılır olmakla’ ilgili değil; ‘itiraz edilse bile işe yarar olmakla’ ilgili. Bir paylaşım saatler sonra çürütülse bile, ilk anda ürettiği duygu, taraflaşma ve zihinsel sis kalıcı olabilir. UNESCO’nun deepfake tartışmalarında dikkati çektiği ‘bilmenin krizi’ tam olarak budur: İnsanlar yalnızca neye inanacaklarını değil, hangi delilin delil sayılacağını da kaybetmeye başlar. Bu durumda propaganda başarı ölçüsünü doğrulukta değil, güven erozyonunda bulur.
DİJİTAL ÇAMURDA DEBELENMEK YERİNE…
Buradan bakınca ‘Mossad neden bu kadar kolay yakalanan yapay zeka dokunuşları yapsın?’ sorusunun cevabı basitleşiyor: Çünkü belki de amaç yakalanmamak değildir. Amaç, tartışmayı uzatmak; haberi, dedikoduyu ve kanıtı aynı dijital çamurun içine sokmaktır. Hakim taraf ‘Netanyahu öldü’ diye paylaşırken, karşı taraf ‘say parmakları’ diye cevap verir. Sonuçta hakikatin kendisi değil, hakikatin etrafındaki kavga görünür olur. Psikolojik harp tam da bu görünürlük ekonomisinde çalışır. Ölen şey bazen o değil; kamunun ortak gerçeklik duygusudur.
Bu yüzden bugün dijital medya yayıncıları olarak bizler için asıl görev, yalnızca ‘Bu video gerçek mi, sahte mi?’ sorusunu sormak değildir. Daha zor ama daha gerekli olan soru şudur: Bu görüntü, hangi ihtiyaca hizmet ediyor? Hangi tartışmayı büyütürken hangi gerçeği perdelemeye yarıyor? Çünkü yeni dönemde manipülasyonun en tehlikeli biçimi, tamamen sahte olan değil; gerçeğin üzerine ince bir yapay zeka sisi bırakandır. O sis, tam da görüldüğü için etkilidir. Çünkü artık propaganda kusursuz olmak zorunda değil; yalnızca bir miktar da olsa oyalayıcı olması yeterli…