Yapay zekâyı mı, yapay zekâyı kullananı mı konuşmalı?

İsrail’in “Lavender” sistemi ile yapay zekâyı kötüye kullanması, savaşta sivil kayıpları en aza indirmek gibi insani hedefler yerine, savaşın etkisini maksimize etmeye yönelik kararlar alınabildiğini gördük. Savaşın sivillere yönelik etkilerinin artırılabildiğine ve uluslararası hukuka aykırı hareket edilebildiğine tanık olduk.

İllustrasyon: Cemile Ağaç Yıldırım

Dr. Sibel Bülbül Pehlivan / Uluslararası İlişkiler Uzmanı, Türkiye Araştırmalar Vakfı

Yapay zekâ, gelişen teknolojinin de etkisiyle çok hızlı bir şekilde hayatımıza girerken devletlere ve kişilere geniş bir yelpazede kullanım alanları sundu, sunmaya da devam ediyor. Sağlık, finansal alan, perakende ve e-ticaret, ulaşım ve lojistik, enerji, eğitim, üretim ve endüstri, güvenlik ve savunma gibi birçok endüstri ve sektörde çeşitli şekillerde yapay zekâ kullanılabiliyor. Yapay zekânın güvenlik ve savunma alanlarında kullanımı ise siber güvenlik, tehdit tespiti, istihbarat analizi, otomatik hedef takibi, hedefin vurulması ve askeri stratejiler noktasında önemli bir yer tutuyor. Özellikle savaş ahlakı ve sınırları olmayan ülkeler yapay zekânın askeri alanda kullanımını çok hızlı bir şekilde askeri operasyonlarına ve planlarına yerleştirdi. Amaç hedefleri bulma ve yok etme noktasında zamanı hızlandırma ve etkinliği artırmaydı. Fakat bu sürecin ilerleyişindeki ölümcül otonomiyi, sivil hedeflere zarar verme riskini, eşitsizlik ve güç dengesizliğini, veri gizliliği ve mahremiyeti, kötüye kullanma riskini, hesap verilebilirliğin olmayışını henüz daha kimse tartışıp otonom bir mekanizma oluşturmamıştı. Yapay zekânın kullanım alanlarının sınırlarını ve bunun etkilerini kimler, nasıl, neye göre belirleyeceklerdi?

İSRAİL’İN KATLİAMLARINA İMZA ATAN TEKNOLOJİ

Henüz bu sınırlar çizilmemişken yapay zekânın kullanımına savaşlarda rastlamaya başladık. Yapay zekânın askeri alandaki kullanımı, özellikle İsrail’in “Lavender” gibi sistemleri kullanması, siyaset biliminin temel sorunlarından biriyle bizi yüzleştirdi. Bu tür gelişmeler, güç, etik, uluslararası hukuk ve teknolojinin politikaya etkileri gibi konuları ön plana çıkardı. İsrail’in “Lavender” sistemi kendi başına karar alabilme, kendine hedef belirleme, sivil hedeflere zarar verme, eşitsizlik ve güç dengesizliği, veri gizliliği ve mahremiyetin ortadan kalkması, yapay zekânın sağladığı gücün kötüye kullanılması, hesap verilebilirliğin olmaması gibi birçok ciddi tehdidi barındıran bir araç olarak gündemimize girdi.

İsrail’in “Lavender” sistemi ile yapay zekâyı kötüye kullanmasıyla, savaşta, sivil kayıpları en aza indirmek gibi insani hedefler yerine, savaşın etkisini maksimize etmeye yönelik kararlar alınabildiğini gördük. Savaşın sivillere yönelik etkilerinin artıralabildiğine ve uluslararası hukuka aykırı hareket edilebildiğine tanık olduk. Daha da kötüsü, bu durum, daha zayıf olan tarafların maruz kaldığı zararları artırdı ve adaleti derinden sarstı. Bu verilerin toplanması, depolanması ve kullanılmasıyla ilgili etik endişeler de ortaya çıktı. Üstelik, yapay zekâ destekli silahlar orantısız güç kullanımıyla saldırılarda kullanıldı ve ciddi suiistimaller ortaya çıktı. Bu açtı. Günümüzde, İsrail’in Gazze’ye yönelik politikaları ve askeri operasyonları, uluslararası alanda geniş çapta tartışmalara neden oldu ve birçok uluslararası örgüt, hükümet ve kurum arasında güven sarsıntısına yol açtı. Bu eylemler, uluslararası hukuku, insan haklarını ve sivillerin korunmasını ciddi şekilde sorgulayan birçok ülke ve kuruluş tarafından eleştirildi. Dolayısıyla yapay zekânın toplumlar üzerindeki potansiyel etkilerini derinlemesine değerlendirmeyi gerektiren bir olgu olarak gündemimize girdi.

BÜYÜK GÜÇ BÜYÜK SORUMLULUK GETİRİR

Güç ve sorumluluk arasındaki ilişki, yapay zekâ destekli askeri sistemlerin kullanımında önemli bir noktayı vurgular. Yapay zekâ tarafından yönlendirilen bu sistemler, kullanıcılarına büyük bir güç sağlamaktadır. Ancak, bu güç beraberinde ciddi sorumlulukları da getirir. Spiderman’in amcasının Peter Parker’a söylediği ünlü sözde belirtildiği gibi, “Büyük güç, büyük sorumluluk gerektirir.” Bu kavram, siyaset bilimcilerin sıklıkla üzerinde durduğu bir temadır. Güçlü devletler veya aktörler, sahip oldukları teknolojik üstünlüğü nasıl kullanacaklarını dikkatli bir şekilde düşünmelidirler. Yanlış hedeflemeler, masum sivillerin zarar görmesi veya uluslararası hukukun ihlali gibi sonuçlar, bu teknolojilerin kullanımıyla ilişkili önemli sorumlulukları beraberinde getirir. Bu nedenle, güçlü devletler silahlanmayı, potansiyel rakipleri caydırmak ve uluslararası sistemdeki pozisyonlarını korumak için gerekli görürler.

AMAÇ ARAÇLARI MEŞRULAŞTIRIR MI?

“Teknoloji nötrdür, önemli olan onu nasıl kullandığınızdır.” Bu, teknolojinin askeri kullanımı söz konusu olduğunda sıkça dile getirilen bir görüştür. Yapay zekâ destekli sistemler, savunma ve güvenlik amacıyla kullanıldığında etik ikilemleri beraberinde getirir. Bu sistemlerin kullanımı, amaçlar ve araçlar arasındaki etik ilişkiyi sorgular. Siyaset bilimciler, Machiavelli’nin “Amaç araçları meşrulaştırır” yaklaşımını eleştirirken, teknolojinin kullanımının adalet, ahlak ve insanlık değerleriyle nasıl uyumlu hale getirilebileceğini tartışır.

Yapay zekâ destekli askeri sistemlerin kullanımı, “Savaşta adalet mümkün müdür?” sorusunu akıllara getirir. Michael Walzer’ın Savaşta Adalet eseri, bu konuda kritik bir başvuru kaynağıdır. Uluslararası hukuk ve savaş hukuku, bu teknolojilerin kullanımını düzenleyen temel kuralları belirler. Siyaset bilimciler, yapay zekâ destekli sistemlerin kullanımının savaş hukukuna ve insan haklarına uygun olup olmadığını, meşru savunma ve orantılılık gibi prensipler çerçevesinde değerlendirir. Bu sistemlerin kullanımı, savaş alanında adaletin sağlanmasına yardımcı olabilecek kurallara ve normlara ihtiyaç duyulduğunu gösterir.

ÖZGÜRLÜK GÜVENLİK PAHASINA OLMAMALIDIR

“Özgürlük, güvenlik pahasına olmamalıdır.” Benjamin Franklin’in bu sözü, teknolojinin askeri kullanımının sivil özgürlükler ve insan hakları üzerindeki potansiyel etkileri bağlamında önemli bir uyarıyı temsil eder. Siyaset bilimciler, güvenlik ihtiyaçları ile bireysel özgürlükler arasında nasıl bir denge kurulabi-leceğini inceler. Yapay zekâ destekli sistemlerin kullanımı, bu dengeyi bulmanın zorluklarını ve önemini vurgular.

Sonuç olarak, İsrail›in “Lavender” gibi yapay zekâ destekli sistemlerin kullanımı, güç ve sorumluluk, teknoloji ve etik, uluslararası hukuk, ve teknoloji ile özgürlük arasındaki ilişki gibi kritik konuları gündeme getirir. Siyaset bilimciler, bu teknolojilerin kullanımının getirdiği etik, hukuki ve politik sorunları çok boyutlu bir perspektiften ele alır. Teknolojinin askeri kullanımı, sadece savaş alanında değil, aynı zamanda uluslararası ilişkiler, hukuk ve etik alanlarında da önemli değişikliklere yol açar. Yapay zekâ destekli sistemlerin kullanımı, siyaset biliminin temel sorunlarına dair yeni ve önemli soruları beraberinde getirirken, bu alandaki gelişmeleri sürekli olarak değerlendirmek ve sorgulamak gerektiğini hatırlatır.

DÜŞÜNCE GÜNLÜĞÜ
Filistin’in Musa’sı kim olacak?