Müjde: “4. Dünya savaşı taş ve sopalarla olmayacak”
Yapay zekânın yaratacağı etki üzerine fazla odaklandığımız için olsa gerek işin etik kısımlarını gözden kaçırıyoruz. "İnsanlık onuru" tehlike altında olabilir.
Geçen haftanın Executive Summary’sini hazırlarken Papa Francis’in G-7 zirvesine katılan liderlere yaptığı konuşmayı okuma fırsatı bulmuştum. Öncelikle Vatikan’ın yapay zekâ konusundaki bilgisine, bilgeliğine şaşırdığımı söylemem lazım.
Konuşmasında yapay zekayı “hem heyecan verici hem de korkutucu” olarak tanımlayan Papa, zirveye katılan liderlere, yapay zekâ teknolojileri ile ilgili çeşitli düzenlemeler yapılması gerektiğinden bahsetti.
“Dünya liderlerine başka ne diyecekti?” diye düşünebilirsiniz. Kafamda kocaman bir “eeee?” ile haberi okurken Papa, daha önce hiç düşünmediğim bir etik konuya giriyor: “Yapay zekâ destekli otonom silahlar”
Papa konuşmasında, "ölümcül otonom silahların" yasaklanması konusundaki ısrarını tekrarlıyor ve "hiçbir makine bir insanı öldürmeyi seçmemelidir. Karar verme her zaman insana bırakılmalıdır” diyerek önümüzdeki dönem bolca tartışılacak bir konuda tarafını belli ediyor. “İnsanlık onurunun kendisi, yapay zekâ programları tarafından yapılan seçimler üzerinde insan kontrolünün olmasına bağlıdır.” diyerek etik hassasiyetlerin altını çizdi.
Habere kısa bir ara verdim. Çeşitli haberler ve videolarda otonom silah teknolojisinin adım adım geldiğini okumuş ya da görmüştüm. Konunun etik tarafını hiç sorgulamamamın sığlığını sindirmem için biraz zaman gerekti. Günlük hayata dair bir sürü konuyu ahlakla soslarken, bu tarz devrimsel olgulara karşı etik farkındalığımızın olmaması ilginç.
Bir makinenin insanın yaşayıp yaşamayacağına karar vermesi kabul edilebilir mi? İnsanlık onuru dediğimiz şey tam olarak nedir ki insan insanı katledince zarar görmüyor da makine kararı ile yerle bir oluyor?
Örneğin bir askeri operasyonda tehditlere karşı insandan daha doğru kararlar vererek sivil kayıplarını azaltacak bir yapay zekâ teknolojisi yerine daha yüksek hata payıyla insan kullanmak daha iyi bir seçenek mi?
Makine hata yaptığında sorumlusu kim? Kodun sahibi şirket? Operasyon brief’ini veren birlik? Sorumlu yok mu ya da?
Makineler ırk, dini sembol, renk ve cinsiyet gibi kriterler sebebi ile taraflı kararlar alırlarsa ne olacak? Bir kişiyi, bir suçluyu, bir düşmanı değil de orada bulunan tüm grubu yok etmenin savaşı kazanmak için daha az kayıp verilen bir yol olduğunu hesaplarsa? Aklımda deli sorular.
Bu konuda fikirlerinizi merak ediyorum.
Fikirlerinizi ya da önerebileceğiniz içerikleri yorumlara yazarsanız tartışma şansımız olabilir.
Yukarıdaki sorular aklıma “3. Dünya Savaşı’nın nasıl olacağını bilmiyorum, ama 4. Dünya Savaşı taş ve sopalarla yapılacak.” sözlerini getirdi. Soğuk savaş döneminde nükleer silahlanma tehdidini anlatmak için söylenen, Einstein’a ait olmayan ama ona atfedilen bir söz. Mutlaka duymuşsunuzdur.
Etik soruları bir kenara bırakalım ve Rusya-Ukrayna Savaş’ında kullanılan drone’ların saldırı görüntülerini hatırlayalım. Şimdi yapay zekâ destekli otonom ölümcül silahlarla drone’ların birleşmesi ile elde edilecek teknolojik üstünlüğü hayal edelim. 3. Dünya Savaşı’nın, nükleer bir savaşa dönüşmesini bu teknoloji engelleyebilir. Ucuz, etkili ve öldürücü.
Nükleer savaş olmaması insanlık için büyük bir şans? (Bilmiyorum.)
Ama şunu iddia etmek mümkün.
Olası bir 3. Dünya Savaşı insanlar arasındaki son savaş olabilir.
4. Dünya Savaşının taş ve sopalarla olmayacağı ise aşikâr.
Düşmanımız artık insan olmayabilir…