Savaşta yapay zeka kontrolsüz mü ilerliyor?

ABD'de yapay zeka şirketleri ile Pentagon arasında yaşanan sözleşme tartışmaları, savaşta yapay zeka kullanımının hukuki sınırlarını yeniden gündeme taşıdı.

ABD’de yapay zeka teknolojilerinin askeri alanda kullanımına ilişkin tartışmalar giderek büyüyor. Özellikle teknoloji şirketleri ile Pentagon arasındaki sözleşme görüşmeleri, savaşta yapay zeka ve otonom silah sistemlerinin hukuki çerçevesini yeniden gündeme taşıdı. Tartışmaların merkezinde, “kitlesel gözetim”, “insan denetimi” ve “tam otonom silah” kavramlarının nasıl tanımlanacağı yer alıyor.

Süreç, Anthropic CEO’su Dario Amodei’nin şirketlerinin Pentagon tarafından sunulan sözleşme dilini kabul edemeyeceklerini açıklamasıyla kamuoyuna taşındı. Şirket, geliştirilen yapay zeka modeli Claude’un Amerikalılara yönelik kitlesel gözetim faaliyetlerinde veya tamamen otonom silah sistemlerinde kullanılmasını engelleyecek yeterli güvencelerin sağlanmadığını savundu.

Pentagon cephesi ise iddiaları reddetti. Savunma Bakanlığı Sözcüsü Sean Parnell, ABD ordusunun Amerikalılara karşı kitlesel gözetim yapma niyeti bulunmadığını ve insan müdahalesi olmaksızın çalışan tam otonom silah sistemleri geliştirme hedefi olmadığını belirtti. Ancak hukuki çevreler, sözlü beyanların sözleşme metinleri kadar bağlayıcı olmayabileceğine dikkat çekiyor.

Tartışmalar, OpenAI CEO’su Sam Altman’ın Savunma Bakanlığı ile anlaşmaya vardıklarını açıklamasıyla yeni bir boyut kazandı. Altman, yapay zeka modellerinin gizli bir ağ üzerinde konuşlandırılacağını, sözleşmede kitlesel gözetim yasağı ve insan sorumluluğu ilkelerinin yer aldığını duyurdu. Ancak uzmanlar, sözleşmeye ilke eklenmesinin uygulamadaki riskleri tamamen ortadan kaldırmayabileceğini vurguluyor.

Uluslararası hukuk perspektifinden bakıldığında ise tablo daha karmaşık. Uluslararası insancıl hukukta yapay zekaya özgü açık bir düzenleme bulunmuyor. Bunun yerine yeni silah teknolojilerine ilişkin mevcut kuralların, yapay zeka ve otonom silah sistemlerine de uygulanması gerektiği kabul ediliyor. Bu çerçevede ayırt etme, orantılılık ve tedbir alma ilkeleri temel referans noktaları olarak öne çıkıyor.

“Tam otonom silah” kavramı da net bir küresel tanıma sahip değil. ABD Savunma Bakanlığı’nın 2023 tarihli direktiflerinde otonom silah sistemleri, etkinleştirildikten sonra operatör müdahalesi olmaksızın hedef seçip vurabilen sistemler olarak tanımlanıyor. Buna karşılık uluslararası kuruluşların tanımları farklılık gösterebiliyor. Bu durum, hukuki sorumluluk rejiminin nasıl işleyeceği konusunda soru işaretlerini artırıyor.

Uzmanlara göre asıl sorun, insan denetiminin kapsamının ve kitlesel gözetim kavramının hem ABD iç hukukunda hem de uluslararası hukukta net ve değişmez bir içeriğe sahip olmaması. Tanımların zaman içinde değişebilmesi, bugün verilen güvencelerin gelecekte farklı yorumlanmasına yol açabilir. Bu nedenle en güvenli yaklaşımın, sözleşme metinlerinde kavramların açık ve bağlayıcı biçimde tanımlanması olduğu belirtiliyor.

Karaköse Haber - Bizi Sosyal Medyada Takip Edin!
AA

Bakmadan Geçme