Yapay zeka suç planlarını gerçekten engelleyebilir mi?

ChatGPT, Gemini ve benzeri yapay zeka platformları, sistemlerini suç amaçlı kullanmaya çalışan hesapları otomatik olarak tespit edip kapatabiliyor.

WhatsApp

AĞRI KARAKÖSE HABER WhatsApp Kanalını Takip Et

En güncel haberler için bizi WhatsApp kanalımızdan takip edin!

WhatsApp TAKİP ET

Yapay zeka teknolojileri, günlük yaşamdan akademik araştırmalara kadar geniş bir kullanım alanına sahip olsa da bazı kullanıcılar bu sistemleri yasa dışı amaçlarla kullanmaya çalışabiliyor. Büyük dil modelleri üzerinden hizmet veren platformlar, bu risklere karşı gelişmiş güvenlik ve denetim mekanizmaları uyguluyor.

En yaygın kullanılan yapay zeka araçları arasında ChatGPT, Gemini, Claude, Microsoft Copilot, Grok, Perplexity ve DeepSeek bulunuyor. Bu platformlar; araştırma, eğitim, yazılım geliştirme ve sağlık bilgisi edinme gibi pek çok alanda kullanılırken, fiziksel saldırı planlaması ya da silah üretimi gibi yasa dışı taleplere karşı ise otomatik filtreleme sistemleri devreye giriyor.

Platformlar, zararlı içerik üretimini engellemek için çok katmanlı güvenlik protokolleri uyguluyor. Kullanıcı sorguları gerçek zamanlı olarak taranıyor; şiddet, silah yapımı, yasa dışı madde üretimi veya ciddi fiziksel zarar içeren ifadeler tespit edildiğinde sistem yanıt vermeyi reddediyor. Ayrıca riskli görülen konuşmalar insan denetçiler tarafından da incelenebiliyor.

Bu konuda dikkat çeken örneklerden biri Kanada’da yaşandı. British Columbia eyaletinde gerçekleşen ve çok sayıda kişinin hayatını kaybettiği silahlı saldırının faili olan 18 yaşındaki Jesse Van Rootselaar’ın, olaydan aylar önce OpenAI tarafından geliştirilen ChatGPT üzerinde şiddet içerikli senaryolar yazdığı ortaya çıktı. Sistem tarafından işaretlenen konuşmalar sonrası kullanıcının hesabı kapatıldı. Ancak şirket içinde yapılan değerlendirmede, mevcut kriterler doğrultusunda güvenlik birimlerine bildirim yapılmadığı belirtildi.

Bu durum, “önleyici tedbir mi yoksa veri mahremiyeti mi?” tartışmasını yeniden gündeme taşıdı. Mevcut yasal çerçeveler çoğu ülkede teknoloji şirketlerinin veri paylaşımını genellikle suç gerçekleştikten sonraki süreçle sınırlandırıyor. Suç oluşmadan önce yapılabilecek bildirimler ise şirket politikalarına ve ilgili ülkenin mevzuatına bağlı olarak değişiyor.

Örneğin Google, yakın ve ciddi fiziksel zarar riski tespit edilmesi halinde yetkililerle veri paylaşabileceğini kamuya açık politikalarında belirtiyor. Ancak bu tür paylaşımlar, geçerli yasalar ve şirket içi değerlendirme süreçleri çerçevesinde ele alınıyor.

Uzmanlara göre yapay zeka platformlarının erken uyarı sistemi gibi çalışması teknik olarak mümkün olsa da, bu durum kullanıcı gizliliği ve veri koruma ilkeleriyle hassas bir denge gerektiriyor. Önümüzdeki dönemde hem regülasyonların hem de şirket politikalarının bu dengeyi nasıl kuracağı merak konusu olmaya devam ediyor.

Karaköse Haber - Bizi Sosyal Medyada Takip Edin!
AA

Bakmadan Geçme