Yapay zeka arkanızdan not alıyor olabilir
Yapay zeka teknolojileri hızla gelişirken, kullanıcı verilerinin etik dışı biçimde etiketlenmesi ve profillenmesi endişeleri büyütüyor.
Yapay zeka uygulamalarının sağladığı kolaylıklar, kişisel verilerin işlenme biçimiyle ilgili ciddi tartışmaları da beraberinde getiriyor. Özellikle son dönemde, ChatGPT gibi uygulamaların kullanıcıların siyasi görüşü, dini inancı, sağlık durumu gibi hassas bilgileri etiketleyerek profillemesi iddiaları, kamuoyunda yankı uyandırdı.
OpenAI gibi teknoloji firmaları, kullanıcı verilerinin korunmasına yönelik çeşitli teknik ve idari önlemler aldıklarını belirtse de, bu açıklamaların pratikte ne kadar uygulandığı konusunda bazı uzmanlar soru işaretleri taşıyor. Verilerin eğitim amaçlı kullanılıp kullanılmayacağına dair kullanıcılara sunulan seçenekler her ne kadar önemli görünse de, bu süreçlerin şeffaflığı hâlâ tartışmalı.
Yüksek Veri Bilimi Mühendisi Emre Durgut, AA’ya yaptığı açıklamada, yapay zekanın sadece teknolojik değil, aynı zamanda toplumsal ve hukuki bir sorumluluk taşıdığını söyledi. Durgut, en büyük riskin kullanıcıdan toplanan verilerin, fark edilmeden etiketsel biçimde işlenerek kişisel profillere dönüştürülmesi olduğunu vurguladı. Özellikle siyasi eğilimler, dini inançlar gibi yüksek derecede hassas verilerin rıza alınmadan işlenmesi, ciddi yasal ihlalleri de beraberinde getiriyor.
Durgut, bu tür uygulamaların Avrupa Birliği’nin GDPR’si ve Türkiye’deki KVKK gibi düzenlemelere aykırı olabileceğine dikkat çekiyor. Kullanıcıların sistemlerin nasıl çalıştığını anlamakta zorlandığını ifade eden Durgut, bu yüzden verdikleri bilgilerin hangi amaçla, ne şekilde kullanıldığını fark edemediklerini belirtiyor. Yasaların temel aldığı şeffaflık, veri minimizasyonu ve açık rıza gibi ilkelerin, yapay zekanın bu yeni evresinde yeterince korunamadığını dile getiriyor.
Etiketleme ve profilleme faaliyetlerinin teknik olarak tespitinin son derece karmaşık bir süreç olduğunu belirten Durgut, bu alanda henüz bağımsız denetim mekanizmalarının yerleşmediğini söyledi. Ancak kullanıcıların, sistemin tepkilerine dikkat ederek ne tür verilerin işlendiğine dair bazı ipuçları yakalayabileceğini ekledi.
Durgut’a göre, bu tür yapay zeka sistemlerinin kullanımı sadece bireysel düzeyde değil, toplumun geneli için de ciddi sonuçlar doğurabilir. Özellikle yanlış bir etiketlemenin, reklam algoritmalarından işe alım süreçlerine kadar çeşitli alanlarda ayrımcılığa neden olabileceğini belirtiyor. Daha da kötüsü, bu verilerin sızması halinde şantaj, dolandırıcılık gibi saldırılara açık bir zemin oluşabileceği gibi, kritik görevlerdeki kişilerin bilgileri ulusal güvenliği tehdit edecek boyutlara ulaşabilir.
Kullanıcılara ise net bir uyarıda bulunuyor: “Bu sistemlere hassas bilgilerinizi vermekten kaçının. Farklı platformlar arasında bilgi dağılımı yaparak riski azaltmaya çalışın. Ve her zaman sorgulayıcı olun.”
Teknoloji firmalarına da büyük sorumluluklar düştüğünü ifade eden Durgut, şeffaf veri işleme politikalarının geliştirilmesi, bağımsız denetimlerin yapılması, kullanıcıya daha fazla kontrol yetkisi verilmesi ve etik kuralların içselleştirilmesi gerektiğini vurguluyor. Yapay zeka hızla ilerlerken, kullanıcıların hakları da bu ivmeye ayak uydurmak zorunda.
Bakmadan Geçme





