Deepfake ile dolandırıcılık yayılıyor: Yazılımlar yetersiz kalıyor
Yapay zekâ destekli görüntü ve ses manipülasyonu teknolojisi olan 'deepfake', son yıllarda giderek yaygınlaşan ve siber güvenlik alanında ciddi tehditler oluşturan bir araç haline geldi.
Yapay zekâ destekli görüntü ve ses manipülasyonu teknolojisi olan “deepfake”, son yıllarda giderek yaygınlaşan ve siber güvenlik alanında ciddi tehditler oluşturan bir araç haline geldi. Gerçeğe oldukça yakın görüntüler ve sesler üretebilen bu teknoloji, hem bireylerin hem de kurumların dijital güvenliğini tehlikeye atıyor.
Siber Güvenlik Uzmanı Yağızhan Atmaca, Anadolu Ajansı’na yaptığı açıklamada, “deepfake” teriminin “derin” ve “sahte” kelimelerinin birleşiminden oluştuğunu ve yapay zekâ kullanılarak oluşturulan manipüle edilmiş görsel ve işitsel içerikleri tanımladığını belirtti.
Atmaca, “Bu teknoloji ilk kez 2007 yılında Reddit platformunda ‘deepfake’ kullanıcı adıyla paylaşılan basit bir yüz değiştirme koduyla ortaya çıktı. Bugün geldiğimiz noktada ise yüksek çözünürlükte içerikler üretilebiliyor ve bunlar gerçeğinden ayırt edilemeyecek kadar başarılı hale geldi,” dedi.
Söz konusu gelişmelerin özellikle siber güvenlik alanında ciddi sonuçlar doğurduğuna dikkat çeken Atmaca, “Karşınızdaki kişinin gerçek olup olmadığını tespit edebilecek, yüzde 99 hatta yüzde 100 güvenilirlikte bir yazılım henüz mevcut değil. Bu nedenle bireysel ve kurumsal farkındalık çalışmaları kritik önemde,” şeklinde konuştu.
En büyük tehdit alanlarından birinin finans sektörü olduğunu vurgulayan Atmaca, bankaların uzaktan müşteri tanıma ve hesap açma sistemlerinin bu tür teknolojilere karşı savunmasız olabileceğini belirtti. Deepfake içeriklerle yapılan sahte başvuruların, gerçek kişi taklidiyle bankacılık sistemini aldatabileceğine dikkat çekti.
“Deepfake yalnızca bireysel dolandırıcılıkla sınırlı değil. Dünya genelinde bilgi hırsızlığı, algı yönetimi ve propaganda için de aktif şekilde kullanılıyor. Siyasetçiler başta olmak üzere birçok kamu figürü, bu teknolojiyle manipüle edilmiş sahte konuşmalar ve aramalarla hedef alınabiliyor. İnsanlar bu aramaların sahte olduğunu çoğu zaman fark etmiyor,” diyen Atmaca, bu durumun fark edilmesinin dahi kimi zaman mümkün olmadığını dile getirdi.
“Ataklar o kadar profesyonel düzeyde yapılıyor ki, hedef kişi olayın farkına varamayabiliyor. Deepfake algılama sistemleri geliştiriliyor ancak bunların başarı oranı henüz yüzde 70 ila 80 arasında. Bu da teknolojinin ne kadar ciddi bir risk oluşturduğunu gösteriyor,” ifadelerini kullandı.
Bu kapsamda, kimlik doğrulama protokollerinin gelecekte daha yaygın hale geleceğine değinen Atmaca, uygulamaların yeni güvenlik aşamaları getireceğini belirtti. “Örneğin, artık birçok bankada kimlik kartınızı telefona yaklaştırıp onay veriyorsunuz. Yarın bir gün WhatsApp ya da Zoom gibi uygulamalar da aynı yöntemi kullanabilir. ‘Gerçekten bu siz misiniz?’ sorusunu dijital kimlik üzerinden soracak sistemlerle karşılaşacağız. Başta alışılmadık gelse de, bu tür kontrollerin deepfake tehdidine karşı etkili bir önlem olacağını düşünüyoruz,” dedi.
Bakmadan Geçme





