Yapay zeka, yeni nesil manipülasyon aracı haline dönüştü

Yapay zekâyla üretilen fotoğraflar, taklit sesler ve deepfake görüntüler, savaşlardan seçim kampanyalarına kadar dünyanın farklı bölgelerinde “bilgi manipülasyonunun en tehlikeli silahları” haline geliyor.
Sensity AI tarafından yapılan araştırmalar, Rusya-Ukrayna savaşında Ukraynalı siyasetçi ve askerlerin, deepfake içeriklerle ya “teslim olmaya çağıran” ya da “savaş hatası itiraf eden” kişiler üzere gösterildiğini ortaya koyuyor.
Tayvan’da seçim devirlerinde, Çin kaynaklı uydurma görüntüler ve konuşmalar siyasetçilere karşı propaganda aracı olarak kullanılıyor.
Japonya’da ise yapay zekâ ile üretilen uydurma felaket imajları, nükleer kazalar ya da sel felaketleri üzerinden toplumda panik yaratmayı amaçlıyor.
Bu örnekler, yapay zekâ araçlarının denetimsiz biçimde “yeni jenerasyon silahlar” olarak kullanılmasının ne kadar büyük riskler barındırdığını gözler önüne seriyor.
“GERÇEK İLE YAPAY ORTASINDAKİ ÇİZGİ SİLİNİYOR”
Sensity AI kurucu ortağı Francesco Cavalli, yapay zekâ geliştikçe gerçek ile düzmecenin ayırt edilmesinin zorlaştığını vurguluyor.
İpuçları ortasında sistemsiz ışıklandırma, çok pürüzsüz cilt, yapay göz kırpma ve ağız hareketleri öne çıkıyor. Fakat Cavalli’ye nazaran düşük çözünürlüklü yahut sıkıştırılmış içeriklerde bu ayrıntılar fark edilmiyor.
Özellikle ses taklitleri önemli tehdit oluşturuyor. Cavalli, “Yapay zekâ ile üretilmiş sesler artık insan kulağı için neredeyse ayırt edilemez hale geldi.” diyor.
Nitekim bir dolandırıcı, ABD’li Senatör Marco Rubio’nun sesini taklit ederek düzmece bir Signal hesabı üzerinden dışişleri bakanları ve siyasilerle temas kurmayı başardı.

YAPAY ZEKA İLE DOLANDIRICILIK VE PROPAGANDA
Midjourney ve Runway üzere üretici yapay zekâ araçları ilerledikçe, uzman gözlerin bile kandırılması kolaylaşıyor.
Cavalli, seçim kampanyalarında uydurma basın toplantıları düzenleyen siyasetçilerin görüntülerinden, toplumsal medyada sirkülasyona sokulan savaş imgelerine kadar çok sayıda örneği belgelediklerini belirtiyor.
Ona nazaran, Çin’den Japonya’ya ve Tayvan’a kadar incelenen tüm olaylar tıpkı sonucu gösteriyor: Yapay zekâ takviyeli propaganda artık yalnızca bir tehdit değil, toplumları istikrarsızlaştırmak için etkin biçimde kullanılan global bir güç aracı.

ÇÖZÜM: PROAKTİF KONTROL VE İŞBİRLİĞİ
Teknoloji şirketleri, yapay zekâ tabanlı dezenformasyona karşı adım atmaya çağrılıyor. Lakin Cavalli’ye nazaran birden fazla platform, geniş ölçekli uydurma içerikleri yakalayabilecek isimli sistemlere sahip değil.
Bazı şirketler, dolandırıcılık kampanyalarından şuurlu formda kâr elde ederken, lakin dış baskı oluştuğunda harekete geçiyor.
Cavalli, içeriklerin sırf “etiketlenmesi” yerine daha güçlü tedbirler gerektiğini vurguluyor:
Sosyal medya platformlarına, deepfake reklamlarına müsaade vermeleri halinde ağır yaptırımlar uygulanmalı.
Kullanıcı şikayetlerine bel bağlamak yerine, proaktif tespit sistemleri mecburî olmalı.
“GÖRMEK ARTIK İNANMAK DEĞİL”
Sensity’nin geliştirdiği sistemler; yüz manipülasyonu, geçersiz görsellerin tahlili, taklit ses incelemesi ve isimli raporlama olmak üzere dört etaplı bir süreç yürütüyor. Bu raporlar resmi soruşturmalarda kanıt olarak kullanılabiliyor.
Cavalli, görsel medyaya duyulan inancın süratle azaldığını, farkındalık artırılmadıkça risklerin büyüyeceğini vurguluyor:
“İnsanlar eğitilmeli, gazeteciler ve araştırmacılar isimli araçlarla donatılmalı. Zira artık görmek, inanmak manasına gelmeyecek.”




