Yakın vakit evvel Google, GPU’lardan yardım alan fiyatsız bilgi süreç hizmeti Google Colaboratory’deki deepfake (Derin Hile) algoritmalarını yasakladı. Deepfake’leri düzenleyen bir kişi yahut teknoloji devinden oluşmuyor, o kadar yaygın ki birkaç ABD eyaletinin bunları düzenleyen kanunları var. Çin yasa tasarısı da bilgisayar tarafından oluşturulan medyanın tanımlanmasını gerektiriyor ve muhtemel AB yapay zekâ düzenlemesinin bu özel teknoloji hakkında unsur içermesi bekleniyor.
Kaspersky uzmanları, deepfake sahtekarlığının ne olduğunu, neden bu kadar çok tartışmaya yol açtığını ve kullanıcıların kendilerini nasıl koruyabileceklerini şöyle açıklıyor:
- ‘Deepfake’ ekseriyetle insanlara dair özellikleri husus alan ve derin hudut ağları yardımıyla üretilen sentetik, bilgisayar tarafından oluşturulmuş medya çeşitlerini tabir ediyor. Bunlar görüntü, fotoğraf yahut ses kaydı olabiliyor. Klâsik manzara düzenleme teknikleri yerine derin öğrenmenin kullanılması, inandırıcı bir geçersiz kesim oluşturmak için gereken çabayı ve beceriyi büyük ölçüde azaltıyor.
- Başlangıçta bu terim Reddit’te popülerlik kazanmış muhakkak bir yazılım modülüne atıfta bulunuyordu. Yazılım, bir kişinin yüzünü diğer kişinin bulunduğu bir görüntüye yerleştirebiliyordu ve ünlülerin taklitleriyle istek dışı porno manzaraları oluşturmak için kullanıldı. İddialara nazaran tüm deepfake sahtekarlıkların 96’sı pornografik manzaralardan oluşuyor. Deepfake’in berbata kullanımı, prestij gaspı ve kamuyu önünde utandırma üzere kullanımlara dair kaygıları gündeme getiriyor.
- Bu teknoloji siber hatalılara da yardımcı olabiliyor. İngiltere ve Hong Kong’daki en az iki olayda, ilgili şirketlerin yöneticisi üzere davranarak şirketleri dolandırıcılara para aktarmaları için kandırmak üzere kurgulanmış deepfake ses sahtekarlığı kullanıldı. Yeni araştırmalar, finans kurumları tarafından KYC prosedürlerinde kullanılan ticari canlılık tespit algoritmalarının kimlik fotoğraflarını kullanan deepfake uygulamaları tarafından kandırılabileceğini ve yeni taarruz vektörleri oluşturabileceğini, bunun sızdırılmış kimlik bilgilerini önemli bir sorun haline getirdiğini gösteriyor.
- Diğer bir sorun da deepfake sahtekarlıklarının, makûs hedeflerle kullanılabildikleri için ses ve görüntü içeriğine olan inancı sarsması. Örneğin yakın tarihli bir hadisede, kripto para ünitesi dolandırıcılığını desteklemek için Elon Musk ile yapılan uydurma bir röportaj kullanıldı. Europol üzere çeşitli uzmanlar ve kurumlar, deepfake imajlarının artan kullanılabilirliğinin internette dezenformasyonun daha da yayılmasına yol açabileceği konusunda uyarıyor.
- Haberlerin hepsi gerçek haber değil. Manzara manipülasyonu, görüntülemenin kendisi kadar eski bir mevzu. CGI onlarca yıldır piyasada ve her ikisi de deepfake üzere geniş bir kullanım alanı buldu. Örneğin Kendrick Lamar’ın yakın tarihli Heart Part 5 görüntüsünde, rapçinin yüzünü Kanye West üzere öbür ünlü ünlülere dönüştürmek için deepfake teknolojisi kullanıldı. Top Gun: Maverick sinemasında oyuncu sesini kaybettikten sonra Val Kilmer’in karakterini seslendirmek için bir algoritmadan yardım alındı. Geçersiz Tom Cruise’un oynadığı viral bir TikTok serisi oluşturmak için de tekrar deepfake algoritmaları kullanıldı. Birkaç teşebbüs, örneğin gerçeğe yakın metaverse avatarları oluşturmak için bu teknolojiyi kullanmanın yeni yollarını arıyor.
Deepfake’leri çevreleyen tüm itimat problemleriyle birlikte, bir deepfake’in nasıl tespit edileceği merak ediliyorsa işe aşağıdaki ipuçlarıyla başlanabilir:
- Tom Cruise’un yer aldığı örneklerdeki üzere inandırıcı deepfake örnekleri hala çok fazla uzmanlık, uğraş ve hatta bazen profesyonel bir oyuncu gerektiriyor. Dolandırıcılık için kullanılan sahtekarlıklar hala düşük kaliteli olma eğiliminde ve doğal olmayan dudak hareketleri, makûs işlenmiş saçlar, uyumsuz yüz halleri, çok az göz kırpma yahut hiç kırpmama, cilt rengi uyumsuzlukları üzere ögelerle fark edilebiliyor. Giysilerin işlenmesindeki yanılgılar yahut yüzün üzerinden geçen bir el de amatör bir deepfake çalışmasını ele verebiliyor.
- Ünlü yahut halka açık bir kişinin çılgın argümanlar yahut gerçek olamayacak kadar düzgün teklifler yaptığına rastlanılırsa, görüntü ikna edici olsa bile gerekli itina gösterilmeli ve bilgileri saygın kaynaklardan denetim edilmelidir. Dolandırıcıların deepfake eksikliklerini gizlemek için görüntüleri kasıtlı olarak kodlayabildiği unutulmamalıdır. Bu nedenle en güzel strateji görüntüye bakarak ipucu aramak değil, sağduyu ile gerçekleri denetim etme marifetlerini kullanmaktır.
- Güvenilir bir güvenlik tahlili, yüksek kaliteli bir deepfake sahtekarlığının kullanıcıyı makûs maksatlı belgeleri yahut programları indirmeye, kuşkulu temasları yahut kimlik avı web sitelerini ziyaret etmeye ikna etmesi durumunda korunmada dayanak sağlayabilir.
- Deepfake pornosunun kurbanı olunması durumunda, görüntünün kaldırılmasını talep etmek için hem web sitesine (birçok web sitesi deepfake göndermeyi yasaklar) hem de deepfake oluşturmak ceza gerektiren bir kabahat olduğu için kolluk kuvvetlerine başvurulabilir.
Kaynak: (BHA) – Beyaz Haber Ajansı