Bazen sadece gözlerinizi ve kulaklarınızı kullanarak bir videonun gerçek olup olmadığını anlayamayabilirsiniz. Ama bunu tespit etmenin bazı yolları var.Sadece bir anlığına Bruno Mars gibi dans edebildiğinizi veya Whitney Houston gibi şarkı söyleyebildiğinizi hayal edin. Deepfake ile birlikte bu bir süredir imkansız değil.Bir kişiyi hiç yapmadığı veya söylemediği şeyleri yapıyormuş ya da söylüyormuş gibi göstermek için kullanılan teknoloji kafa karıştırıcı gibi görünse de aslında erişimi epey kolay. Bir alternatif gerçeklik türetmek için tek gereken bazı görseller veya bir ses kaydı. İşte yapay zeka teknolojisinin yardımıyla oluşturulan manipüle edilmiş bu içeriklere sentetik içerik veya İngilizcedeki yaygın kullanımıyla deepfake adı veriliyor. Deepfake nedir?Deepfake, yapay zeka kullanılarak oluşturulmuş ses ve video dosyalarını tanımlayan bir terimdir. Her türden deepfake bulmak mümkün: Bir kişinin yüzünün bir başkasıyla değiştirildiği dosyalar, konuşan kişinin ağzının orijinalinden farklı bir ses parçasına ayarlanabildiği dudak senkronizasyonları, kişiye söylemediği şeyler söyletmek için kullanılan ses klonlama tekniği…Tamamen sentetik yüzler ve gövdeler, örneğin dijital avatar olarak hazırlanabilir. Florida'daki Dali Müzesi'nin Salvador Dali'yi canlandırdığı gibi deepfake teknolojisiyle ölü insanlar bile hayata döndürülebilir. Bu sentetik video manipülasyonları, "Generative Adversarial Networks" (çekişmeli üretken ağlar) ya da kısaltılmış adıyla GAN üzerinden üretiliyor. Aslında bir makine öğrenme modeli olan GAN kapsamında iki nöral ağ, birbirlerinden daha iyi sonuç elde etmek için yarışıyorlar. Basitçe anlatmak gerekirse: Bir bilgisayar, diğer bir bilgisayara, oluşturduğu dijital klonun yeterince ikna edici olup olmadığını söylüyor, bunun için de dijital klonu orijinal malzemeyle karşılaştırıyor. Hareketler, ses ya da ifade aynı mı değil mi, buna bakıyor. Sistem, sonuçtan memnun olana kadar birden fazla denemeyle kendini geliştiriyor.Bu sürekli olarak gelişen ve epey karmaşık olan bir teknoloji de olsa, eğer nereye bakacağınızı biliyorsanız, deepfake'leri fark edebilirsiniz.Nasıl tespit edilir?Neyin gerçek, neyin sahte olduğunu ayırt etmek için deepfake uzmanı olmanıza gerek yok. İşte bazı ipuçları:1. Acele etmeyin ve içeriğe tekrar bakın. Paylaşmadan önce düşünün. Kendinize sorun: Bu gerçekten doğru olabilir mi? Böyle bir şeyin olması beklenebilir mi? Eğer emin değilseniz de paylaşmayın. 2. Farklı ve güvenilir kaynaklardan aynı hikayeyi veya anlatıyı bulup bulamayacağınızı hızlıca kontrol edin. Kısa bir internet araması size gerçek hikayeye dair ipuçları verecektir.3. Başka bir sürüm bulup karşılaştırmayı deneyin. Bir iddiaya, bir resme veya videoya güvenmiyorsanız, bunu bir Google veya DuckDuckGo aramasında tanımlayın. Ardından başka bir sürüm bulun ve iki sürümü karşılaştırın. Bunun için standart bir internet araması kullanabilir veya tersten görsel aramayı deneyebilirsiniz.4. Sentetik ve manipüle edilmiş içeriklerde neredeyse görünmez olan ipuçlarını yakalamak zor bir iş. Bu tür manipülasyonlar, bir videoda garip sıçramalarla, ses vurgusu değişikliğiyle, düşük kaliteli sesle, bulanık noktalarla, garip uzuv şekilleriyle ve diğer olağandışı tutarsızlıklarla tespit edilebilir. Duyularınıza ve içgüdülerinize güvenin. Her zaman kendinize sorun: Bu mantıklı mı? Bu gerçekten doğru olabilir mi? Dikkatlice bakın ve her zaman iki kez bakın. Ayrıntılara odaklanın ve bir arkadaşınızdan yahut bir meslektaşınızdan ikinci bir görüş isteyin.5. Deepfake tespit etme ipuçlarına bakın: Mükemmel simetrik bir yüz, uyumsuz küpeler, sıra dışı kulak, burun ve diş şekilleri, kontrast kaybı, boyunda, saçta veya parmaklarda tutarsızlıklar.6. Bazen bu tutarsızlıkları tespit etmek için bir videoyu kare kare izlemeniz gerekebilir. Bunu bilgisayarınızdaki bir video oynatıcıyla (örneğin VLC) veya çevrimiçi olarak watchframebyframe.com ile yapabilirsiniz.7. Dudak senkronizasyonunu tespit etmek için ağız ve dudak hareketlerini yakınlaştırın ve bunları kendi davranışınızla karşılaştırın. Belli bir ses çıkarırken bir ağız nasıl görünmelidir?Deepfake teknolojisinin tehlikeleriDeepfake teknolojisinin zararları başta "intikam pornosu" olmak üzere, en çok pornografi alanında kendini gösteriyor. Sahte porno videolar ve resimler geniş kitlelere ulaşıyor ve ünlülerden okul çocuklarına kadar değişen kurbanlarına zarar veriyor.Toplum için deepfake tehlikesi, medyayı tüketme biçimiyle de doğru orantılı. Ortalama bir kişi, çevrimiçiyken çok sayıda medyaya boğulur ve paylaştıklarının gerçekten doğru olduğundan her zaman emin olmayabilir.Kutuplaşmış toplumlarda bu, doğru olsun ya da olmasın, insanları bir şeye inandırmak için bolca fırsat verir. Bu nedenle, videonun kalitesi o kadar da önemli değildir. Bu, o an gözlerinizle ne gördüğünüzle ilişkilidir, gerçek olsun olmasın. Eski Yunanistan Maliye Bakanı Yanis Varoufakis'in Almanya'ya orta parmağını gösterdiği; David Beckham'ın dokuz dil konuştuğu; veya Mark Zuckerberg'in verilerinizi kontrol ettiği için sizi kontrol ettiğini söylediği görüntüler akla gelen birkaç meşhur deepfake örneği…"De Correspondent" haber sitesi tarafından yapılan ve Hollanda'da viral hale gelen siyasi amaçlı bir deepfake, Hollanda Başbakanı Mark Rutte'nin siyasi çizgisinde büyük bir değişiklik olduğunu gösteriyor gibi görünüyor. Videoda Rutte, geniş kapsamlı iklim önlemlerini tam olarak destekleyeceğini söylüyor. Bir de yalancının payı dedikleri hadise var. Bir diğer deyişle, bazı politikacıların bu tür yanlış bilgilerle dolu bilgi ortamından yararlanması durumu. Bu teknolojinin yalnızca varlığı bile, insanların söylediklerinin derin bir sahtekarlık barındırdığını iddia etmelerine izin veriyor. Ve bunun gerçekten gerçek olduğunu kanıtlamanın son derece zorlayıcı olmasına yol açıyor. Alınacak dersÇoğu dezenformasyonun yayılmasının arkasında bir sebep var: Şüphe yaratmak, popüler inançları desteklemek yahut başka inançlara karşı çıkmak. Bağlamdan arındırılmış, düzenlenmiş veya sahte olarak üretilmiş görüntüleri ve sesi doğrulamak çok zor. Yine de şimdilik, deepfake'i daha iyi tespit etmek için kendinizi eğitebilirsiniz. Nasıl mı? Yukarıdaki yedi noktanın üzerinden geçerek.Unutmayın: Eğer emin değilseniz, paylaşmayın!Julia Bayer & Ruben Bouwmeester© Deutsche Welle Türkçe