Araştırmacılar bir videonun 'deepfake' olup olmadığını tespit etmenin yolunu buldu

Gelişme, araştırmacıların deepfake'lerin nasıl yapıldığını tespit etmesine de yardım edebilir

Deepfake'ler, uzmanlar tarafından geleceğin en tehlikeli siber suçu diye adlandırılıyor (AFP)

Araştırma, deepfake videolarının, konuşan kişinin kan akışının ölçülmesiyle tespit edilebileceğini öne sürüyor.

Deepfake, birisini, söylemediği bir şeyi söylüyormuş gibi göstermek için yapay zeka ve derin öğrenmenin (bilgisayarları eğitmek için kullanılan bir algoritmik öğrenme metodu) kullanıldığı video türü.

Göze çarpan örnekler arasında, Başkan Richard Nixon'ın Apollo 11 hakkındaki ulusa sesleniş konuşmasının değiştirilmiş versiyonu ve Barack Obama'yı Donald Trump'a hakaret ediyor gibi gösteren görüntüler bulunuyor.

Bu düzenlenmiş videoların tespit edilmesi son derece zor olabilir. Fakat araştırmacılar, kanın yüz çevresinde nasıl hareket ettiğini incelemenin neyin gerçek neyin sahte olduğunu gösterebileceğini öne sürüyor. Çünkü deepfake, bunu yüksek doğrulukla kopyalayamıyor.

IEEE Transactions on Pattern Analysis and Machine Learning'de yayımlanan araştırmada, "Portre videolarda gizlenen biyolojik sinyaller, özgünlüğün örtülü tanımlayıcısı olarak kullanılabilir çünkü bunlar sahte içerikte ne mekansal ne de zamansal olarak korunurlar" ifadeleri kullanılıyor.

Fotopletismografi (PPG) denen bu inceleme yöntemi, yeni doğmuş bebekleri vücutlarına bir şey bağlamadan gözlemlemek için kullanılıyor. Zira bebeklerin derileri, yetişkinlerden daha ince.

Bilim insanları, "Yapay içerikler, düzenli PPG'ye sahip kareler içermez" diyor ve görünüşe göre bir videonun gerçek mi yoksa sahte mi olduğunu yüzde 90'ın üzerinde doğrulukla anlayabiliyordu.

Bu teknik, deepfake'in tam olarak hangi kaynaktan geldiğini tespit etmek için de kullanılabilir ve kaynağı 4 farklı üreticiye (DeepFakes, Face2Face, FaceSwap veya NeuralTex) indirgeyebilir.

Deepfake'ler, söz konusu teknolojinin kullanılabileceği suçların çeşitliliği ve onu tespit etmenin zorluğu nedeniyle uzmanlar tarafından geleceğin en tehlikeli siber suçu diye adlandırılıyor.

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

Örneğin sahte videolar, arkadaş ya da aile üyesi rolü yaparak kamusal bir figürü itibarsızlaştırmak için kullanılabilir.

Uzun vadeli etkiler, bir bütün olarak işitsel ve görsel delillere karşı toplumsal güvensizlik olabilir.

Şimdilik, deepfake'ler ağırlıkla pornografi için kullanılıyor. Haziran 2020'deki bir araştırma, internette yer alan tüm deepfake'lerin yüzde 96'sının pornografik içerikli olduğuna ve bu örneklerin yaklaşık yüzde 100'ünün kadın olduğuna işaret ediyor.

 

 

* İçerik orijinal haline bağlı kalınarak çevrilmiştir. Independent Türkçe’nin editöryal politikasını yansıtmayabilir.

https://www.independent.co.uk/life-style

Independent Türkçe için çeviren: Noyan Öztürk

© The Independent

DAHA FAZLA HABER OKU