Uzmanlar, Facebook'un Deepfake Teknolojisinin Bizi Kurtaramayacağını Söyledi
- Deepfake yapmak kolaylaştıkça, onları tespit etmenin yeni ve geliştirilmiş yolları bir öncelik haline geldi.
- Facebook'un derin sahte tespit teknolojisi, bir videonun derin sahte olup olmadığını ortaya çıkarmak için ters makine öğrenimini kullanır.
- Uzmanlar, yöntem bağlamsal verilere dayandığından, bir videonun gerçek olup olmadığını görmenin en iyi yolunun blockchain teknolojisi olduğunu söylüyor.
Facebook kendine güveniyor Deepfake'lerle mücadele için makine öğrenimi modeli, ancak uzmanlar, makine öğreniminin tek başına bizi derin sahtekarlıklar tarafından kandırılmaktan kurtarmayacağını söylüyor.
Facebook, Microsoft ve Google gibi şirketler hepsi deepfake'lerle savaşmak için çalışıyor Web ve sosyal ağlar arasında yayılmaktan. Yöntemler farklılık gösterse de, bu sahte videoları tespit etmek için kusursuz bir potansiyel yöntem var: blok zincirler.
"[Blockchains], görebildiğim en iyi doğrulama şekliyle deepfake'ı doğrulamanız için size çok fazla potansiyel sağlıyor," diyen Stephen Wolfram, kurucusu ve CEO'su
Facebook'un Deepfake Spotting Teknolojisi
Deepfake teknolojisi son birkaç yılda hızla büyüdü. Yanıltıcı videolar, birinin yüzünü başka bir kişinin vücuduna yerleştirmek, arka plan koşullarını değiştirmek, sahte dudak senkronizasyonu ve daha fazlasını yapmak için makine öğrenimi yöntemlerini kullanır. Zararsız parodilerden ünlülere veya kamuya mal olmuş kişilere söylemedikleri veya yapmadıkları bir şeyi söylemeye kadar uzanır.
Uzmanlar, teknolojinin hızla ilerlediğini ve derin sahtekarlıkların, teknoloji daha yaygın olarak kullanılabilir ve daha yenilikçi hale geldikçe daha inandırıcı (ve oluşturması daha kolay) hale geleceğini söylüyor.
Facebook kısa süre önce Michigan Eyalet Üniversitesi ile ortaklaşa derin sahte tespit teknolojisi hakkında daha fazla bilgi verdi. Sosyal ağ, yapay zeka tarafından oluşturulan tek bir görüntüden onu üretmek için kullanılan üretken modele kadar tersine mühendisliğe dayandığını söylüyor.
Facebook ile çalışan araştırmacı bilim adamları, yöntemin, derin sahtekarlık oluşturmak için kullanılan AI modelinin arkasındaki benzersiz kalıpları ortaya çıkarmaya dayandığını söyledi.
“Görüntü ilişkilendirmeyi açık küme tanımaya genelleyerek, Görülmediğini fark etmenin ötesine geçen bir deepfake oluşturmak için kullanılan üretken model önce. Ve bir deepfake koleksiyonunun kalıpları arasındaki benzerlikleri izleyerek, bir dizi görüntünün ortaya çıkıp çıkmadığını da söyleyebiliriz. tek bir kaynaktan," diye yazdı araştırma bilim adamları Xi Yin ve Tan Hassner, Facebook'un blog yazısında derin sahte lekelenme hakkında yöntem.
Wolfram, gelişmiş bir AI modelini (bir derin sahte) tespit etmek için makine öğrenimini kullanmanın mantıklı olduğunu söylüyor. Ancak, teknolojiyi kandırmak için her zaman yer vardır.
Wolfram, "Derin sahteleri tespit etmenin iyi bir makine öğrenimi yolu olmasına hiç şaşırmadım" dedi. "Tek soru, eğer yeterince çaba harcarsan, onu kandırabilir misin? Yapabileceğinden eminim."
Deepfake'lerle Farklı Bir Yolla Mücadele
Bunun yerine Wolfram, blok zinciri kullanmanın belirli türdeki derin sahtekarlıkları doğru bir şekilde tespit etmek için en iyi seçenek olacağına inandığını söyledi. Blockchain'i makine öğrenimi yerine kullanma fikri 2019'a kadar uzanıyor ve nihayetinde blockchain yaklaşımının derin sahte sorunumuza daha doğru bir çözüm sağlayabileceğini söyledi.
“Resim ve video görüntüleyenlerin blok zincirleri (ve 'veri üçgenleme) rutin olarak kontrol etmelerini beklerdim. hesaplamalar') biraz web tarayıcılarının güvenlik sertifikalarını nasıl kontrol ettiğine benziyor," diye yazdı Wolfram bir makalede Scientific American'da yayınlanan.
Blok zincirler verileri bloklarda sakladığından ve daha sonra kronolojik sırayla birbirine zincirlendiğinden ve merkezi olmayan blok zincirler değişmez olduğundan, girilen veriler geri döndürülemez.
"Tek soru, yeterince çaba harcarsan, onu kandırabilir misin? Yapabileceğinden eminim."
Wolfram, bir blok zincirine bir video koyarak, çekildiği zamanı görebileceğinizi açıkladı. herhangi bir durumda değiştirilip değiştirilmediğini anlamanıza izin verecek konum ve diğer bağlamsal bilgiler yol.
"Genel olarak, resmi veya videoyu bağlamsallaştıran ne kadar fazla meta veriye sahip olursanız, söyleme olasılığınız o kadar yüksek olur" dedi. “Bir blok zincirinde sahte zaman yapamazsınız.”
Ancak Wolfram, kullanılan yöntemin - ister makine öğrenimi ister blok zinciri kullansın - denediğiniz derin sahtekarlığın türüne bağlı olduğunu söyledi. (yani, Kim Kardashian'ın aptalca bir şey söylediği bir videoya veya bir politikacının bir açıklama yaptığına veya öneri).
“Blockchain yaklaşımı, makine öğrenimi görüntü işlemenin belirli türdeki derin sahtekarlıklara karşı koruduğu gibi, belirli türdeki derin sahtekarlıklara karşı koruma sağlar” dedi.
Görünen o ki, iş yaklaşan derin sahte tufanla mücadeleye geldiğinde hepimiz için uyanık olmak.