Facebooks Deepfake Tech kommer inte att rädda oss, säger experter
- Eftersom deepfakes blir lättare att göra, har nya och förbättrade sätt att upptäcka dem blivit en prioritet.
- Facebooks teknik för deepfake-spotting använder omvänd maskininlärning för att avslöja om en video är en deepfake eller inte.
- Experter säger att användning av blockchain-teknik skulle vara det bästa sättet att se om en video är verklig eller inte eftersom metoden bygger på kontextuella data.

Getty bilder
Facebook är övertygad om sitt maskininlärningsmodell för att bekämpa deepfakes, men experter säger att maskininlärning i sig inte kommer att rädda oss från att bli lurade av deepfakes.
Företag som Facebook, Microsoft och Google alla arbetar för att bekämpa deepfakes sprids över webben och sociala nätverk. Även om metoderna skiljer sig åt, finns det en potentiell idiotsäker metod för att upptäcka dessa falska videor: blockkedjor.
"[Blockkedjor] ger dig bara massor av potential att validera deepfake på ett sätt som är den bästa formen av validering som jag kan se," Stephen Wolfram, grundare och VD för
Facebooks Deepfake-Spotting Tech
Deepfake-tekniken har vuxit snabbt under de senaste åren. De vilseledande videorna använder maskininlärningsmetoder för att göra saker som att lägga någons ansikte på en annan persons kropp, ändra bakgrundsförhållanden, falsk läppsynkronisering och mer. De sträcker sig från ofarliga parodier till att få kändisar eller offentliga personer att säga eller göra något de inte gjorde.
Experter säger att tekniken går snabbt framåt och att deepfakes bara kommer att bli mer övertygande (och lättare att skapa) när tekniken blir mer allmänt tillgänglig och mer innovativ.

ApolitikNow / Flickr / CC av 2.0
Facebook gav nyligen mer insikt i sin deepfake-detekteringsteknik i samarbete med Michigan State University. Det sociala nätverket säger att det förlitar sig på omvänd ingenjörskonst från en enda bild som genereras av artificiell intelligens till den generativa modellen som används för att producera den.
Forskare som arbetade med Facebook sa att metoden bygger på att avslöja de unika mönstren bakom AI-modellen som används för att generera en deepfake.
"Genom att generalisera bildtillskrivning till öppen uppsättning igenkänning kan vi sluta oss till mer information om generativ modell som används för att skapa en deepfake som går utöver att inse att den inte har setts innan. Och genom att spåra likheter mellan mönstren i en samling djupförfalskningar kunde vi också se om en serie bilder härstammar från en enda källa”, skrev forskarna Xi Yin och Tan Hassner i Facebooks blogginlägg om dess deepfake-spotting metod.

Wolfram säger att det är vettigt att du använder maskininlärning för att upptäcka en avancerad AI-modell (en deepfake). Men det finns alltid utrymme att lura tekniken.
"Jag är inte alls förvånad över att det finns ett anständigt sätt för maskininlärning att [upptäcka deepfakes]", sa Wolfram. "Den enda frågan är om du anstränger dig tillräckligt, kan du lura det? Jag är säker på att du kan."
Bekämpa Deepfakes på ett annat sätt
Istället sa Wolfram att han tror att användningen av blockchain skulle vara det bästa alternativet för att exakt upptäcka vissa typer av deepfakes. Hans åsikt om att använda blockchain över maskininlärning går tillbaka till 2019, och han sa att blockchain-metoden i slutändan kan ge en mer exakt lösning på vårt deepfake-problem.
"Jag förväntar mig att bild- och videotittare rutinmässigt kan kontrollera mot blockkedjor (och datatriangulering beräkningar') lite som hur webbläsare nu kontrollerar säkerhetscertifikat”, skrev Wolfram i en artikel publicerad i Scientific American.
Eftersom blockkedjor lagrar data i block som sedan kedjas samman i kronologisk ordning, och eftersom decentraliserade blockkedjor är oföränderliga, är den inmatade informationen oåterkallelig.
"Den enda frågan är om du anstränger dig tillräckligt, kan du lura det? Jag är säker på att du kan."
Wolfram förklarade att genom att lägga in en video i en blockchain, skulle du kunna se tiden den togs, platsen och annan kontextuell information som gör att du kan se om den har ändrats sätt.
"I allmänhet, ju mer metadata det finns som kontextualiserar bilden eller videon, desto mer sannolikt är det att du kan berätta," sa han. "Du kan inte fejka tid på en blockchain."
Wolfram sa dock att metoden som används - oavsett om det är maskininlärning eller att använda blockchain - beror på vilken typ av deepfake du försöker att skydda mot (dvs en video där Kim Kardashian säger något dumt eller en video där en politiker gör ett uttalande eller förslag).
"Blockchain-metoden skyddar mot vissa typer av djupa förfalskningar, precis som bildbehandlingen av maskininlärning skyddar mot vissa typer av djupa förfalskningar," sa han.
Summan av kardemumman, verkar det som, är vaksamhet för oss alla när det gäller att bekämpa den kommande deepfake syndafloden.