Facebooks Deepfake Tech vil ikke redde os, siger eksperter

click fraud protection
  • Efterhånden som deepfakes bliver nemmere at lave, er nye og forbedrede måder at spotte dem på blevet en prioritet.
  • Facebooks deepfake-spotting-teknologi bruger omvendt maskinlæring til at afdække, om en video er en deepfake eller ej.
  • Eksperter siger, at brug af blockchain-teknologi ville være den bedste måde at se, om en video er ægte eller ej, da metoden er afhængig af kontekstuelle data.
Dybt falsk ord i rødt, som i en ordbog

Getty billeder

Facebook er overbevist om sin maskinlæringsmodel til at bekæmpe deepfakes, men eksperter siger, at maskinlæring i sig selv ikke vil redde os fra at blive narret af deepfakes.

Virksomheder som Facebook, Microsoft og Google alle arbejder på at bekæmpe deepfakes fra at sprede sig over nettet og sociale netværk. Selvom metoderne er forskellige, er der en potentiel idiotsikker metode til at se disse falske videoer: blockchains.

"[Blockchains] giver dig bare masser af potentiale til at validere deepfake på en måde, der er den bedste form for validering, jeg kan se," Stephen Wolfram, grundlægger og administrerende direktør for

Wolfram Research og forfatter til En ny slags videnskab, fortalte Lifewire over telefonen.

Facebooks Deepfake-Spotting Tech

Deepfake-teknologien er vokset hurtigt i løbet af de sidste par år. De vildledende videoer bruger maskinlæringsmetoder til at gøre ting som at overlejre en andens ansigt på en anden persons krop, ændre baggrundsforhold, falsk læbesynkronisering og meget mere. De spænder fra harmløse parodier til at få berømtheder eller offentlige personer til at sige eller gøre noget, de ikke gjorde.

Eksperter siger, at teknologien udvikler sig hurtigt, og at deepfakes kun bliver mere overbevisende (og nemmere at skabe), efterhånden som teknologien bliver mere tilgængelig og mere innovativ.

Halvdelen af ​​et ansigt dækket af en binær kodeoverlejring

ApolitikNow / Flickr / CC af 2.0

Facebook gav for nylig mere indsigt i sin deepfake-detektionsteknologi i samarbejde med Michigan State University. Det sociale netværk siger, at det er afhængigt af reverse engineering fra et enkelt kunstig intelligens-genereret billede til den generative model, der bruges til at producere det.

Forskere, der arbejdede med Facebook, sagde, at metoden er afhængig af at afdække de unikke mønstre bag AI-modellen, der bruges til at generere en deepfake.

"Ved at generalisere billedtilskrivning til åbent sæt genkendelse kan vi udlede mere information om generativ model, der bruges til at skabe en deepfake, der går ud over at erkende, at den ikke er blevet set Før. Og ved at spore ligheder mellem mønstre af en samling af deepfakes, kunne vi også se, om en række billeder stammer fra en enkelt kilde,” skrev forskerne Xi Yin og Tan Hassner i Facebooks blogindlæg om dets deepfake-spotting metode.

Gitter af ansigter

Facebook

Wolfram siger, at det giver mening, at du ville bruge maskinlæring til at få øje på en avanceret AI-model (en deepfake). Der er dog altid plads til at narre teknologien.

"Jeg er slet ikke overrasket over, at der er en anstændig maskinlæringsmåde at [detektere deepfakes]," sagde Wolfram. "Det eneste spørgsmål er, hvis du gør nok indsats, kan du narre det? Det er jeg sikker på, at du kan."

Bekæmpelse af Deepfakes på en anden måde

I stedet sagde Wolfram, at han mener, at brug af blockchain ville være den bedste mulighed for præcist at finde bestemte typer deepfakes. Hans mening om at bruge blockchain over maskinlæring går tilbage til 2019, og han sagde, at blockchain-tilgangen i sidste ende kan give en mere præcis løsning på vores deepfake-problem.

"Jeg ville forvente, at billed- og videoseere rutinemæssigt kunne tjekke mod blockchains (og 'datatriangulering' computations') lidt ligesom hvordan webbrowsere nu tjekker sikkerhedscertifikater,” skrev Wolfram i en artikel udgivet i Scientific American.

Da blockchains gemmer data i blokke, der derefter kædes sammen i kronologisk rækkefølge, og da decentraliserede blockchains er uforanderlige, er de indtastede data irreversible.

"Det eneste spørgsmål er, hvis du gør nok indsats, kan du narre det? Det er jeg sikker på, at du kan."

Wolfram forklarede, at ved at lægge en video ind i en blockchain, ville du være i stand til at se, hvornår den blev taget, placeringen og andre kontekstuelle oplysninger, der giver dig mulighed for at fortælle, om den er blevet ændret i nogen vej.

"Generelt, jo mere metadata, der er, der kontekstualiserer billedet eller videoen, jo mere sandsynligt er det, at du kan fortælle," sagde han. "Du kan ikke forfalske tid på en blockchain."

Wolfram sagde dog, at den anvendte metode - uanset om det er maskinlæring eller brug af blockchain - afhænger af den type deepfake du prøver at beskytte mod (dvs. en video af Kim Kardashian, der siger noget fjollet, eller en video af en politiker, der udtaler sig eller forslag).

"Blockchain-tilgangen beskytter mod visse former for dybe forfalskninger, ligesom maskinlærings billedbehandling beskytter mod visse former for dybe forfalskninger," sagde han.

Bundlinjen, ser det ud til, er årvågenhed for os alle, når det kommer til at bekæmpe den kommende dybe syndflod.