Facebooks Deepfake-teknologi vil ikke redde oss, sier eksperter
- Ettersom deepfakes blir lettere å lage, har nye og forbedrede måter å oppdage dem på blitt en prioritet.
- Facebooks deepfake-spotting-teknologi bruker omvendt maskinlæring for å avdekke om en video er en deepfake eller ikke.
- Eksperter sier at bruk av blokkjedeteknologi vil være den beste måten å se om en video er ekte eller ikke, siden metoden er avhengig av kontekstuelle data.

Getty bilder
Facebook er trygg på det maskinlæringsmodell for å bekjempe deepfakes, men eksperter sier at maskinlæring i seg selv ikke vil redde oss fra å bli lurt av deepfakes.
Selskaper som Facebook, Microsoft og Google alle jobber for å bekjempe deepfakes fra å spre seg over nettet og sosiale nettverk. Selv om metodene er forskjellige, er det én potensiell idiotsikker metode for å oppdage disse falske videoene: blokkjeder.
"[Blokkjeder] gir deg mye potensial til å validere deepfake på en måte som er den beste formen for validering jeg kan se," Stephen Wolfram, grunnlegger og administrerende direktør i Wolfram Research og forfatter av En ny type vitenskap, fortalte Lifewire over telefon.
Facebooks Deepfake-Spotting-teknologi
Deepfake-teknologien har vokst raskt de siste årene. De villedende videoene bruker maskinlæringsmetoder for å gjøre ting som å legge noens ansikt på en annen persons kropp, endre bakgrunnsforhold, falsk leppesynkronisering og mer. De spenner fra harmløse parodier til å få kjendiser eller offentlige personer til å si eller gjøre noe de ikke gjorde.
Eksperter sier at teknologien går raskt fremover, og at deepfakes bare vil bli mer overbevisende (og lettere å lage) ettersom teknologien blir mer allment tilgjengelig og mer innovativ.

ApolitikNow / Flickr / CC By 2.0
Facebook ga nylig mer innsikt i sin deepfake-deteksjonsteknologi i samarbeid med Michigan State University. Det sosiale nettverket sier at det er avhengig av omvendt utvikling fra et enkelt kunstig intelligens-generert bilde til den generative modellen som brukes til å produsere det.
Forskere som jobbet med Facebook sa at metoden er avhengig av å avdekke de unike mønstrene bak AI-modellen som ble brukt til å generere en deepfake.
"Ved å generalisere bildeattribusjon til åpent sett-gjenkjenning, kan vi utlede mer informasjon om generativ modell som brukes til å lage en deepfake som går utover å erkjenne at den ikke har blitt sett før. Og ved å spore likheter mellom mønstre i en samling av dype forfalskninger, kunne vi også finne ut om en serie bilder oppsto fra en enkelt kilde," skrev forskerne Xi Yin og Tan Hassner i Facebooks blogginnlegg om deepfake-spottingen. metode.

Wolfram sier at det er fornuftig at du vil bruke maskinlæring for å oppdage en avansert AI-modell (en deepfake). Det er imidlertid alltid rom for å lure teknologien.
"Jeg er slett ikke overrasket over at det er en anstendig maskinlæringsmåte for å [oppdage dype falske]," sa Wolfram. «Spørsmålet er bare om du anstrenger deg nok, kan du lure det? Jeg er sikker på at du kan."
Bekjempe Deepfakes på en annen måte
I stedet sa Wolfram at han tror bruk av blokkjede vil være det beste alternativet for nøyaktig å finne visse typer dype forfalskninger. Hans mening om bruk av blokkjede fremfor maskinlæring går tilbake til 2019, og han sa at blokkjedetilnærmingen til syvende og sist kan gi en mer nøyaktig løsning på vårt dypfalske problem.
"Jeg forventer at bilde- og videoseere rutinemessig kan sjekke mot blokkjeder (og datatriangulering computations') litt som hvordan nettlesere nå sjekker sikkerhetssertifikater," skrev Wolfram i en artikkel publisert i Scientific American.
Siden blokkjeder lagrer data i blokker som deretter lenkes sammen i kronologisk rekkefølge, og siden desentraliserte blokkkjeder er uforanderlige, er dataene som legges inn irreversible.
«Spørsmålet er bare om du anstrenger deg nok, kan du lure det? Jeg er sikker på at du kan."
Wolfram forklarte at ved å legge en video inn i en blokkjede, ville du kunne se tiden den ble tatt, plasseringen og annen kontekstuell informasjon som lar deg fortelle om den har blitt endret vei.
"Generelt, jo mer metadata det er som kontekstualiserer bildet eller videoen, jo mer sannsynlig er det at du kan fortelle," sa han. "Du kan ikke forfalske tid på en blokkjede."
Wolfram sa imidlertid at metoden som brukes - enten det er maskinlæring eller bruk av blokkjede - avhenger av typen deepfake du prøver å beskytte mot (dvs. en video av Kim Kardashian som sier noe dumt eller en video av en politiker som uttaler seg eller forslag).
"Blokkjedetilnærmingen beskytter mot visse typer dype forfalskninger, akkurat som bildebehandlingen for maskinlæring beskytter mot visse typer dype forfalskninger," sa han.
Hovedpoenget, ser det ut til, er årvåkenhet for oss alle når det gjelder å bekjempe den kommende dypfalske syndfloden.