Hier leest u hoe AI-aangedreven deepfake-audio u voor de gek kan houden
- Nieuw onderzoek toont aan dat audio-deepfakes de meeste mensen voor de gek kunnen houden.
- Deepfakes kunnen verkiezingen destabiliseren en ertoe leiden dat gebruikers feiten wantrouwen.
- Sommige deepfakes worden gebruikt voor audioboeken en om gepersonaliseerde notities te versturen.

Flashpop / Getty-afbeeldingen
Je kunt de woorden die je hoort niet vertrouwen, dankzij de vooruitgang in kunstmatige intelligentie (AI).
A recent onderzoek laat zien dat deepfake audio kan menselijke luisteraars ongeveer 25 procent van de tijd misleiden. Het maakt deel uit van een groeiende golf van AI-gegenereerde deepfakes waardoor men zich zorgen maakt over het onderscheiden van feit en fictie.
"Vroeger was 'zien is geloven'," Nasir Memon, een IEEE Fellow, en hoogleraar Computer Science and Engineering aan NYU Tandon, vertelde Lifewire in een e-mailinterview. "Nu, met deepfakes, is dat niet langer waar. Het begrip identiteit is belangrijk in de samenleving. Identiteit is essentieel voor communicatie en samenwerking met andere mensen, en we associëren identiteit met audiofuncties."
Deepfakes die gebruikers voor de gek houden
Audio-deepfakes worden blijkbaar steeds moeilijker te detecteren. In het onderzoek dat werd uitgevoerd aan het University College London, beoordeelden meer dan 500 vrijwilligers een combinatie van neppe en echte stemmen in het Engels en het Mandarijn. Sommige deelnemers waren eerder blootgesteld aan diep vervalste stemvoorbeelden om identificatie te vergemakkelijken. Gemiddeld identificeerden deelnemers de deepfakes in 73 procent van de gevallen correct, ongeacht hun opleiding.
"Audio-deepfakes kunnen heel overtuigend zijn en worden al elke dag beter", Shawn Surber, Senior directeur technisch accountbeheer bij het cyberbeveiligingsbedrijf Tanium zei in een e-mail. "Naarmate de AI-technologie vordert, zal dit cijfer waarschijnlijk stijgen, waardoor de potentiële risico's die gepaard gaan met deepfake-imitaties groter worden."
Cybercriminelen kunnen deepfake-audio gebruiken om fictieve identiteiten te creëren die moeilijk te traceren zijn. Stuart Wells, een identiteitsverificatie-expert en de Chief Technology Officer bij Jumio Corporation, zei via e-mail. Ook kan de crimineel accountovernames uitvoeren, waardoor de veiligheid van bankrekeningen, zakelijke e-mailaccounts en meer van bestaande gebruikers wordt bedreigd.
"Voor een nietsvermoedend slachtoffer kan deepfake audio moeilijk te detecteren zijn, maar wanneer het door een machine wordt geanalyseerd leermodellen die voor dat doel zijn ontworpen, het is verre van niet te onderscheiden van door mensen gegenereerde spraak, " hij voegde toe. "Door de anatomie te schatten die spraak creëert, is het mogelijk om de oorsprong te identificeren, of het nu een mens of een machine is."
Een ander gevaar van audio-deepfakes is politieke inmenging door verkiezingen te destabiliseren of te laten ontsporen, merkte Memon op.
Audio-deepfakes kunnen zeer overtuigend zijn en worden al elke dag beter.
"Nixon werd in wezen afgezet op basis van bijvoorbeeld spraakopnamen", voegde hij eraan toe. "Dat waren echte opnames, maar je kunt je voorstellen wat er mogelijk zou zijn met deepfake audio."
Deepfake-audio zou ons niet kunnen verdoemen
Niet alle deepfake audio is noodzakelijkerwijs slecht bedoeld. Je zou het bijvoorbeeld kunnen gebruiken "om jezelf op te nemen terwijl je iets zegt als 'Ik hou van jou' tegen een geliefde als een verrassingsgeschenk," Mac Sturen, de eigenaar van het technologiebedrijf Vereenvoudigen zei in een e-mail.
Google Play en Apple Books gebruiken AI-gegenereerde stemmen voor hun audio-inhoud. Uitgevers op Google Play kunnen automatisch gesproken audioboeken maken, zolang ze de rechten op het audioboek bezitten en kiezen voor automatische gesproken tekst.
Het probleem van deepfake audio zal groeien, ook in politieke communicatie, Jan V. Pavlik, hoogleraar journalistiek en mediastudies aan Rutgers Universiteit, voorspeld in een e-mail. Hij zei dat deepfake audio waarschijnlijk gemeengoed zal worden online, vooral op sociale en interactieve media.

Calvin Chan Wai Meng / Getty-afbeeldingen
"Personen zullen een constant kritisch perspectief moeten behouden", voegde hij eraan toe. "En telkens wanneer ze iets verdachts tegenkomen, moeten ze aannemen dat het een deepfake is totdat de authenticiteit ervan kan afzonderlijk en onafhankelijk worden geverifieerd, meestal via vertrouwde nieuwsmediabronnen."
Maar er is hoop dat deepfake audio ons niet verdoemt tot een toekomst van valse informatie. Mensen geloven misschien niet automatisch in deepfake audio over een politieke acteur die ze verkiezen, vooral als het afkomstig is van een in diskrediet gebrachte bron. Subramaniam Vincent, de directeur journalistiek en media-ethiek bij Markkula Center for Applied Ethics at Santa Clara-universiteit, genoteerd in een e-mail. Hij zei dat zelfs wanneer deepfakes zich verspreiden, ze zich mogelijk alleen op online forums bevinden die bij het verhaal passen.
"Echte rechtbanken of andere op feiten gebaseerde procedurele instellingen die werken met regels en lagere snelheden van operatie zijn relatief meer geïsoleerd in hun besluitvorming dan participatieve menigten online, "hij toegevoegd. "Kortom, verwacht dat de kat-en-muis-wapenwedloop en op deepfake gebaseerde media-gevechten doorgaan, met goede acteurs die de distributie beïnvloeden en slechte acteurs die proberen te winnen."