AI-spraakklonen helpt oplichters: hier leest u hoe u uzelf kunt beschermen
- Fraude met het klonen van AI-stemmen is een groeiend probleem.
- Met gemakkelijk verkrijgbare software kunnen oplichters het geluid van de stemmen van mensen nabootsen.
- U kunt uzelf beschermen door de identiteit van bellers te verifiëren.

Tero Vesalainen / Getty Images
Wees op uw hoede voor telefoontjes van mensen die beweren dierbaren in moeilijkheden te zijn.
Dat zeggen federale ambtenaren fraudeurs gebruiken software voor het klonen van stemmen om geavanceerde familie-noodoplichting en bedrijfsfraude uit te voeren. Het maakt deel uit van een groeiend probleem van criminelen die kunstmatige intelligentie (AI) gebruiken.
"Met de nieuwste ontwikkelingen op het gebied van spraaksynthese zijn systemen zoals VALL-E in staat om een spraakkloon van hoge kwaliteit te maken met een geregistreerde opname van slechts 3 seconden van een ongeziene spreker," Vijay Balasubramaniyan, de CEO van het cyberbeveiligingsbedrijf Pindrop vertelde Lifewire in een e-mailinterview.
Hoe AI Voice Cloning-zwendel werkt
Oplichtingspraktijken met AI-spraakklonen beginnen vaak met een telefoontje van iemand die klinkt als een familielid. De oplichter zegt dat je geliefde in de problemen zit en geld nodig heeft voor een noodgeval met een auto-ongeluk of een ziekenhuisrekening. In feite is de persoon aan de telefoon een vreemde die software voor het klonen van stemmen gebruikt.
"Kunstmatige intelligentie is niet langer een vergezocht idee uit een sciencefictionfilm. We leven ermee, hier en nu', schrijft de FTC op haar website. "Een oplichter kan AI gebruiken om de stem van je geliefde te klonen. Het enige wat hij nodig heeft, is een korte audioclip van de stem van uw gezinslid - die hij kan krijgen van online geplaatste inhoud - en een programma voor het klonen van stemmen. Als de oplichter je belt, klinkt hij net als je geliefde."
Met het klonen van stemmen kunnen gebruikers de unieke stempatronen van een individu nabootsen. Het is echter ook een tweesnijdend zwaard, Tamás Kádár, de CEO van het fraudepreventiebedrijf SEON, zei in een e-mail. Het gevaar ontstaat wanneer deze technologie in verkeerde handen valt.
"Gewetenloze individuen kunnen stemmen klonen om anderen te misleiden, manipuleren en uitbuiten, met het potentieel om ernstige emotionele en financiële schade aan te richten", voegde Kádár eraan toe. "Dit is vooral zorgwekkend omdat software voor het klonen van stemmen toegankelijker en betaalbaarder wordt, waardoor een pandora-doos met snode mogelijkheden wordt geopend."
De noodsituatie in het gezin is niet de enige zwendel die gebruikmaakt van het klonen van stemmen. Kádár zei dat een andere veelvoorkomende fraude is wanneer de oplichter zich voordoet als een familielid of goede vriend, meestal bewerend dat ze financiële hulp nodig hebben vanwege een ongeluk of een dringende situatie. "Het slachtoffer, denkend dat ze een geliefde helpen, stuurt geld, om later te ontdekken dat het oplichterij was", voegde hij eraan toe.
Een andere zwendel is CEO-fraude, waarbij een fraudeur de stem van de leidinggevende van een bedrijf kloont en contact opneemt met werknemers met het verzoek geld over te maken of gevoelige informatie vrij te geven. De medewerker, die denkt dat hij bevelen van een meerdere opvolgt, maakt onbewust de zwendel mogelijk.
Grootouders worden steeds kwetsbaarder voor zwendel met het klonen van stemmen, Steven JJ Weisman, zei een expert op het gebied van identiteitsdiefstal in een e-mailinterview. De oplichter kan een opname van de stem van een kleinkind van sociale media verkrijgen en deze repliceren met behulp van AI-technologie.

RainStar / Getty-afbeeldingen
Hij wees op het geval van Ruth Card uit Canada, die werd opgelicht van CAD 3.000 door een oplichter die AI-technologie voor het klonen van stemmen gebruikte om te bellen dat van haar kleinzoon leek te komen. De beller zei dat haar kleinzoon in de gevangenis zat en het geld onmiddellijk nodig had voor borgtocht.
"Het enige dat nodig is, is AI-spraakgenererende software en slechts 30 seconden aan audio van het kleinkind", zei Weisman.
Een zwendel voor het klonen van stemmen herkennen
U kunt uzelf beschermen tegen oplichting door AI-spraakklonen door op uw hoede te zijn voor ongevraagde oproepen waarin om persoonlijke of financiële informatie wordt gevraagd. Volgens de FTC vragen oplichters u vaak om te betalen of geld te sturen op een manier die het moeilijk maakt om uw geld terug te krijgen. Als de beller zegt geld over te maken, cryptocurrency te verzenden of cadeaubonnen te kopen en de kaartnummers en pincodes te geven, kunnen dit tekenen van fraude zijn.
Balasubramaniyan zei dat het een rode vlag is als je wordt onderworpen aan emotionele manipulatie en hogedruktactieken. "Als een gebruiker zich in deze situaties gedwongen voelt om te helpen, hang dan op en bel de contactpersoon zelfstandig terug met een bekend telefoonnummer", voegde hij eraan toe.
In de toekomst kunnen er manieren zijn om AI-zwendel op te sporen. "Bedrijven ontwikkelen technologie om het klonen van stemmen te detecteren", zei Balasubramaniyan. "Deze detectietechnologieën gebruiken kennis van de productie en evolutie van menselijke stemmen om te bepalen wanneer een stem is een kloon door de fysieke anatomie van de spraak in kwestie na te bootsen en daarin anomalieën vast te stellen toespraak."