AI kan de verspreiding van nepnieuws helpen stoppen

click fraud protection
  • Nieuwe AI-technieken kunnen online desinformatie helpen identificeren en bestrijden.
  • Door AI gegenereerde deepfakes maken spraak- en videozwendel gevaarlijker.
  • Cryptografie kan ook valse informatie op internet voorkomen.
Een hacker met een kap die een smartphone gebruikt.
Hacker die nepnieuws verspreidt.

Igor Stevanovic / 500px / Getty-afbeeldingen

Verkeerde informatie is online een groeiend probleem, maar dankzij kunstmatige intelligentie (AI) kan hulp onderweg zijn.

Onderzoek suggereert dat machine learning-technieken en blockchain-technologie de strijd kunnen aangaan verspreiding van nepnieuws. Dankzij de nieuwe aanpak kunnen makers van inhoud zich concentreren op het bestrijden van desinformatie in gebieden waar desinformatie het meest waarschijnlijk aanzienlijke publieke schade zal aanrichten. Deskundigen zeggen het vinden van effectieve methoden om desinformatie te bestrijden is van het grootste belang.

"We vertrouwen op informatie om weloverwogen beslissingen te nemen," Manjeet Rege, de directeur van het Centrum voor Toegepaste Kunstmatige Intelligentie aan de

Universiteit van St.Thomas, vertelde Lifewire in een e-mailinterview. "Dus wanneer consumenten geen onderscheid kunnen maken tussen echte en valse informatie, kunnen ze vatbaarder zijn voor het nemen van slechte beslissingen. Met de komst van sociale media kan nepnieuws snel viraal gaan en mogelijk leiden tot reflexmatige reacties van het publiek."

Creëert of vindt AI nepnieuws?

Een paper van onderzoekers van de School of Management van Binghamton University adviseerde het gebruik van machine learning-systemen de potentiële schade van inhoud beoordelen op zijn publiek en lokaliseert de meest flagrante overtreders. Tijdens het hoogtepunt van de COVID-19-pandemie werd bijvoorbeeld nepnieuws geïdentificeerd waarin niet-geverifieerde behandelingen in plaats van vaccins werden gepromoot.

"We geven waarschijnlijk om nepnieuws als het schade toebrengt aan lezers of publiek. Als mensen zien dat er geen kwaad kan, is de kans groter dat ze de verkeerde informatie delen", zei Thi Tran, een professor in managementinformatiesystemen die het onderzoek leidde, in het persbericht. "De schade komt voort uit het feit of het publiek handelt volgens de beweringen van de verkeerde informatie of dat ze daarom de juiste actie weigeren. Als we een systematische manier hebben om vast te stellen waar desinformatie de meeste schade zal aanrichten, zal dat ons helpen te weten waar we ons moeten concentreren op mitigatie."

Naarmate AI zich ontwikkelt en geavanceerder wordt, wordt het voor individuen moeilijker om te onderscheiden wat echt is en wat niet. Sameer Hajarnis, de chief product officer van OneSpan, een bedrijf voor digitale verificatie, vermeld in een e-mail.

"Door AI gegenereerde deepfakes maken spraak- en videophishing bijvoorbeeld een stuk gevaarlijker", voegde hij eraan toe. "Criminelen die gebruik maken van social engineering-aanvallen nemen toe en de dreiging die uitgaat van deepfakes is nu wijdverspreid."

In een recent voorval, Martin Lewis, een prominente pleitbezorger voor consumentenfinanciering uit het VK, leek een investeringsmogelijkheid van Elon Musk te onderschrijven. Later werd echter onthuld dat de video in feite een AI-gegenereerde deepfake, en de investeringsmogelijkheid bleek een frauduleuze zwendel te zijn, zonder daadwerkelijke steun van Lewis of Musk.

Sommige van de door AI gegenereerde inhoud kan er voor een mens heel realistisch uitzien, maar kan door een AI-model vrij gemakkelijk als nep worden geïdentificeerd.

Veel benaderingen om desinformatie te bestrijden

De aanpak van Binghamton University is niet de enige manier om nepnieuws te bestrijden. Terwijl AI kan nagemaakte audio genereren en video's, het kan ook worden gebruikt voor het detecteren van authenticiteit, zei Rege.

"Sommige van de door AI gegenereerde inhoud kan er voor een mens heel realistisch uitzien, maar kan door een AI-model vrij gemakkelijk als nep worden geïdentificeerd", voegde hij eraan toe.

Een andere methode is om een ​​bewijs van persoonlijkheid te leveren met behulp van cryptografie, cyberbeveiligingsexpert en IEEE-lid Yale Vos zei in een e-mailinterview. Als je een video wilt opnemen en op social media wilt zetten, kun je het beste de video coderen met een publieke sleutel.

"Van daaruit heeft de video de sleutel of niet", voegde hij eraan toe. "Als de sleutel is gecodeerd, is het heel eenvoudig te detecteren op elk platform, zelfs zonder AI. Het kan op vrijwel elk apparaat worden uitgevoerd, in een browser, enz. Als de video op een gekozen telefoon wordt geplaatst, zou deze de sleutel hebben en verificatietests doorstaan."

Een Fake News-toets op een computertoetsenbord.
Nepnieuws.

Peter Dazeley / Getty-afbeeldingen

Nepnieuws is een politiek en cultureel probleem, maar ook een technisch probleem, Subramaniam Vincent, directeur van het programma journalistiek en media-ethiek bij het Markkula Center for Applied Ethics at Santa Clara-universiteit, zei in een e-mail.

"Er is samenwerking en consensusvorming nodig tussen de actoren in de AI-industrie en nieuwsmediabedrijven. en ook het genereren van een nieuwe impuls in de richting van een democratische cultuur in de politiek en verkiezingen stroomopwaarts van technologie," hij toegevoegd. "Dit alles zal het gemakkelijker maken om de onvermijdelijke pushback tegen te gaan die kwaadwillenden creëren wanneer AI-tools worden gebruikt om de verspreiding van nepnieuws te detecteren, te labelen en te stoppen. AI is een krachtig element, maar niet het enige, in de grotere puinhoop van een strijd voor democratie in Amerika en elders."