AI kan hjälpa till att stoppa spridningen av falska nyheter
- Nya AI-tekniker kan hjälpa till att identifiera och bekämpa felaktig information online.
- AI-genererade deepfakes gör röst- och videobedrägerier farligare.
- Kryptografi kan också förhindra falsk information på webben.
Desinformation är ett växande problem på nätet, men hjälp kan vara på väg tack vare artificiell intelligens (AI).
Forskning föreslår att maskininlärningstekniker och blockchain-teknik kan bekämpa spridning av falska nyheter. Det nya tillvägagångssättet låter innehållsskapare fokusera på att bekämpa desinformation i områden där desinformation är mest sannolikt att orsaka betydande allmän skada. Experter säger hitta effektiva metoder för att bekämpa desinformation är av yttersta vikt.
"Vi förlitar oss på information för att fatta välgrundade beslut," Manjeet Rege, direktören för centret för tillämpad artificiell intelligens vid University of St. Thomas, sa till Lifewire i en e-postintervju. "Så när konsumenter inte kan skilja mellan äkta och falsk information kan de vara mer mottagliga för att fatta dåliga beslut. Med tillkomsten av sociala medier kan falska nyheter bli virala snabbt och kan potentiellt leda till knä-knäppa reaktioner från allmänheten."
Skapar eller hittar AI falska nyheter?
En artikel producerad av forskare från Binghamton Universitys School of Management rekommenderade att använda maskininlärningssystem bedöma innehållets potentiella skada på sin publik och peka ut de mest grova lagöverträdarna. Till exempel, under toppen av covid-19-pandemin, identifierades falska nyheter som främjade overifierade behandlingar över vacciner.
"Det är mest sannolikt att vi bryr oss om falska nyheter om de orsakar skada som påverkar läsare eller publik. Om människor uppfattar att det inte finns någon skada, är det mer sannolikt att de delar med sig av felaktig information, säger Thi Tran, professor i ledningsinformationssystem som ledde forskningen, i pressmeddelandet. "Skadorna kommer från huruvida publiken agerar enligt påståenden från desinformationen eller om de vägrar rätt åtgärd på grund av det. Om vi har ett systematiskt sätt att identifiera var desinformation kommer att göra störst skada, kommer det att hjälpa oss att veta var vi ska fokusera på begränsning."
När AI utvecklas och blir mer sofistikerad, blir det svårare för individer att skilja på vad som är verkligt och vad som inte är det, Sameer Hajarnis, produktchef för OneSpan, ett företag för digital verifiering, noterat i ett e-postmeddelande.
"Till exempel, AI-genererade deepfakes gör röst- och videonätfiske mycket farligare", tillade han. "Brottslingar som använder sociala ingenjörsattacker ökar, och hotet från deepfakes är nu utbrett."
I en den senaste händelsen, Martin Lewis, en framstående förespråkare för konsumentfinansiering från Storbritannien, tycktes stödja en investeringsmöjlighet av Elon Musk. Det avslöjades dock senare att videon i själva verket var en AI-genererad deepfake, och investeringsmöjligheten visade sig vara en bedräglig bluff, utan faktiskt stöd från Lewis eller Musk.
En del av det AI-genererade innehållet kan se väldigt realistiskt ut för en människa men kan ganska enkelt identifieras som falskt av en AI-modell.
Många strategier för att bekämpa desinformation
Binghamton University-metoden är inte det enda sättet att hjälpa till att bekämpa falska nyheter. Medan AI kan generera förfalskat ljud och videor, den kan också användas för att detektera äkthet, sa Rege.
"Faktum är att en del av det AI-genererade innehållet kan se väldigt realistiskt ut för en människa men kan ganska enkelt identifieras som falskt av en AI-modell", tillade han.
En annan metod är att ge bevis på personlighet med hjälp av kryptografi, cybersäkerhetsexpert och IEEE-medlem Yale Fox sa i en mejlintervju. Om du vill spela in en video och lägga den på sociala medier är det bästa du kan göra att koda videon med en offentlig nyckel.
"Därifrån har videon antingen nyckeln eller så har den inte det", tillade han. "Om den har nyckeln kodad är den väldigt lätt att upptäcka på vilken plattform som helst utan att ens använda AI. Det kan köras på praktiskt taget alla enheter, i en webbläsare, etc. Om videon läggs upp på en vald telefon skulle den ha nyckeln och klara verifieringstesterna."
Fake news är ett politiskt och kulturellt problem såväl som en teknisk fråga, Subramaniam Vincent, chef för journalist- och medieetikprogrammet vid Markkula centrum för tillämpad etik kl Santa Clara University, sa i ett mejl.
"Det kommer att krävas samarbete och konsensusskapande bland AI-branschens aktörer och nyhetsmedieföretag, och genererar också en ny inriktning mot demokratisk kultur i politik och val uppströms om tekniken", han Lagt till. "Allt detta kommer att göra det lättare att motverka den oundvikliga pushback som dåliga aktörer skapar när AI-verktyg används för att upptäcka, märka och stoppa spridningen av falska nyheter. AI är ett kraftfullt element, men inte det enda, i den större röran av en kamp för demokrati i Amerika och på andra håll."