Umělá inteligence by mohla pomoci zastavit šíření falešných zpráv
- Nové techniky umělé inteligence by mohly pomoci identifikovat a bojovat proti online dezinformacím.
- Deepfakes generované umělou inteligencí činí hlasové a video podvody nebezpečnějšími.
- Kryptografie může také zabránit falešným informacím na webu.
Dezinformace jsou na internetu stále větším problémem, ale pomoc může být na cestě díky umělé inteligenci (AI).
Výzkum naznačuje že techniky strojového učení a technologie blockchain mohou bojovat proti šíření falešných zpráv. Nový přístup umožňuje tvůrcům obsahu zaměřit se na boj proti dezinformacím v oblastech, kde dezinformace s největší pravděpodobností způsobí značné škody veřejnosti. Odborníci říkají nalezení účinných metod boje proti dezinformacím je nanejvýš důležité.
"Při přijímání informovaných rozhodnutí spoléháme na informace," Manjeet Rege, ředitel Centra aplikované umělé inteligence při University of St. Thomas, řekl Lifewire v e-mailovém rozhovoru. „Když tedy spotřebitelé nejsou schopni rozlišit mezi skutečnými a falešnými informacemi, mohou být náchylnější k přijímání špatných rozhodnutí. S příchodem sociálních médií se falešné zprávy mohou rychle šířit a mohou potenciálně vést k urážlivým reakcím veřejnosti.“
Vytváří nebo nalézá AI falešné zprávy?
Článek vytvořený výzkumníky z Binghamton University's School of Management doporučoval používat systémy strojového učení posoudit potenciální poškození obsahu na své publikum a určit ty nejzávažnější pachatele. Například během vrcholu pandemie COVID-19 byly identifikovány falešné zprávy propagující neověřenou léčbu před vakcínami.
„S největší pravděpodobností nás budou zajímat falešné zprávy, pokud způsobí škodu, která má dopad na čtenáře nebo publikum. Pokud lidé vnímají, že to není nic špatného, je pravděpodobnější, že sdílejí dezinformace,“ uvedl Thi Tran, profesor manažerských informačních systémů, který vedl výzkum. "Škody pocházejí z toho, zda diváci jednají podle tvrzení z dezinformací, nebo pokud kvůli tomu odmítají řádné jednání. Pokud budeme mít systematický způsob, jak identifikovat, kde dezinformace způsobí největší škody, pomůže nám to vědět, kam se zaměřit na zmírňování."
Jak se umělá inteligence vyvíjí a roste sofistikovaněji, je pro jednotlivce stále těžší rozlišit, co je skutečné a co ne, Sameer Hajarnis, hlavní produktový ředitel společnosti OneSpan, společnost zabývající se digitálním ověřováním, uvedeno v e-mailu.
"Například deepfakes generované umělou inteligencí činí hlasový a video phishing mnohem nebezpečnějším," dodal. "Zločinci používající útoky sociálního inženýrství jsou na vzestupu a hrozba, kterou představují deepfakes, je nyní velmi rozšířená."
V nedávný incident, Martin Lewis, významný obhájce spotřebitelského financování z Velké Británie, zdánlivě podpořil investiční příležitost Elona Muska. Později se však ukázalo, že video bylo ve skutečnosti an deepfake generovaný AIa investiční příležitost se ukázala jako podvodný podvod bez skutečné podpory Lewise nebo Muska.
Některý obsah generovaný umělou inteligencí může pro člověka vypadat velmi realisticky, ale modelem umělé inteligence jej lze poměrně snadno identifikovat jako falešný.
Mnoho přístupů k boji proti dezinformacím
Přístup Binghamtonské univerzity není jediným způsobem, jak pomoci v boji proti falešným zprávám. Zatímco AI může generovat padělaný zvuk a videa, může být také použit pro detekci pravostiřekl Rege.
„Ve skutečnosti může některý obsah generovaný umělou inteligencí vypadat pro člověka velmi realisticky, ale modelem umělé inteligence jej lze poměrně snadno identifikovat jako falešný,“ dodal.
Další metodou je poskytnutí důkazu o osobě pomocí kryptografie, odborníka na kybernetickou bezpečnost a člena IEEE Yale Fox řekl v e-mailovém rozhovoru. Pokud chcete nahrát video a dát ho na sociální média, nejlepší by bylo zakódovat video pomocí veřejný klíč.
"Odtud to video buď má klíč, nebo nemá," dodal. „Pokud má klíč zakódovaný, pak je velmi snadné jej detekovat na jakékoli platformě, aniž byste museli používat AI. Může běžet prakticky na jakémkoli zařízení, v prohlížeči atd. Pokud je video zveřejněno na zvoleném telefonu, bude mít klíč a projde ověřovacími testy.“
Falešné zprávy jsou politický a kulturní problém, stejně jako technický problém, Subramaniam Vincent, ředitel programu žurnalistiky a mediální etiky v Markkula Center for Applied Ethics at Univerzita Santa Clara, uvedl v e-mailu.
„Bude to vyžadovat spolupráci a budování konsenzu mezi aktéry z odvětví umělé inteligence a mediálními společnostmi. a také vytvoření nového tahu směrem k demokratické kultuře v politice a volbách před technologickým vývojem,“ řekl přidal. „To vše usnadní čelit nevyhnutelnému odporu, který špatní herci vytvářejí, když jsou nástroje AI používány k detekci, označování a zastavení šíření falešných zpráv. Umělá inteligence je mocným prvkem, ale ne jediným, ve větším zmatku bitvy za demokracii v Americe i jinde.“