AI varētu palīdzēt apturēt viltus ziņu izplatību
- Jaunas AI metodes varētu palīdzēt identificēt un apkarot tiešsaistes dezinformāciju.
- AI ģenerēti dziļi viltojumi padara balss un video izkrāpšanu bīstamāku.
- Kriptogrāfija var arī novērst viltotu informāciju tīmeklī.
Dezinformācija ir pieaugoša problēma tiešsaistē, taču palīdzība var būt ceļā, pateicoties mākslīgajam intelektam (AI).
Pētījumi liecina ka mašīnmācīšanās metodes un blokķēdes tehnoloģija var cīnīties pret viltus ziņu izplatība. Jaunā pieeja ļauj satura veidotājiem koncentrēties uz dezinformācijas apkarošanu jomās, kurās maldinoša informācija, visticamāk, nodarīs būtisku kaitējumu sabiedrībai. Eksperti saka efektīvu metožu atrašana dezinformācijas apkarošanai ir ārkārtīgi svarīgi.
"Mēs paļaujamies uz informāciju, lai pieņemtu apzinātus lēmumus," Mandžets Rege, Lietišķā mākslīgā intelekta centra direktors Sv. Tomasas Universitāte, pastāstīja Lifewire e-pasta intervijā. "Tātad, ja patērētāji nespēj atšķirt īstu un viltus informāciju, viņi varētu būt jutīgāki pret sliktu lēmumu pieņemšanu. Līdz ar sociālo mediju parādīšanos viltus ziņas var ātri izplatīties un, iespējams, izraisīt sabiedrības reakcijas."
Vai AI rada vai atrod viltus ziņas?
Binghemtonas Universitātes Vadības skolas pētnieku sagatavotajā dokumentā tika ieteikts izmantot mašīnmācīšanās sistēmas novērtēt satura iespējamo kaitējumu auditorijai un precīzi noteikt visbriesmīgākos likumpārkāpējus. Piemēram, COVID-19 pandēmijas kulminācijas laikā tika atklātas viltus ziņas, kas reklamē nepārbaudītu ārstēšanu, nevis vakcīnas.
"Visticamāk, ka mums rūp viltus ziņas, ja tās nodara kaitējumu, kas ietekmē lasītājus vai auditoriju. Ja cilvēki uztver, ka nav nekāda kaitējuma, viņi, visticamāk, dalīsies ar dezinformāciju," ziņu izlaidumā sacīja Thi Tran, vadības informācijas sistēmu profesors, kurš vadīja pētījumu. "Kaitējums rodas no tā, vai auditorija rīkojas saskaņā ar apgalvojumiem, kas izriet no dezinformācijas, vai ja viņi atsakās no pareizas darbības tās dēļ. Ja mums ir sistemātisks veids, kā noteikt, kur dezinformācija nodarīs vislielāko kaitējumu, tas palīdzēs mums zināt, kur koncentrēties uz seku mazināšanu."
AI attīstoties un kļūstot sarežģītākam, cilvēkiem kļūst grūtāk atšķirt, kas ir īsts un kas nē, Samērs Hajarnis, galvenais produktu speciālists OneSpan, digitālās verifikācijas uzņēmums, norādīts e-pastā.
"Piemēram, mākslīgā intelekta radītie viltojumi padara balss un video pikšķerēšanu daudz bīstamāku," viņš piebilda. "Noziedznieku skaits, kas izmanto sociālās inženierijas uzbrukumus, pieaug, un dziļo viltojumu radītie draudi tagad ir plaši izplatīti."
Iekšā nesenais incidentsMartins Lūiss, ievērojamais patērētāju finanšu advokāts no Apvienotās Karalistes, šķietami atbalstīja Elona Muska ieguldījumu iespēju. Tomēr vēlāk atklājās, ka video patiesībā bija an AI radīts dziļš viltojums, un ieguldījumu iespēja izrādījās krāpnieciska krāpniecība bez reāla Lūisa vai Muska atbalsta.
Daļa no AI radītā satura cilvēkam var izskatīties ļoti reālistiski, taču pēc AI modeļa to var diezgan viegli identificēt kā viltotu.
Daudzas pieejas dezinformācijas apkarošanai
Binghemtonas universitātes pieeja nav vienīgais veids, kā palīdzēt cīnīties pret viltus ziņām. Kamēr AI var radīt viltotu audio un video, to var izmantot arī autentiskuma noteikšanai, Rege teica.
"Patiesībā daļa no mākslīgā intelekta radītā satura cilvēkam var izskatīties ļoti reālistiski, taču AI modelis to var diezgan viegli identificēt kā viltotu," viņš piebilda.
Vēl viena metode ir nodrošināt personības pierādījumu, izmantojot kriptogrāfiju, kiberdrošības ekspertu un IEEE dalībnieku Jēlas Lapsa teica e-pasta intervijā. Ja vēlaties ierakstīt videoklipu un ievietot to sociālajos tīklos, vislabāk ir iekodēt videoklipu ar publiskā atslēga.
"No turienes video vai nu ir atslēga, vai nav," viņš piebilda. "Ja tam ir kodēta atslēga, tad to ir ļoti viegli noteikt jebkurā platformā, pat neizmantojot AI. Tas var darboties praktiski jebkurā ierīcē, pārlūkprogrammā utt. Ja videoklips tiek publicēts izvēlētā tālrunī, tam būtu atslēga un tas izturētu pārbaudes testus.
Viltus ziņas ir politiska un kultūras problēma, kā arī tehniska problēma, Subramanams Vincents, Markkulas lietišķās ētikas centra žurnālistikas un mediju ētikas programmas direktore plkst Santa Clara universitāte, teikts e-pastā.
"Tas prasīs sadarbību un vienprātību starp AI nozares dalībniekiem un ziņu mediju uzņēmumiem, un arī radot jaunu virzību uz demokrātisku kultūru politikā un vēlēšanās pirms tehnoloģiju attīstības. pievienots. "Tas viss atvieglos neizbēgamo atgrūšanos, ko rada slikti dalībnieki, kad tiek izmantoti AI rīki, lai atklātu, marķētu un apturētu viltus ziņu izplatīšanu. AI ir spēcīgs elements, bet ne vienīgais lielākajā haosā cīņā par demokrātiju Amerikā un citur."