AI може да помогне за спиране на разпространението на фалшиви новини

click fraud protection
  • Нови техники за изкуствен интелект биха могли да помогнат за идентифицирането и борбата с онлайн дезинформацията.
  • Генерираните от AI deepfakes правят гласовите и видео измами по-опасни.
  • Криптографията също може да предотврати фалшива информация в мрежата.
Хакер с качулка, който използва смартфон.
Хакер разпространява фалшиви новини.

Игор Стеванович / 500px / Getty images

Дезинформацията е нарастващ проблем онлайн, но помощта може да е на път благодарение на изкуствения интелект (AI).

Изследванията предполагат че техниките за машинно обучение и блокчейн технологията могат да се борят с разпространение на фалшиви новини. Новият подход позволява на създателите на съдържание да се съсредоточат върху борбата с дезинформацията в области, където е най-вероятно дезинформацията да причини значителна обществена вреда. Експертите казват намиране на ефективни методи за борба с дезинформацията е от изключителна важност.

„Разчитаме на информация, за да вземаме информирани решения,“ Манджит Реге, директорът на Центъра за приложен изкуствен интелект към

Университет Сейнт Томас, каза пред Lifewire в интервю по имейл. „Така че когато потребителите не са в състояние да направят разлика между истинска и фалшива информация, те могат да бъдат по-податливи на вземане на грешни решения. С навлизането на социалните медии фалшивите новини могат бързо да станат вирусни и потенциално да доведат до резки реакции от страна на обществеността."

AI създава или открива фалшиви новини?

Документ, изготвен от изследователи от Училището по мениджмънт на университета Бингамтън, препоръчва използването на системи за машинно обучение оценка на потенциалната вреда от съдържанието върху аудиторията си и да посочи най-явните нарушители. Например по време на пика на пандемията от COVID-19 бяха идентифицирани фалшиви новини, насърчаващи непроверени лечения вместо ваксини.

„Най-вероятно ще ни е грижа за фалшивите новини, ако причиняват вреда, която засяга читателите или публиката. Ако хората смятат, че няма вреда, те са по-склонни да споделят дезинформацията“, каза Ти Тран, професор по информационни системи за управление, който ръководи изследването, каза в прессъобщението. „Вредите идват от това дали публиката действа според твърденията от дезинформацията или ако отказва правилното действие поради това. Ако имаме систематичен начин да идентифицираме къде дезинформацията ще причини най-голяма вреда, това ще ни помогне да разберем къде да се съсредоточим върху смекчаването."

Тъй като AI се развива и става все по-усъвършенстван, за хората става все по-трудно да разграничат кое е реално и кое не, Самир Хаярнис, главен продуктов директор на OneSpan, компания за цифрова проверка, се отбелязва в имейл.

„Например генерираните от AI deepfakes правят гласовия и видео фишинг много по-опасен“, добави той. „Престъпниците, използващи атаки със социално инженерство, се увеличават и заплахата, породена от deepfakes, вече е широко разпространена.“

В скорошен инцидент, Мартин Луис, виден защитник на потребителските финанси от Обединеното кралство, изглежда одобри инвестиционна възможност от Илон Мъск. По-късно обаче се разкри, че видеото всъщност е Генериран от AI deepfake, а инвестиционната възможност се оказа измамна измама, без реална подкрепа от Луис или Мъск.

Част от генерираното от AI съдържание може да изглежда много реалистично за човек, но може да бъде идентифицирано като фалшиво сравнително лесно от AI модел.

Много подходи за борба с дезинформацията

Подходът на университета Бингамтън не е единственият начин да се помогне в борбата с фалшивите новини. Докато AI може да генерира фалшиво аудио и видеоклипове, може да се използва и за откриване на автентичност, каза Редж.

„Всъщност част от съдържанието, генерирано от AI, може да изглежда много реалистично за човек, но може да бъде идентифицирано като фалшиво доста лесно от AI модел“, добави той.

Друг метод е да се предостави доказателство за личност с помощта на криптография, експерт по киберсигурност и член на IEEE Йейл Фокс каза в интервю по имейл. Ако искате да запишете видеоклип и да го пуснете в социалните медии, най-доброто нещо, което можете да направите, е да го кодирате с публичен ключ.

„Оттам нататък видеото или има ключа, или го няма“, добави той. „Ако има кодиран ключ, тогава е много лесно да се открие на всяка платформа, без дори да се използва AI. Може да работи на почти всяко устройство, в браузър и т.н. Ако видеоклипът се публикува на избран телефон, той ще има ключа и ще премине тестове за проверка."

Бутон за фалшиви новини на компютърна клавиатура.
Фалшиви новини.

Питър Дейзли / Гети изображения

Фалшивите новини са политически и културен проблем, както и технически проблем, Субраманиам Винсент, директор на програмата за журналистика и медийна етика в Центъра за приложна етика Markkula в Университет Санта Клара, се казва в имейл.

„Ще е необходимо сътрудничество и изграждане на консенсус между участниците в AI индустрията и новинарските медийни компании, и също генериране на нов тласък към демократичната култура в политиката и изборите нагоре по течението на технологиите," той добавен. „Всичко това ще улесни противодействието на неизбежното отблъскване, което лошите актьори създават, когато AI инструменти се използват за откриване, етикетиране и спиране на разпространението на фалшиви новини. AI е мощен елемент, но не единственият, в по-голямата бъркотия на битката за демокрация в Америка и другаде."