AI може допомогти зупинити поширення фейкових новин

click fraud protection
  • Нові методи штучного інтелекту можуть допомогти виявити та боротися з дезінформацією в Інтернеті.
  • Дипфейки, створені штучним інтелектом, роблять голосове та відеошахрайство небезпечнішим.
  • Криптографія також може запобігти фальшивій інформації в Інтернеті.
Хакер із капюшоном використовує смартфон.
Хакер поширює фейкові новини.

Ігор Стеванович / 500px / Getty images

Дезінформація стає все більшою проблемою в Інтернеті, але допомога може бути на шляху завдяки штучному інтелекту (ШІ).

Дослідження показують що методи машинного навчання та технологія блокчейн можуть боротися з поширення фейкових новин. Новий підхід дозволяє творцям контенту зосередитися на боротьбі з дезінформацією в тих областях, де дезінформація, найімовірніше, завдасть значної шкоди суспільству. Експерти кажуть пошук ефективних методів боротьби з дезінформацією має величезне значення.

«Ми покладаємося на інформацію, щоб приймати обґрунтовані рішення», Манджет Реге, директор Центру прикладного штучного інтелекту ім Університет Св. Томаса, сказав Lifewire в електронному інтерв’ю. «Отже, коли споживачі не можуть відрізнити справжню інформацію від підробленої, вони можуть бути більш сприйнятливими до прийняття неправильних рішень. З появою соціальних медіа фейкові новини можуть швидко стати вірусними та потенційно можуть викликати різку реакцію громадськості».

ШІ створює чи знаходить фейкові новини?

У статті, підготовленій дослідниками зі Школи менеджменту Бінгемтонського університету, рекомендовано використовувати системи машинного навчання оцінити потенційну шкоду контенту на свою аудиторію та точно визначити найбільш кричущих порушників. Наприклад, під час піку пандемії COVID-19 було виявлено фейкові новини, які рекламували неперевірені методи лікування замість вакцин.

«Нас, швидше за все, хвилюватимуть фейкові новини, якщо вони завдають шкоди читачам або аудиторії. Якщо люди вважають, що шкоди немає, вони, швидше за все, поділяться дезінформацією», – сказав Ті Тран, професор інформаційних систем управління, який керував дослідженням, у прес-релізі. «Шкода походить від того, чи глядачі діють відповідно до тверджень від дезінформації, чи вони відмовляються від належних дій через це. Якщо у нас є систематичний спосіб визначення того, де дезінформація завдасть найбільшої шкоди, це допоможе нам знати, на чому зосередитися для пом’якшення».

Оскільки штучний інтелект розвивається та стає все складнішим, людям стає все важче розрізняти, що є справжнім, а що ні, Самір Хаджарніс, головний спеціаліст із продуктів OneSpan, компанія цифрової перевірки, зазначено в електронному листі.

«Наприклад, дипфейки, створені штучним інтелектом, роблять голосовий і відеофішинг набагато небезпечнішим», – додав він. «Злочинці, які використовують атаки соціальної інженерії, зростають, і загроза, яку представляють глибокі фейки, зараз широко поширена».

В недавній інцидентМартін Льюїс, видатний захисник споживчого фінансування з Великобританії, здається, схвалив інвестиційну можливість Ілона Маска. Однак згодом з'ясувалося, що відео насправді є Дипфейк, створений ШІ, і можливість інвестування виявилася шахрайством без фактичної підтримки з боку Льюїса чи Маска.

Деякий контент, створений штучним інтелектом, може виглядати дуже реалістичним для людини, але модель штучного інтелекту може бути легко ідентифікована як підробка.

Багато підходів до боротьби з дезінформацією

Підхід Бінгемтонського університету — не єдиний спосіб допомогти боротися з фейковими новинами. Поки ШІ може створювати підроблені аудіо і відео, його також можна використовувати для визначення автентичності, - сказав Редж.

«Насправді, деякий контент, створений штучним інтелектом, може виглядати дуже реалістичним для людини, але його модель штучного інтелекту досить легко ідентифікує як підробку», — додав він.

Інший метод полягає в тому, щоб надати підтвердження особи за допомогою криптографії, експерта з кібербезпеки та члена IEEE Єль Фокс сказав в електронному інтерв’ю. Якщо ви хочете записати відео та розмістити його в соціальних мережах, найкраще закодувати відео за допомогою відкритий ключ.

«З цього моменту відео або має ключ, або його немає», — додав він. «Якщо ключ закодований, його дуже легко виявити на будь-якій платформі, навіть не використовуючи ШІ. Він може працювати практично на будь-якому пристрої, у браузері тощо. Якщо відео публікується на обраному телефоні, воно матиме ключ і пройде перевірку».

Клавіша Fake News на клавіатурі комп’ютера.
Фейкові новини.

Пітер Дейзлі / Getty Images

Фейкові новини - це політична та культурна проблема, а також технічна проблема, Субраманіам Вінсент, директор програми журналістики та медіа-етики в Центрі прикладної етики Markkula на Університет Санта-Клара, йдеться в електронному листі.

«Потрібна буде співпраця та досягнення консенсусу між суб’єктами індустрії штучного інтелекту та медіакомпаніями, а також створюючи новий поштовх до демократичної культури в політиці та виборах перед технологіями", - сказав він. додано. «Усе це полегшить протидію неминучому відтоку, який створюють зловмисники, коли інструменти штучного інтелекту використовуються для виявлення, позначення та припинення поширення фейкових новин. Штучний інтелект є потужним елементом, але не єдиним, у більшій місії битви за демократію в Америці та інших країнах».