ИИ может помочь остановить распространение фейковых новостей

click fraud protection
  • Новые методы искусственного интеллекта могут помочь в выявлении дезинформации в Интернете и борьбе с ней.
  • Создаваемые искусственным интеллектом дипфейки делают мошенничество с голосом и видео более опасным.
  • Криптография также может предотвратить распространение фальшивой информации в Интернете.
Хакер в капюшоне с помощью смартфона.
Хакер распространяет фейковые новости.

Игорь Стеванович / 500px / Getty images

Дезинформация является растущей проблемой в Интернете, но помощь может быть уже в пути благодаря искусственному интеллекту (ИИ).

Исследования показывают что методы машинного обучения и технология блокчейн могут бороться с распространение фейковых новостей. Новый подход позволяет создателям контента сосредоточиться на борьбе с дезинформацией в тех областях, где дезинформация с наибольшей вероятностью может причинить значительный общественный вред. Эксперты говорят поиск эффективных методов борьбы с дезинформацией имеет первостепенное значение.

«Мы полагаемся на информацию, чтобы принимать обоснованные решения», Манджит Реге

, директор Центра прикладного искусственного интеллекта Университет Сент-Томас, сказал Lifewire в интервью по электронной почте. «Поэтому, когда потребители не могут отличить реальную информацию от поддельной, они могут быть более склонны к принятию неверных решений. С появлением социальных сетей фальшивые новости могут быстро распространяться и вызывать рефлекторную реакцию общественности».

ИИ создает или находит фейковые новости?

В документе, подготовленном исследователями из Школы менеджмента Бингемтонского университета, рекомендуется использовать системы машинного обучения для оценить потенциальный вред контента на его аудиторию и выявить наиболее вопиющих правонарушителей. Например, во время пика пандемии COVID-19 были выявлены фейковые новости, рекламирующие непроверенные методы лечения, а не вакцины.

«Нас, скорее всего, будут волновать фейковые новости, если они причиняют вред читателям или аудитории. Если люди понимают, что вреда нет, они с большей вероятностью поделятся дезинформацией», — сказал в пресс-релизе Тхи Тран, профессор информационных систем управления, который руководил исследованием. «Вред исходит от того, действуют ли зрители в соответствии с утверждениями из дезинформации или отказываются от надлежащих действий из-за этого. Если у нас будет систематический способ определения того, где дезинформация нанесет наибольший вред, это поможет нам понять, на чем следует сосредоточиться на смягчении последствий».

По мере того как ИИ развивается и становится все более изощренным, людям становится все труднее различать, что реально, а что нет. Самир Хаджарнис, директор по продукту OneSpan, компания цифровой проверки, отмечается в электронном письме.

«Например, дипфейки, созданные искусственным интеллектом, делают голосовой и видеофишинг намного более опасным», — добавил он. «Преступники, использующие атаки социальной инженерии, растут, и угроза, исходящая от дипфейков, в настоящее время широко распространена».

В недавний инцидент, Мартин Льюис, известный сторонник потребительского финансирования из Великобритании, по-видимому, поддержал инвестиционную возможность Илона Маска. Однако позже выяснилось, что видео на самом деле было Дипфейк, созданный искусственным интеллектом, и инвестиционная возможность оказалась мошеннической аферой без реальной поддержки со стороны Льюиса или Маска.

Некоторый контент, созданный ИИ, может выглядеть очень реалистично для человека, но модель ИИ может довольно легко идентифицировать его как подделку.

Множество подходов к борьбе с дезинформацией

Подход Бингемтонского университета — не единственный способ борьбы с фейковыми новостями. Пока ИИ может генерировать поддельный звук и видео, его также можно использовать для определения подлинности- сказал Реге.

«На самом деле, некоторый контент, созданный ИИ, может выглядеть очень реалистично для человека, но модель ИИ может довольно легко идентифицировать его как подделку», — добавил он.

Другой метод - предоставить подтверждение личности с помощью криптографии, эксперта по кибербезопасности и члена IEEE. Йель Фокс сказал в интервью по электронной почте. Если вы хотите записать видео и разместить его в социальных сетях, лучше всего будет закодировать видео с помощью открытый ключ.

«Отсюда в видео либо есть ключ, либо нет», — добавил он. «Если в нем закодирован ключ, то его очень легко обнаружить на любой платформе, даже не используя ИИ. Он может работать практически на любом устройстве, в браузере и т. д. Если видео размещается на выбранном телефоне, у него будет ключ, и он пройдет проверочные тесты».

Клавиша Fake News на клавиатуре компьютера.
Фейковые новости.

Питер Дазели / Getty Images

Фейковые новости — это политическая и культурная проблема, а также техническая проблема. Субраманиам Винсент, директор программы журналистики и медиаэтики Центра прикладной этики им. Университет Санта-Клары, — говорится в электронном письме.

«Потребуется сотрудничество и достижение консенсуса между участниками индустрии ИИ и новостными медиа-компаниями. а также создать новый толчок к демократической культуре в политике и выборах выше по течению от технологий», — сказал он. добавлен. «Все это облегчит противодействие неизбежному противодействию, которое создают злоумышленники, когда инструменты ИИ используются для обнаружения, маркировки и прекращения распространения фальшивых новостей. ИИ — мощный элемент, но не единственный, в еще большей неразберихе битвы за демократию в Америке и других странах».