Sztuczna inteligencja może pomóc powstrzymać rozprzestrzenianie się fałszywych wiadomości

click fraud protection
  • Nowe techniki sztucznej inteligencji mogą pomóc w identyfikacji i zwalczaniu dezinformacji online.
  • Deepfake generowane przez sztuczną inteligencję sprawiają, że oszustwa głosowe i wideo są bardziej niebezpieczne.
  • Kryptografia może również zapobiegać fałszywym informacjom w sieci.
Zakapturzony haker korzystający ze smartfona.
Haker rozpowszechniający fałszywe wiadomości.

Igor Stevanovic / 500px / Getty images

Dezinformacja to coraz większy problem w Internecie, ale pomoc może być już w drodze dzięki sztucznej inteligencji (AI).

Badania sugerują że techniki uczenia maszynowego i technologia blockchain mogą zwalczać rozpowszechnianie fałszywych wiadomości. Nowe podejście pozwala twórcom treści skupić się na zwalczaniu dezinformacji w obszarach, w których dezinformacja najprawdopodobniej spowoduje znaczne szkody publiczne. Eksperci mówią znalezienie skutecznych metod zwalczania dezinformacji ma ogromne znaczenie.

„Polegamy na informacjach, aby podejmować świadome decyzje” Manjeet Rege, dyrektor Centrum Stosowanej Sztucznej Inteligencji przy ul

Uniwersytet św. Tomasza, powiedział Lifewire w wywiadzie e-mailowym. „Kiedy konsumenci nie są w stanie odróżnić prawdziwych od fałszywych informacji, mogą być bardziej podatni na podejmowanie złych decyzji. Wraz z pojawieniem się mediów społecznościowych fałszywe wiadomości mogą szybko stać się wirusowe i potencjalnie prowadzić do odruchowych reakcji opinii publicznej”.

Czy sztuczna inteligencja tworzy lub znajduje fałszywe wiadomości?

Artykuł opracowany przez naukowców z School of Management Uniwersytetu Binghamton zalecał zastosowanie systemów uczenia maszynowego ocenić potencjalną szkodliwość treści na swoich odbiorcach i wskazać najbardziej rażących przestępców. Na przykład podczas szczytu pandemii COVID-19 zidentyfikowano fałszywe wiadomości promujące niezweryfikowane metody leczenia zamiast szczepionek.

„Najczęściej przejmujemy się fałszywymi wiadomościami, jeśli powodują one szkody, które wpływają na czytelników lub odbiorców. Jeśli ludzie uznają, że nie ma nic złego, są bardziej skłonni do dzielenia się dezinformacją” – powiedział Thi Tran, profesor systemów informacji zarządczej, który kierował badaniami. „Szkody wynikają z tego, czy widzowie działają zgodnie z twierdzeniami z dezinformacji, czy też z tego powodu odmawiają podjęcia właściwych działań. Jeśli mamy systematyczny sposób identyfikowania, gdzie dezinformacja wyrządzi najwięcej szkód, pomoże nam to wiedzieć, gdzie skupić się na łagodzeniu skutków”.

W miarę jak sztuczna inteligencja rozwija się i staje się coraz bardziej wyrafinowana, jednostkom coraz trudniej jest rozróżnić, co jest prawdziwe, a co nie, Sameer Hajarnis, szef produktu ds OneSpan, firma zajmująca się weryfikacją cyfrową, odnotowana w e-mailu.

„Na przykład deepfake generowane przez sztuczną inteligencję sprawiają, że phishing głosowy i wideo jest o wiele bardziej niebezpieczny” – dodał. „Rośnie liczba przestępców wykorzystujących ataki socjotechniczne, a zagrożenie stwarzane przez deepfake jest obecnie powszechne”.

W niedawny incydent, Martin Lewis, wybitny rzecznik zajmujący się finansami konsumenckimi z Wielkiej Brytanii, najwyraźniej poparł okazję inwestycyjną Elona Muska. Jednak później okazało się, że wideo było w rzeczywistości Deepfake wygenerowany przez sztuczną inteligencję, a okazja inwestycyjna okazała się oszustwem, bez rzeczywistego wsparcia ze strony Lewisa lub Muska.

Niektóre treści generowane przez sztuczną inteligencję mogą wyglądać bardzo realistycznie dla człowieka, ale można je dość łatwo zidentyfikować jako fałszywe za pomocą modelu sztucznej inteligencji.

Wiele podejść do walki z dezinformacją

Podejście Binghamton University nie jest jedynym sposobem walki z fałszywymi wiadomościami. Chwila Sztuczna inteligencja może generować fałszywy dźwięk i wideo, może być również używany do wykrywania autentyczności- powiedział Rege.

„W rzeczywistości niektóre treści generowane przez sztuczną inteligencję mogą wyglądać bardzo realistycznie dla człowieka, ale można je dość łatwo zidentyfikować jako fałszywe za pomocą modelu sztucznej inteligencji” – dodał.

Inną metodą jest przedstawienie dowodu tożsamości za pomocą kryptografii, eksperta ds. cyberbezpieczeństwa i członka IEEE Yale Fox powiedział w wywiadzie e-mailowym. Jeśli chcesz nagrać wideo i umieścić je w mediach społecznościowych, najlepszą rzeczą do zrobienia byłoby zakodowanie wideo za pomocą klucz publiczny.

„Stąd wideo albo ma klucz, albo go nie ma” – dodał. „Jeśli ma zakodowany klucz, bardzo łatwo go wykryć na dowolnej platformie, nawet bez użycia sztucznej inteligencji. Może działać na praktycznie każdym urządzeniu, w przeglądarce itp. Jeśli wideo zostanie opublikowane na wybranym telefonie, będzie miało klucz i przejdzie testy weryfikacyjne”.

Klawisz Fake News na klawiaturze komputera.
Fałszywe wiadomości.

Petera Dazeleya / Getty Images

Fałszywe wiadomości to problem polityczny i kulturowy, a także kwestia techniczna, Subramaniam Vincent, dyrektor programu dziennikarstwa i etyki mediów w Centrum Etyki Stosowanej Markkula przy ul Uniwersytet Santa Clara, powiedział w e-mailu.

„Będzie to wymagało współpracy i budowania konsensusu między podmiotami z branży sztucznej inteligencji i firmami medialnymi, a także generując nowy impuls w kierunku kultury demokratycznej w polityce i wyborach poprzedzających technologię” – powiedział dodany. „Wszystko to ułatwi przeciwdziałanie nieuchronnemu odrzuceniu, jakie tworzą złoczyńcy, gdy narzędzia sztucznej inteligencji są używane do wykrywania, oznaczania i zatrzymywania dystrybucji fałszywych wiadomości. Sztuczna inteligencja jest potężnym elementem, ale nie jedynym, w większym bałaganie bitwy o demokrację w Ameryce i gdzie indziej”.