KI könnte helfen, die Verbreitung gefälschter Nachrichten zu stoppen

click fraud protection
  • Neue KI-Techniken könnten dabei helfen, Online-Fehlinformationen zu erkennen und zu bekämpfen.
  • KI-generierte Deepfakes machen Sprach- und Videobetrug gefährlicher.
  • Kryptographie kann auch gefälschte Informationen im Internet verhindern.
Ein vermummter Hacker, der ein Smartphone benutzt.
Hacker verbreiten Fake News.

Igor Stevanovic / 500px / Getty Images

Fehlinformationen sind online ein wachsendes Problem, aber dank künstlicher Intelligenz (KI) könnte Abhilfe geschaffen werden.

Suchvorschläge dass maschinelle Lerntechniken und Blockchain-Technologie dem entgegenwirken können Verbreitung von Fake News. Der neue Ansatz ermöglicht es den Erstellern von Inhalten, sich auf die Bekämpfung von Desinformation in Bereichen zu konzentrieren, in denen Fehlinformationen am wahrscheinlichsten erheblichen öffentlichen Schaden anrichten. Experten sagen Suche nach wirksamen Methoden zur Bekämpfung von Desinformation ist von größter Bedeutung.

„Wir sind auf Informationen angewiesen, um fundierte Entscheidungen zu treffen“ Manjeet Rege, der Direktor des Zentrums für Angewandte Künstliche Intelligenz am

Universität St. Thomas, sagte Lifewire in einem E-Mail-Interview. „Wenn Verbraucher also nicht in der Lage sind, zwischen echten und gefälschten Informationen zu unterscheiden, könnten sie anfälliger für Fehlentscheidungen sein. Mit dem Aufkommen der sozialen Medien können sich Fake News schnell viral verbreiten und möglicherweise zu reflexartigen Reaktionen der Öffentlichkeit führen.“

Erstellt oder findet KI Fake News?

In einem von Forschern der School of Management der Binghamton University erstellten Artikel wurde der Einsatz maschineller Lernsysteme empfohlen den potenziellen Schaden von Inhalten beurteilen auf sein Publikum und lokalisieren Sie die ungeheuerlichsten Straftäter. Während des Höhepunkts der COVID-19-Pandemie wurden beispielsweise Fake News identifiziert, die unbestätigte Behandlungen gegenüber Impfungen propagierten.

„Fake News interessieren uns am ehesten dann, wenn sie Schaden anrichten, der sich auf Leser oder Publikum auswirkt.“ „Wenn die Leute erkennen, dass es keinen Schaden gibt, ist es wahrscheinlicher, dass sie die Fehlinformationen weitergeben“, sagte Thi Tran, Professorin für Managementinformationssysteme, die die Forschung leitete, in der Pressemitteilung. „Der Schaden entsteht dadurch, ob das Publikum gemäß den Behauptungen der Fehlinformationen handelt oder ob es deswegen die richtigen Maßnahmen ablehnt.“ Wenn wir systematisch ermitteln können, wo Fehlinformationen den größten Schaden anrichten, können wir erkennen, wo wir uns auf die Schadensbegrenzung konzentrieren müssen.“

Da sich die KI weiterentwickelt und immer ausgefeilter wird, wird es für den Einzelnen immer schwieriger zu unterscheiden, was real ist und was nicht. Sameer Hajarnis, der Chief Product Officer von OneSpan, ein Unternehmen für digitale Verifizierung, heißt es in einer E-Mail.

„Zum Beispiel machen KI-generierte Deepfakes Sprach- und Video-Phishing viel gefährlicher“, fügte er hinzu. „Die Zahl der Kriminellen, die Social-Engineering-Angriffe nutzen, nimmt zu und die Bedrohung durch Deepfakes ist mittlerweile weit verbreitet.“

In einem jüngster VorfallMartin Lewis, ein prominenter Befürworter von Verbraucherfinanzierungen aus Großbritannien, befürwortete offenbar eine Investitionsmöglichkeit von Elon Musk. Später stellte sich jedoch heraus, dass es sich bei dem Video tatsächlich um eine handelte KI-generierter Deepfake, und die Investitionsmöglichkeit stellte sich als betrügerischer Betrug heraus, ohne tatsächliche Unterstützung von Lewis oder Musk.

Einige der KI-generierten Inhalte können für einen Menschen sehr realistisch aussehen, können aber von einem KI-Modell relativ leicht als Fälschung identifiziert werden.

Viele Ansätze zur Bekämpfung von Desinformation

Der Ansatz der Binghamton University ist nicht die einzige Möglichkeit, Fake News zu bekämpfen. Während KI kann gefälschtes Audio erzeugen und Videos, es kann auch zur Echtheitserkennung verwendet werden, sagte Rege.

„Tatsächlich können einige der KI-generierten Inhalte für einen Menschen sehr realistisch aussehen, können aber von einem KI-Modell ziemlich leicht als Fälschung identifiziert werden“, fügte er hinzu.

Eine andere Methode besteht darin, mithilfe von Kryptographie einen Identitätsnachweis zu erbringen, so ein Cybersicherheitsexperte und IEEE-Mitglied Yale Fox sagte in einem E-Mail-Interview. Wenn Sie ein Video aufnehmen und in sozialen Medien veröffentlichen möchten, ist es am besten, das Video mit einem zu kodieren Öffentlicher Schlüssel.

„Entweder hat das Video den Schlüssel oder nicht“, fügte er hinzu. „Wenn der Schlüssel codiert ist, ist er auf jeder Plattform sehr leicht zu erkennen, ohne dass KI eingesetzt werden muss.“ Es kann auf praktisch jedem Gerät, in einem Browser usw. ausgeführt werden. Wenn das Video auf einem ausgewählten Telefon gepostet wird, hätte es den Schlüssel und würde die Verifizierungstests bestehen.“

Eine Fake-News-Taste auf einer Computertastatur.
Fake News.

Peter Dazeley / Getty Images

Fake News sind ein politisches und kulturelles Problem sowie ein technisches Problem. Subramaniam Vincent, Leiter des Journalismus- und Medienethikprogramms am Markkula Center for Applied Ethics bei Santa Clara-Universität, sagte in einer E-Mail.

„Es bedarf der Zusammenarbeit und der Konsensbildung zwischen den Akteuren der KI-Branche und den Nachrichtenmedienunternehmen.“ und auch einen neuen Schub hin zu einer demokratischen Kultur in der Politik und bei Wahlen vor der Technologie erzeugen“, sagte er hinzugefügt. „All das wird es einfacher machen, dem unvermeidlichen Widerstand entgegenzuwirken, den schlechte Akteure erzeugen, wenn KI-Tools eingesetzt werden, um Fake News zu erkennen, zu kennzeichnen und deren Verbreitung zu stoppen.“ KI ist ein mächtiges Element, aber nicht das einzige, im größeren Schlamassel eines Kampfes um Demokratie in Amerika und anderswo.“