Tekst generowany przez sztuczną inteligencję staje się coraz bardziej powszechny — oto dlaczego to zła rzecz

click fraud protection
  • Nowe badania pokazują, że ludzie uczą się rozpoznawać tekst generowany maszynowo.
  • Wiedza o tym, co jest napisane przez sztuczną inteligencję, staje się coraz pilniejsza wraz z rozprzestrzenianiem się oprogramowania takiego jak ChatGPT.
  • Jednak niektórzy eksperci twierdzą, że rozpoznawanie tekstu generowanego przez sztuczną inteligencję stanie się niemożliwe wraz z rozwojem sztucznej inteligencji.
Strona główna aplikacji OpenAI „ChatGPT” jest wyświetlana na ekranie laptopa.

Leona Neala / Getty Images

Coraz trudniej jest odróżnić zdania generowane przez sztuczną inteligencję (AI) od ludzi.

Dobrą wiadomością jest to, że nowy artykuł pokazuje, że ludzie mogą nauczyć się dostrzegać różnicę między tekstem generowanym przez sztuczną inteligencję a tekstem napisanym przez człowieka. Zdolność do określenia, czy komputery tworzą informacje online, staje się krytyczna wraz ze wzrostem popularności wielkoskalowe modele językowe, takie jak ChatGPT, które zdaniem wielu dotkną praktycznie każdego zakątka naszego świata zyje.

„Jeśli otrzymujesz wiadomości tekstowe sugerujące, że twoja babcia pilnie potrzebuje funduszy na zabieg medyczny, chciałbyś wiedzieć, czy było to masowe oszustwo sztucznej inteligencji, czy prawdziwy członek rodziny”

Kentaro Toyamy, profesor informacji społecznej na Uniwersytecie im Uniwersytet Michigani autorka „Herezja maniaków: ratowanie zmian społecznych przed kultem technologii”, powiedział Lifewire w wywiadzie e-mailowym. „A w chwilach, gdy liczy się prawdziwy związek międzyludzki, chcielibyśmy usłyszeć od prawdziwych ludzi, a nie od maszyn”.

Opowiadanie różnicy między Realem a ChatGPT

Naukowcy z University of Pennsylvania napisali swój artykuł, analizując dane zebrane za pomocą internetowej gry szkoleniowej „Prawdziwy czy fałszywy tekst?”. Uczestnicy proszeni są o wskazanie, czy maszyna wyprodukowała dany tekst w sposób „tak” lub „nie”. To zadanie polega na sklasyfikowaniu tekstu jako prawdziwego lub fałszywego oraz ocenieniu odpowiedzi jako poprawnych lub niepoprawnych. Badanie wykazało, że uczestnicy uzyskali znacznie lepsze wyniki niż przypadek losowy.

„Nasza metoda nie tylko grywalizuje zadanie, czyniąc je bardziej wciągającym, ale także zapewnia bardziej realistyczny kontekst szkolenia” – powiedział Liam Duga, jeden z autorów badania. Informacja prasowa. „Wygenerowane teksty, takie jak te generowane przez ChatGPT, zaczynają się od monitów dostarczonych przez człowieka”.

W chwilach, gdy liczy się prawdziwy kontakt międzyludzki, chcielibyśmy usłyszeć od prawdziwych ludzi, a nie od maszyn.

Toyama powiedział, że istnieje wiele powodów, dla których ważne jest nauczenie się rozróżniania tekstu generowanego komputerowo od pisma ludzkiego. Na przykład nauczyciele chcieliby wiedzieć, czy uczniowie przesyłają eseje, które sami napisali, czy też tekst napisany częściowo lub w całości przez komputer. Zauważył, że niedawno Vanderbilt University wysłał e-mail napisany przez ChatGPT do swojej społeczności, łączący tragedię strzelaniny w stanie Michigan z wysiłkami kampusu na rzecz integracji. Nastąpił szybki odzew.

- Takich sytuacji jest mnóstwo - dodał. „W rzeczywistości uważam, że jedną z podstawowych form regulacji sztucznej inteligencji jest to, że prawo powinno wymagać jakiejkolwiek tekst, obraz, dźwięk, wideo lub inne kreatywne dane generowane przez komputer, które mają być wyraźnie oznaczone jako taki."

Wykrywanie tekstu generowanego przez sztuczną inteligencję

Toyama jest pesymistą, że ludzie mogą konsekwentnie dostrzegać różnicę między tekstem generowanym przez sztuczną inteligencję a tekstem generowanym przez człowieka, mówiąc: „na dłuższą metę stanie się to praktycznie niemożliwe, ponieważ sztuczna inteligencja będzie coraz lepsza”. On wskazał Do nieformalne eksperymenty które sugerują, że nawet doświadczeni nauczyciele mają trudności z odróżnieniem pisania uczniów od ChatGPT.

„Mam kolegę, który twierdzi, że zauważył dwa przypadki zgłoszeń ChatGPT, ponieważ tak było w przypadku pism uczniów nagle radykalnie się poprawiło - ale ChatGPT można skierować do pisania na różnych poziomach umiejętności lub do wprowadzania błędów ” on dodał.

Otwarty laptop na biurku z ChatGPT OpenAI na ekranie, piszący esej.

Pixabay / makiety zdjęć

Komputery mogą być używane do określania, czy dany tekst jest dziełem człowieka. Parag Arora, prezes firmy Kwegg, system treści AI, powiedział Lifewire w wywiadzie e-mailowym, że trwają badania mające na celu opracowanie programów wykrywających pisanie generowane maszynowo.

„Klasyfikatory AI uruchamiane przez organizacje badawcze, w tym samo OpenAI, wyglądają obiecująco” – dodał. „Jednak postępy GPT wydają się być zawsze o krok przed nimi, a z natury badań klasyfikatory są zawsze co najmniej jedną generację za generatorami. Wykonano pewne prace nad pozostawieniem tajemniczych podpisów jako zasady dla każdego generatora GPT, co może być pewnym krokiem w kierunku rozwiązania tego problemu”.

Istnieje kilka sposobów, dzięki którym użytkownicy mogą rozpoznać tekst generowany maszynowo, Roberta Brandla, prezes firmy Tester narzędzi, powiedział w wywiadzie e-mailowym. Sugeruje wypróbowanie narzędzi AI, takich jak ChatGPT, aby zobaczyć, jakie treści generują, aby lepiej się z nimi zapoznać. Wśród upominków znajdują się struktury formalne, w których zdania zaczynają się od „Pierwszy” i „Drugi” itp., oraz brak sarkazmu lub humoru w tekście.

„Jednak wraz z rozwojem sztucznej inteligencji narzędzia zaprojektowane do wykrywania tekstu AI również będą się uczyć” – dodał. „Rzeczywiście, może dojść do punktu, w którym ludzie będą musieli polegać na tych narzędziach, aby zrozumieć, kiedy sztuczna inteligencja jest używana, to znaczy, jeśli wydawcy i tak nie ujawnią otwarcie wykorzystania sztucznej inteligencji”.