Oto jak technologia Deepfake Audio oparta na sztucznej inteligencji może Cię oszukać
- Nowe badania pokazują, że głębokie podróbki dźwięku mogą oszukać większość ludzi.
- Deepfake może zdestabilizować wybory i doprowadzić użytkowników do braku zaufania do faktów.
- Niektóre deepfake są używane do audiobooków i do wysyłania spersonalizowanych notatek.

Flashpop/Getty Images
Nie możesz ufać słowom, które słyszysz, dzięki postępom w sztucznej inteligencji (AI).
A ostatnie badania pokazuje, że głęboko sfałszowany dźwięk może oszukać ludzkich słuchaczy w około 25 procentach przypadków. To część rosnącej fali Deepfake generowane przez sztuczną inteligencję budząc obawy co do odróżnienia faktów od fikcji.
„Kiedyś było tak, że„ zobaczyć znaczy uwierzyć ”” Pamiętnik Nasira, stypendysta IEEE oraz profesor informatyki i inżynierii na Uniwersytecie im NYU Tandon, powiedział Lifewire w wywiadzie e-mailowym. „Teraz, w przypadku deepfake, nie jest to już prawdą. Pojęcie tożsamości jest ważne w społeczeństwie. Tożsamość jest niezbędna do komunikacji i współpracy z innymi ludźmi, a my kojarzymy tożsamość z funkcjami audio”.
Deepfake, które oszukują użytkowników
Dźwiękowe deepfake'i najwyraźniej stają się coraz trudniejsze do wykrycia. W badaniu przeprowadzonym na University College London ponad 500 ochotników sprawdziło połączenie sfałszowanych i autentycznych głosów w języku angielskim i mandaryńskim. Niektórzy uczestnicy mieli wcześniej kontakt z głęboko sfałszowanymi próbkami głosu, aby pomóc w identyfikacji. Średnio uczestnicy poprawnie identyfikowali deepfake'i w 73 procentach przypadków, niezależnie od ich przeszkolenia.
„Deepfake audio może być bardzo przekonujący i już poprawia się każdego dnia” Shawna Surbera, Starszy dyrektor ds. technicznego zarządzania kontami w firmie zajmującej się cyberbezpieczeństwem Tan powiedział w e-mailu. „Wraz z postępem technologii sztucznej inteligencji liczba ta prawdopodobnie wzrośnie, zwiększając potencjalne ryzyko związane z podszywaniem się pod fałszywe osoby”.
Cyberprzestępcy mogą wykorzystywać fałszywe dźwięki do tworzenia fikcyjnych tożsamości, które mogą być trudne do wyśledzenia, Stuarta Wellsa, ekspert ds. weryfikacji tożsamości i dyrektor ds. technologii w firmie Firma Jumio, powiedział przez e-mail. Przestępca może również przejmować konta, zagrażając bezpieczeństwu kont bankowych, firmowych kont e-mail i innych należących do istniejących użytkowników.
„Dla niczego niepodejrzewającej ofiary fałszywy dźwięk może być trudny do wykrycia, ale po przeanalizowaniu go przez maszynę modeli uczenia się zaprojektowanych do tego celu, nie jest nie do odróżnienia od mowy generowanej przez człowieka” on dodał. „Poprzez oszacowanie anatomii, która tworzy mowę, możliwe jest zidentyfikowanie pochodzenia, czy to człowieka, czy maszyny”.
Memon zauważył, że kolejnym niebezpieczeństwem związanym z deepfake'ami audio są ingerencje polityczne poprzez destabilizację lub wykolejenie wyborów.
Deepfake dźwięku może być bardzo przekonujący i już poprawia się każdego dnia.
„Nixon został zasadniczo oskarżony na przykład na podstawie nagrań głosowych” – dodał. „To były prawdziwe nagrania, ale możesz sobie wyobrazić, co byłoby możliwe z dźwiękiem deepfake”.
Deepfake Audio może nas nie zgubić
Nie każdy deepfake audio ma złe intencje. Możesz na przykład użyć go do „nagrania siebie mówiącego coś w stylu „Kocham cię” do ukochanej osoby jako prezent-niespodziankę” Mac Steer, właściciel firmy technologicznej Uprościć powiedział w e-mailu.
Korzystają z Google Play i Apple Books Głosy generowane przez AI za ich zawartość audio. Wydawcy w Google Play mogą tworzyć audiobooki z narracją automatyczną, o ile są właścicielami praw do audiobooka i wybierają narrację automatyczną.
Problem deepfake audio będzie narastał m.in. w komunikacji politycznej, Jan V. Pawlik, profesor dziennikarstwa i medioznawstwa na Uniwersytecie im Uniwersytet w Rutgers, przewidziano w e-mailu. Powiedział, że deepfake audio prawdopodobnie stanie się powszechny w Internecie, zwłaszcza w mediach społecznościowych i interaktywnych.

Calvin Chan Wai Meng / Getty Images
„Osoby będą musiały zachować stale krytyczną perspektywę” – dodał. „A za każdym razem, gdy napotkają coś podejrzanego, będą musieli założyć, że jest to deepfake, dopóki jego autentyczność można zweryfikować oddzielnie i niezależnie, zazwyczaj za pośrednictwem zaufanych źródeł mediów informacyjnych”.
Ale jest nadzieja, że deepfake audio nie skazuje nas na przyszłość fałszywych informacji. Ludzie mogą nie wierzyć automatycznie w fałszywe dźwięki o preferowanym przez nich aktorze politycznym, zwłaszcza jeśli pochodzą one ze zdyskredytowanego źródła, Subramaniam Vincent, Dyrektor ds. Dziennikarstwa i Etyki Mediów w Centrum Etyki Stosowanej Markkula przy ul Uniwersytet Santa Clara, odnotowany w e-mailu. Powiedział, że nawet jeśli deepfake się rozpowszechnią, mogą znajdować się tylko na forach internetowych, które pasują do narracji.
„Rzeczywiste sądy lub inne instytucje proceduralne oparte na faktach, które działają zgodnie z zasadami i wolniejszymi prędkościami operacji są stosunkowo bardziej izolowane w podejmowaniu decyzji niż tłumy uczestniczące w Internecie” – powiedział dodany. „Krótko mówiąc, spodziewaj się wyścigu zbrojeń w kotka i myszkę i bitew opartych na deepfake w mediach, z dobrymi aktorami wpływającymi na dystrybucję i złymi aktorami próbującymi na nich zyskać”.