Klonowanie głosu AI pomaga oszustom — oto jak się chronić

click fraud protection
  • Oszustwa związane z klonowaniem głosu AI to rosnący problem.
  • Łatwo dostępne oprogramowanie pozwala oszustom naśladować dźwięk ludzkich głosów.
  • Możesz się zabezpieczyć, weryfikując tożsamość dzwoniących.
Zbliżenie na osobę trzymającą smartfon z nieznanym rozmówcą wyświetlanym na ekranie.

Tero Vesalainen / Getty Images

Uważaj na telefony od osób, które twierdzą, że są bliskimi w tarapatach.

Mówią urzędnicy federalni używają oszuści oprogramowanie do klonowania głosu w celu przeprowadzania wyrafinowanych oszustw rodzinnych i oszustw korporacyjnych. Jest to część narastającego problemu przestępców wykorzystujących sztuczną inteligencję (AI).

„Dzięki najnowszym osiągnięciom w syntezie mowy systemy takie jak VALL-E są w stanie stworzyć wysokiej jakości klon głosu z zaledwie 3-sekundowym zarejestrowanym nagraniem niewidocznego mówcy” Vijay Balasubramaniyan, prezes firmy zajmującej się cyberbezpieczeństwem Pindrop powiedział Lifewire w wywiadzie e-mailowym.

Jak działają oszustwa polegające na klonowaniu głosu AI

Oszustwa związane z klonowaniem głosu AI często zaczynają się od telefonu od kogoś, kto brzmi jak członek rodziny. Oszust mówi, że ukochana osoba ma kłopoty i potrzebuje pieniędzy na nagły wypadek związany z wypadkiem samochodowym lub rachunkiem za szpital. W rzeczywistości osoba rozmawiająca przez telefon jest obcą osobą korzystającą z oprogramowania do klonowania głosu.

„Sztuczna inteligencja nie jest już naciąganym pomysłem z filmu science-fiction. Żyjemy z tym, tu i teraz”, pisze FTC na swojej stronie internetowej. „Oszust może wykorzystać sztuczną inteligencję do sklonowania głosu ukochanej osoby. Wszystko, czego potrzebuje, to krótki klip audio z głosem członka rodziny — który mógłby uzyskać z treści opublikowanych online — oraz program do klonowania głosu. Kiedy oszust do ciebie zadzwoni, będzie brzmiał jak twoja ukochana osoba”.

Klonowanie głosu umożliwia użytkownikom odtworzenie unikalnych wzorców wokalnych danej osoby. Jednak jest to również miecz obosieczny, Tamás Kádár, dyrektor generalny firmy zajmującej się zapobieganiem oszustwom SEON, powiedział w e-mailu. Niebezpieczeństwo pojawia się, gdy ta technologia dostanie się w niepowołane ręce.

„Osoby pozbawione skrupułów mogą używać klonowania głosu, aby oszukiwać, manipulować i wykorzystywać innych, co może spowodować poważne szkody emocjonalne i finansowe” – dodał Kádár. „Jest to szczególnie niepokojące, ponieważ oprogramowanie do klonowania głosu staje się bardziej dostępne i przystępne cenowo, otwierając puszkę Pandory z nikczemnymi możliwościami”.

Nagła sytuacja rodzinna nie jest jedynym oszustwem wykorzystującym klonowanie głosu. Kádár powiedział, że innym powszechnym oszustwem jest sytuacja, w której oszust podszywa się pod członka rodziny lub bliskiego przyjaciela, zwykle twierdząc, że potrzebuje pomocy finansowej z powodu wypadku lub nagłej sytuacji. „Ofiara, myśląc, że pomaga ukochanej osobie, wysyła pieniądze, by później odkryć, że to oszustwo” – dodał.

Innym oszustwem jest oszustwo CEO, kiedy oszust klonuje głos dyrektora firmy i kontaktuje się z pracownikami, żądając przelewu środków lub ujawnienia poufnych informacji. Pracownik, myśląc, że wykonuje polecenia przełożonego, nieświadomie umożliwia oszustwo.

Dziadkowie są coraz bardziej narażeni na oszustwa związane z klonowaniem głosu, Steven JJ Weismana, ekspert w dziedzinie kradzieży tożsamości, powiedział w wywiadzie e-mailowym. Oszust może uzyskać nagranie głosu wnuka z mediów społecznościowych i odtworzyć je za pomocą technologii sztucznej inteligencji.

Dwie osoby dorosłe, jedna odbiera telefon alarmowy, a druga trzyma kartę kredytową i korzysta z laptopa.

RainStar/Getty Images

Wskazał na przypadek o Ruth Card z Kanady, która została oszukana z 3000 CAD przez oszusta, który użył technologii klonowania głosu AI, aby wykonać połączenie, które wydawało się pochodzić od jej wnuka. Dzwoniący powiedział, że jej wnuk jest w więzieniu i potrzebuje natychmiast pieniędzy na kaucję.

„Wystarczy oprogramowanie do generowania głosu AI i zaledwie 30 sekund dźwięku wnuka” – powiedział Weisman.

Wykrywanie oszustwa polegającego na klonowaniu głosu

Możesz chronić się przed oszustwami związanymi z klonowaniem głosu przez sztuczną inteligencję, uważając na niechciane połączenia z prośbą o podanie danych osobowych lub finansowych. Według FTC oszuści często proszą o zapłacenie lub wysłanie pieniędzy w sposób, który utrudnia ich odzyskanie. Jeśli dzwoniący prosi o przelanie pieniędzy, przesłanie kryptowaluty lub kupienie kart podarunkowych i podanie numerów kart i kodów PIN, mogą to być oznaki oszustwa.

Balasubramaniyan powiedział, że to czerwona flaga, jeśli jesteś poddawany manipulacji emocjonalnej i taktyce wysokiego ciśnienia. „Jeśli użytkownik czuje się zmuszony do pomocy w takich sytuacjach, rozłącz się i samodzielnie oddzwoń do kontaktu, korzystając ze znanego numeru telefonu” – dodał.

W przyszłości mogą istnieć sposoby wykrywania oszustw AI. „Firmy opracowują technologię wykrywania klonowania głosu” – powiedział Balasubramaniyan. „Te technologie wykrywania wykorzystują wiedzę na temat produkcji i ewolucji ludzkiego głosu, aby określić, kiedy głos jest klonem, odtwarzając fizyczną anatomię danej mowy i określając w niej anomalie przemówienie."