Dlaczego oszustwa głosowe AI oznaczają, że prawdopodobnie nigdy nie powinieneś odbierać telefonu

  • Oszustwa AI, wykorzystujące sklonowane głosy ludzi, których znasz, to coś.
  • Wykrywanie oszustw związanych z klonowaniem głosu AI jest coraz trudniejsze.
  • Ochrona siebie jest taka sama jak w przypadku zwykłych oszustw.
Ktoś wpatruje się w smartfona ze zdziwieniem na twarzy, trzymając kubek kawy.

Westend61 / Getty Images

Wyobraź sobie telefon od członka rodziny lub bliskiego przyjaciela. Mają kłopoty i potrzebują pieniędzy. Numer się sprawdza. To ich głos. Ale to nie oni. To podszywacz AI, który cię oszukuje.

Według raport od McAfee, te oszustwa głosowe AI są coraz częstsze dzięki podszywającym się pod sztuczną inteligencję. I chociaż istnieją w takiej czy innej formie od zawsze, technologia sprawia, że ​​oszustwo jest szczególnie przekonujące. Fałszowanie identyfikatora dzwoniącego w połączeniu z klonowaniem głosu AI prawdopodobnie przekonałoby większość ludzi. Jak to działa? A jak możesz się chronić?

„To prawda, że ​​generowanie głosu AI poprawia się niezwykle szybko. Technologia klonowania głosu ElevenLabs jest przerażająco dobry, zwłaszcza jeśli weźmie się pod uwagę niewielką ilość danych potrzebnych do jego działania. Widzę sytuacje, w których można oszukać ludzi, zwłaszcza jeśli są wprowadzeni w stan wzmożonych emocji” – konsultant AI 

Ryszard Batt powiedział Lifewire za pośrednictwem poczty elektronicznej.

Klonowanie głosu prowadzi do oszustw głosowych AI

Uzbrojony w sklonowany głos, oszust może zadzwonić i udawać kogoś, kogo już znasz. Na przykład w kwietniu był tzw opowieść o oszukanej matce z fałszywym porwaniem jej córki przy użyciu głosu sklonowanego przez sztuczną inteligencję.

Wydaje się całkowicie niewiarygodne, że coś takiego jest w ogóle możliwe, ale nasze niedowierzanie może sprawić, że te oszustwa będą jeszcze bardziej skuteczne.

Oszustwa głosowe AI można dostosować do tworzenia wysoce spersonalizowanych profili celów poprzez pozyskiwanie danych z publicznych źródeł internetowych.

Jak to działa? Aby sklonować głos, potrzebujesz nagrania oryginalnego głosu. Dzięki filmom na TikTok i Instagramie dostępnych jest mnóstwo danych treningowych. A z Twoich postów w sieciach społecznościowych wycieka wiele innych danych o Twoich relacjach z ludźmi, które można wykorzystać do bardziej przekonującego oszustwa.

W tej chwili poziom wysiłku jest nadal wysoki. Musisz wybrać cel, znaleźć przykład głosu, sklonować go i wykonać połączenie, fałszując po drodze identyfikator dzwoniącego. Ale jeśli coś wiemy, to to, że oszuści prawdopodobnie staną się coraz bardziej wyrafinowani.

„Oszustwa głosowe AI można dostosować do tworzenia wysoce spersonalizowanych profili celów poprzez pozyskiwanie danych z publicznych źródeł internetowych. Zestawy narzędzi do inżynierii społecznej istnieją od lat i są chętnie wykorzystywane przez współczesnych cyberprzestępców do agregowania informacji o docelowych ofiarach. W przeciwieństwie do współczesnych cyberprzestępców, sztuczna inteligencja w najmniejszym stopniu nie męczy się ani nie zniechęca, nie wspominając już o tym, że może syntetyzować niemal każdy głos i język” James Leone, konsultant ds. cyberbezpieczeństwa w IBM, powiedział Lifewire za pośrednictwem poczty elektronicznej.

A oszustwo nie musi być fałszywą próbą porwania. Równie dobrze może to być chatbot AI, który dzwoni do ciebie i udaje, że jest z twojego banku. To więcej na poziomie automatyzacji oszustw 419, tych klasycznych oszustw e-mailowych, w których nigeryjski książę chciał wywieźć pieniądze z kraju. Jeśli nie potrzebujesz ludzi do wykonywania połączeń, możesz zalać świat spamem połączeń głosowych.

„Największym niebezpieczeństwem jest to, jak łatwo i tanio popełnić tego rodzaju oszustwo. W przeszłości tego rodzaju podróbki wymagały 10 godzin audio (lub wideo) tematu, ale teraz, ponieważ technologia rozwija się tak szybko, wszystko, czego każdy potrzebuje, to tylko 10 sekund audio ” Rijul Gupta, CEO i współzałożyciel DeepMedia, firma zajmująca się tworzeniem i wykrywaniem deepfake, poinformowała Lifewire za pośrednictwem poczty elektronicznej.

Ktoś nagrywa inną osobę smartfonem.
Josh Rose / Unsplash.

Czy możesz chronić się przed oszustwami związanymi z klonowaniem głosu AI?

Pomimo zaawansowanego technologicznie charakteru tych oszustw sposób ochrony przed oszustwami telefonicznymi niewiele się zmienił.

Po pierwsze, nie należy ufać identyfikatorowi dzwoniącego. Następnie należy zawsze rozłączać się i oddzwaniać na numer, który już masz lub sam sprawdzić.

To zajmuje się prawie wszystkimi „zwykłymi” oszustwami, ale powinno być również skuteczne przeciwko sklonowanym oszustwom głosowym. Problemem jest element inżynierii społecznej. Jeśli identyfikator dzwoniącego przygotowuje cię do oczekiwania, że ​​usłyszysz współmałżonka, a klon głosu jest dobry i brzmi jak twój mąż, możesz być przekonany. W tej chwili modele są dobre, ale nie aż tak dobre.

„Ważne jest, aby zrozumieć, że te modele nie są jeszcze zdolne do realistycznych zmian tonu. Krótki fragment głosu, który wymaga tylko tonu, może oszukać ludzi, dłuższy klip prawdopodobnie nie” — mówi Batt.

Ale biorąc pod uwagę obecne tempo rozwoju sztucznej inteligencji, oszustwa związane z klonowaniem głosu będą coraz lepsze, więc lepiej uważajmy i być może przestańmy odbierać połączenia z numerów, których nie rozpoznajemy.