Jak funkcja Live Voice firmy Apple może zostać wykorzystana do oszustw polegających na klonowaniu głosu

  • Nowe oprogramowanie Apple pozwoli sklonować Twój głos na iPhone'ach i iPadach.
  • Technologia ma pomóc użytkownikom, którzy nie mówią lub są zagrożeni utratą tej zdolności.
  • Ale eksperci twierdzą, że technologia klonowania głosu może pomóc w oszustwach i powodować zamieszanie.
Ktoś nagrywa swój głos na smartfonie na żółtej ścianie.

Westend61 / Getty Images

Twój iPhone i iPad wkrótce pozwolą ci sklonować własny głos, a eksperci twierdzą, że nowa funkcja może prowadzić do większej liczby głębokich podróbek.

Nowa funkcja osobistego głosu stworzy głos, który brzmi jak użytkownik. Jest przeznaczony dla użytkowników, którzy nie mówią lub są zagrożeni utratą tej umiejętności. Ale technologia może również powodować zamieszanie.

„To może bardzo szybko stać się bagnem głębokich podróbek na całym świecie” Vinoda Iyengara, ekspert AI i szef produktu w Trzeci AI, powiedział Lifewire w wywiadzie e-mailowym. „Istnieje wiele systemów uwierzytelniania opartych na biometrii głosowej, które będą miały kłopoty. Co się stanie, jeśli ktoś użyje klonowania głosu, aby uzyskać nieautoryzowany dostęp do konta bankowego? Lub używa go do rozpowszechniania dezinformacji”.

Twój głos, odtworzony

Możesz stworzyć osobisty głos, czytając wraz z losowym zestawem monitów tekstowych, aby nagrać 15 minut dźwięku na iPhonie lub iPadzie. Ta funkcja korzysta z uczenia maszynowego na urządzeniu, aby zapewnić prywatność informacji użytkowników.

„Pod koniec dnia najważniejsza jest możliwość komunikowania się z przyjaciółmi i rodziną” Philip Green, który doświadczył znacznych zmian w głosie od czasu otrzymania diagnozy ALS, powiedział W Komunikat prasowy Apple. „Jeśli możesz powiedzieć im, że je kochasz głosem, który brzmi jak ty, robi to wielką różnicę świata — a możliwość stworzenia syntetycznego głosu na iPhonie w zaledwie 15 minut jest niezwykła”.

Narzędzie do oszustw związanych z klonowaniem głosu?

Technologia klonowania głosu, taka jak Personal Voice, rodzi pytania etyczne dotyczące zgody i potencjalnego nadużycia czyjegoś głosu bez jego zgody, Tylera Sweatta, dyrektor ds. przychodów w firmie technologicznej Drugi Front, powiedział w e-mailu.

„Klonowanie głosu może być wykorzystywane do tworzenia sfabrykowanych treści audio, które wydają się być autentyczne, co utrudnia rozróżnienie między prawdziwymi a fałszywymi nagraniami audio” – dodał.

Oszustwa związane z klonowaniem głosu rosną. Eksperci ostrzegają technologia może być wykorzystywana do złośliwych celów, takich jak kradzież tożsamości, oszukańcze rozmowy telefoniczne i e-maile typu phishing. Przestępcy wykorzystują sztuczną inteligencję do podszywania się pod kogoś innego i nakłonienia ofiary do podania pieniędzy lub danych osobowych.

Klonowanie głosu może być wykorzystywane do tworzenia sfabrykowanych treści dźwiękowych, które wydają się być autentyczne, co utrudnia rozróżnienie między prawdziwymi a fałszywymi nagraniami dźwiękowymi.

Oszuści mogą sklonować głos znajomego, członka rodziny, szefa lub autorytetu i zadzwonić do ofiary z pilną prośbą o pieniądze lub pomoc. Alternatywnie oszust może sklonować głos klienta, dostawcy lub partnera i wysyłać fałszywe faktury lub wezwania do zapłaty za pośrednictwem poczty elektronicznej lub telefonu. W 2021 roku co najmniej ośmiu seniorów w Kanadzie straciło łącznie 200 000 dolarów w pozornym oszustwie polegającym na klonowaniu głosu.

Nowa technologia klonowania głosu w iPhone'ach może prowadzić do niezamierzonych konsekwencji, powiedział Iyengar. Zwrócił uwagę, że rozmowy z iPhone'a są często wykorzystywane jako dowód w sprawach sądowych.

„Cały ten obszar jest teraz polem minowym i wkrótce sądy mogą nie zaakceptować nagrań głosowych jako dowodów, ponieważ można je było łatwo sfałszować” – dodał.

Personal Voice może zatrzeć granicę między fikcją a rzeczywistością. Iyengar zasugerował, że klony głosowe można połączyć z chatbotami AI, aby działały jako „osobisty kaskader” dla każdego.

Osoba edytująca nagranie dźwiękowe na komputerze stacjonarnym przy użyciu sprzętu audio.

Yanyong / Getty Images

Sklonowany głos mógł „reprezentować osobę i wykonywać zadania w jej imieniu, takie jak tworzenie umawiania spotkań, odbierania telefonów, a nawet nagrań wideo, które trzeba odczytać ze scenariusza” - powiedział Iyengar.

Jeśli Twój głos zostanie sklonowany i wykorzystany przez kogoś innego, nie ma pewności, czy system prawny Cię ochroni. Przepisy „Prawa do reklamy” w USA dają celebrytom i innym znanym osobom pewną kontrolę nad wykorzystaniem ich imion, wizerunku i głosu, Heidi McKee, profesor w Uniwersytet Miami, powiedział w e-mailu. Zauważyła, że ​​podszywanie się pod funkcjonariusza organów ścigania lub pracownika federalnego jest nielegalne.

„Ale czy ta ochrona rozciąga się na wszystkich obywateli USA i w sposób, który byłby łatwy dla jednostki do dochodzenia zadośćuczynienia?” — powiedział McKee. „Prawo i przepisy nie określają tego tak jasno. Już teraz jesteśmy zalewani dezinformacją i głębokimi podróbkami, a klonowanie głosu tylko zwiększy te problemy, szczególnie w połączeniu z podróbkami wideo”.