Klonování hlasu AI pomáhá podvodníkům – zde je návod, jak se chránit
- Podvody s klonováním hlasu AI jsou stále větším problémem.
- Snadno dostupný software umožňuje podvodníkům napodobovat zvuk hlasů lidí.
- Můžete se chránit ověřením identity volajících.

Tero Vesalainen / Getty Images
Dávejte si pozor na telefonáty od lidí, kteří tvrdí, že jsou blízcí v problémech.
Tvrdí to federální představitelé podvodníci využívají software pro klonování hlasu, který umožňuje sofistikované rodinné nouzové a podnikové podvody. Je to součást rostoucího problému zločinců využívajících umělou inteligenci (AI).
"S nejnovějšími pokroky v syntéze řeči jsou systémy jako VALL-E schopny vytvořit vysoce kvalitní hlasový klon s pouhým 3sekundovým registrovaným záznamem neviditelného řečníka," Vijay Balasubramaniyan, generální ředitel společnosti zabývající se kybernetickou bezpečností Pindrop řekl Lifewire v e-mailovém rozhovoru.
Jak fungují podvody s klonováním hlasu AI
Podvody s klonováním hlasu AI často začínají voláním od někoho, kdo zní jako člen rodiny. Podvodník říká, že váš milovaný má potíže a potřebuje peníze na mimořádné události zahrnující autonehodu nebo na účet v nemocnici. Ve skutečnosti je osoba na telefonu cizinec, který používá software pro klonování hlasu.
„Umělá inteligence už není přitažená za vlasy ze sci-fi filmu. Žijeme s tím, tady a teď,“ píše FTC na svém webu. „Podvodník by mohl použít AI ke klonování hlasu vašeho milovaného. Vše, co potřebuje, je krátký zvukový klip s hlasem vašeho člena rodiny – který by mohl získat z obsahu zveřejněného online – a program pro klonování hlasu. Když vám podvodník zavolá, bude znít jako váš milovaný."
Klonování hlasu umožňuje uživatelům znovu vytvořit jedinečné hlasové vzorce jednotlivce. Je to však také dvousečná zbraň, Tamás Kádár, generální ředitel společnosti pro prevenci podvodů SEON, uvedl v e-mailu. Nebezpečí nastává, když se tato technologie dostane do nesprávných rukou.
"Bezskrupulózní jedinci mohou používat klonování hlasu k klamání, manipulaci a vykořisťování ostatních s potenciálem způsobit vážné emocionální a finanční škody," dodal Kádár. "To je obzvláště znepokojivé, protože software pro klonování hlasu se stává dostupnějším a cenově dostupnějším, čímž se otevírá pandořina skříňka hanebných možností."
Rodinná nouze není jediným podvodem, který využívá klonování hlasu. Kádár uvedl, že dalším běžným podvodem je, když se podvodník vydává za člena rodiny nebo blízkého přítele a obvykle tvrdí, že potřebuje finanční pomoc kvůli nehodě nebo naléhavé situaci. "Oběť v domnění, že pomáhá milované osobě, posílá peníze, aby později zjistila, že šlo o podvod," dodal.
Dalším podvodem je podvod generálního ředitele, kdy podvodník naklonuje hlas jednatele společnosti a kontaktuje zaměstnance s žádostí o převod finančních prostředků nebo zveřejnění citlivých informací. Zaměstnanec, který si myslí, že plní rozkazy od nadřízeného, nevědomky umožní podvod.
Prarodiče jsou stále zranitelnější vůči podvodům s klonováním hlasu, Steven J.J. Weisman, expert na krádeže identity, řekl v e-mailovém rozhovoru. Podvodník může získat nahrávku hlasu vnoučete ze sociálních sítí a replikovat ji pomocí technologie AI.

RainStar / Getty Images
Poukázal na případ Ruth Cardová z Kanady, která byla podvedena z 3 000 CAD od podvodníka, který použil technologii klonování hlasu AI k uskutečnění hovoru, který vypadal, že přichází od jejího vnuka. Volající uvedl, že její vnuk je ve vězení a peníze potřebuje okamžitě na kauci.
„Všechno, co k tomu potřebuje, je software generující hlas AI a zvuk vnuka za pouhých 30 sekund,“ řekl Weisman.
Odhalení podvodu s klonováním hlasu
Před podvody s klonováním hlasu AI se můžete chránit tím, že si budete dávat pozor na nevyžádané hovory požadující osobní nebo finanční údaje. Podle FTC vás podvodníci často žádají, abyste zaplatili nebo poslali peníze způsoby, které znesnadňují získání peněz zpět. Pokud volající řekne, abyste převedli peníze, poslali kryptoměnu nebo koupili dárkové karty a dali jim čísla karet a PIN, mohly by to být známky podvodu.
Balasubramaniyan řekl, že je to červená vlajka, pokud jste vystaveni emocionální manipulaci a taktice vysokého tlaku. "Pokud se uživatel cítí nucen v těchto situacích pomoci, zavěsit a nezávisle zavolat zpět kontaktu pomocí známého telefonního čísla," dodal.
V budoucnu mohou existovat způsoby, jak odhalit podvody s umělou inteligencí. "Společnosti vytvářejí technologii pro detekci klonování hlasu," řekl Balasubramaniyan. "Tyto detekční technologie využívají znalosti o produkci lidského hlasu a evoluci k určení, kdy hlas je klon tím, že obnovuje fyzickou anatomii řeči, o kterou jde, a určuje v ní anomálie mluvený projev."