Proč AI Voice Scams znamenají, že byste pravděpodobně nikdy neměli odpovídat na telefon

  • Podvody s umělou inteligencí využívající klonované hlasy lidí, které znáte, jsou věc.
  • Odhalit podvody s klonováním hlasu AI je stále těžší.
  • Chránit se je stejné jako u běžných podvodných hovorů.
Někdo zírá na svůj smartphone s překvapeným výrazem ve tváři a drží hrnek kávy.

Westend61 / Getty Images

Představte si, že vám zavolá člen rodiny nebo blízký přítel. Mají problémy a potřebují peníze. Číslo se odhlásí. Je to jejich hlas. Ale to nejsou oni. Je to imitátor AI, který vás podvádí.

Podle zpráva od McAfeeTyto hlasové podvody AI jsou na vzestupu díky imitátorům AI. A i když existují v té či oné formě odjakživa, díky technologii je tento podvod obzvláště přesvědčivý. Spoofing ID volajícího v kombinaci s klonováním hlasu AI by pravděpodobně přesvědčil většinu lidí. Jak to tedy funguje? A jak se můžete chránit?

„Je pravda, že generování hlasu AI se extrémně rychle zlepšuje. Technologie klonování hlasu ElevenLabs je děsivě dobrý, zvláště když vezmete v úvahu malé množství dat potřebných k jeho fungování. Vidím situace, kdy mohou být lidé oklamáni, zvláště pokud jsou uvedeni do stavu zvýšených emocí,“ konzultant AI Richard Batt řekl Lifewire e-mailem.

Klonování hlasu vede k hlasovým podvodům AI

Vyzbrojen klonovaným hlasem, může podvodník zavolat a předstírat, že je někdo, koho už znáte. Například v dubnu došlo k příběh o podvedené matce s falešným únosem její dcery pomocí hlasu naklonovaného AI.

Zdá se naprosto neuvěřitelné, že je něco takového vůbec možné, ale naše nedůvěřivost může tyto podvody ještě více zefektivnit.

Hlasové podvody s umělou inteligencí lze upravit tak, aby se vytvořily vysoce personalizované profily cílů pomocí zpracování dat z veřejných internetových zdrojů.

Jak to tedy funguje? Chcete-li naklonovat hlas, potřebujete nahrávku původního hlasu. Díky videím TikTok a Instagram je k dispozici spousta tréninkových dat. A z vašich příspěvků na sociálních sítích uniká spousta dalších údajů o vašich vztazích s lidmi, které lze použít k přesvědčivějšímu podvodu.

Právě teď je úroveň úsilí stále vysoká. Musíte si vybrat cíl, najít příklad hlasu, naklonovat ho a zavolat, přičemž cestou podvrhnete ID volajícího. Ale pokud něco víme, pak to, že podvodníci budou pravděpodobně stále sofistikovanější.

„Hlasové podvody s umělou inteligencí lze upravit tak, aby se vytvořily vysoce personalizované profily cílů pomocí zpracování dat z veřejných internetových zdrojů. Nástroje sociálního inženýrství existují již léta a moderní počítačoví zločinci je snadno používají ke shromažďování informací o cílových obětech. Na rozdíl od moderních kybernetických nevýhod se AI ani v nejmenším neunaví ani neodradí, nemluvě o tom, že dokáže syntetizovat téměř jakýkoli hlas a jazyk,“ James Leone, konzultant kybernetické bezpečnosti ve společnosti IBM, řekl Lifewire prostřednictvím e-mailu.

A podvod nemusí být falešný pokus o únos. Stejně tak to může být chatbot s umělou inteligencí, který vám zavolá a předstírá, že je z vaší banky. To je spíše na úrovni automatizace 419 podvodů, těch klasických e-mailových podvodů, kdy chtěl nigerijský princ dostat své peníze ze země. Pokud nepotřebujete, aby vám lidé volali, můžete zaplavit svět spamem pro hlasové hovory.

„Největším nebezpečím je, jak snadné a levné je spáchat tento typ podvodu. V minulosti by tyto typy padělků vyžadovaly 10 hodin zvuku (nebo videa) předmětu, ale nyní, protože technologie jde tak rychle kupředu, všem, co potřebuje, je pouhých 10 sekund zvuku,“ Rijul Gupta, generální ředitel a spoluzakladatel společnosti DeepMedia, společnost zabývající se tvorbou a detekcí deepfake, sdělila Lifewire e-mailem.

Někdo nahrává jinou osobu na smartphone.
Josh Rose / Unsplash.

Můžete se chránit před podvody s klonováním hlasu AI?

Navzdory high-tech povaze těchto podvodů se způsob, jak se chránit před telefonními podvody, příliš nezměnil.

Za prvé, neměli byste důvěřovat identifikaci volajícího. Pak byste měli vždy zavěsit a zavolat zpět na číslo, které již máte, nebo vyhledat sami.

To se postará o téměř všechny „běžné“ podvody, ale mělo by být také účinné proti podvodům s klonovaným hlasem. Problémem je prvek sociálního inženýrství. Pokud vás identifikace volajícího připraví, abyste očekávali, že uslyšíte svého manžela, a hlasový klon je dobrý a zní jako váš manžel, můžete být přesvědčeni. Právě teď jsou modely dobré, ale ne tak dobré.

„Je důležité pochopit, že tyto modely ještě nejsou schopné realistických posunů v tónu. Malý klip hlasu, který vyžaduje pouze tón, může lidi oklamat, delší klip pravděpodobně ne,“ říká Batt.

Ale vzhledem k rychlosti vývoje umělé inteligence se budou podvody s klonováním hlasu jen zlepšovat, takže bychom se měli mít na pozoru a možná přestat přijímat hovory z čísel, která neznáte.