Kodėl AI balso sukčiavimas reiškia, kad tikriausiai niekada neturėtumėte atsakyti į savo telefoną
- AI sukčiai, naudojant klonuotus pažįstamų žmonių balsus, yra dalykas.
- Aptikti AI balso klonavimo sukčiavimą darosi vis sunkiau.
- Apsaugoti save yra lygiai taip pat, kaip ir naudojant įprastus sukčiavimo skambučius.

Westend61 / Getty Images
Įsivaizduokite, kad jums skambina šeimos narys ar artimas draugas. Jie turi bėdų ir jiems reikia pinigų. Numeris patikrinamas. Tai jų balsas. Bet tai ne jie. Tai jus apgaudinėjantis dirbtinio intelekto imitatorius.
Pagal „McAfee“ ataskaita, šių dirbtinio intelekto balso sukčių daugėja dėl dirbtinio intelekto imitatorių. Ir nors jie vienokiu ar kitokiu pavidalu gyvavo amžinai, technologijos daro apgaulę ypač įtikinamą. Skambintojo ID klastojimas kartu su AI balso klonavimu tikriausiai įtikintų daugumą žmonių. Taigi kaip tai veikia? O kaip galima apsisaugoti?
„Tiesa, AI balso generavimas tobulėja itin sparčiai. ElevenLabs balso klonavimo technologija yra siaubingai geras, ypač turint omenyje nedidelį duomenų kiekį, reikalingą, kad jis veiktų. Aš matau situacijas, kai žmonės gali būti apgaudinėjami, ypač jei jie patiria sustiprėjusių emocijų būseną“, – AI konsultantas.
Balso klonavimas veda į AI balso aferas
Apsiginklavęs klonuotu balsu, sukčius gali paskambinti ir apsimesti žmogumi, kurį jau pažįstate. Pavyzdžiui, balandžio mėn istorija apie apgautą motiną su netikru jos dukters pagrobimu naudojant dirbtinio intelekto klonuotą balsą.
Atrodo visiškai neįtikėtina, kad toks dalykas yra netgi įmanomas, tačiau dėl mūsų netikėjimo šios aferos gali būti dar veiksmingesnės.
AI balso aferos gali būti pritaikytos kuriant labai suasmenintus taikinių profilius, naudojant duomenis iš viešųjų interneto šaltinių.
Taigi, kaip tai veikia? Norėdami klonuoti balsą, turite įrašyti originalų balsą. TikTok ir Instagram vaizdo įrašų dėka yra daug treniruočių duomenų. Be to, jūsų socialinio tinklo įrašai nutekina daug kitų duomenų apie jūsų santykius su žmonėmis, kad jie būtų naudojami įtikinamesniam sukčiavimui.
Šiuo metu pastangų lygis vis dar aukštas. Turite pasirinkti taikinį, rasti balso pavyzdį, jį klonuoti ir paskambinti, suklastodami skambintojo ID. Bet jei ką nors žinome, tai tikėtina, kad sukčiai taps vis sudėtingesni.
„AI balso aferos gali būti pritaikytos sukurti labai individualizuotus taikinių profilius, naudojant duomenis iš viešųjų interneto šaltinių. Socialinės inžinerijos įrankių rinkiniai buvo naudojami daugelį metų ir šiuolaikiniai kibernetiniai nusikaltėliai jais lengvai naudojasi informacijai apie tikslines aukas kaupti. Kitaip nei šiuolaikiniai kibernetiniai trūkumai, dirbtinis intelektas nė kiek nepavargsta ir nenuvilia, jau nekalbant apie tai, kad jis gali susintetinti beveik bet kokį balsą ir kalbą. Džeimsas Leonas, kibernetinio saugumo konsultantas adresu IBM, sakė Lifewire el. paštu.
Ir sukčiavimas nebūtinai turi būti netikras bandymas pagrobti. Tai taip pat gali būti AI pokalbių robotas, kuris jums paskambins ir apsimeta iš jūsų banko. Tai daugiau 419 sukčiavimo automatizavimo lygis – tų klasikinių el. pašto sukčiavimo atvejų, kai Nigerijos princas norėjo išvežti pinigus iš šalies. Jei jums nereikia žmonių, kurie skambintų, galite užtvindyti pasaulį balso skambučių šlamštu.
„Didžiausias pavojus yra tai, kaip lengva ir pigu padaryti tokio pobūdžio sukčiavimą. Anksčiau tokio tipo klastotėms reikėjo 10 valandų objekto garso (arba vaizdo), bet dabar, kadangi technologija taip sparčiai tobulėja, visiems tereikia tik 10 sekundžių garso. Rijulas Gupta, generalinis direktorius ir vienas iš įkūrėjų DeepMedia„Lifewire“ el. paštu papasakojo „deepfake“ kūrimo ir aptikimo įmonė.

Ar galite apsisaugoti nuo AI balso klonavimo sukčiavimo?
Nepaisant šių sukčiavimo aukštųjų technologijų pobūdžio, būdas apsisaugoti nuo telefoninių sukčių iš esmės nepasikeitė.
Pirma, neturėtumėte pasitikėti skambintojo ID. Tada visada turėtumėte padėti ragelį ir paskambinti jau turimu numeriu arba patys susirasti.
Tai pašalina beveik visas „įprastas“ aferas, bet taip pat turėtų būti veiksmingas prieš klonuotas balso aferas. Problema yra socialinės inžinerijos elementas. Jei skambintojo ID leidžia tikėtis išgirsti savo sutuoktinį, o balso klonas yra geras ir skamba kaip jūsų vyras, galite būti įsitikinę. Šiuo metu modeliai yra geri, bet ne tokie geri.
„Svarbu suprasti, kad šie modeliai dar negali realiai pakeisti tono. Mažas balso klipas, kuriam reikia tik tono, gali suklaidinti žmones, o ilgesnis – tikriausiai ne“, – sako Battas.
Tačiau atsižvelgiant į dabartinį dirbtinio intelekto kūrimo greitį, balso klonavimo aferos tik gerės, todėl verčiau būkime atsargūs ir galbūt nustokime priimti skambučius iš numerių, kurių neatpažįstate.