Jak sztuczna inteligencja może wkrótce pomóc hakerom ukraść Twoje informacje

Kluczowe dania na wynos

  • Eksperci twierdzą, że cyberataki wspomagane przez sztuczną inteligencję mogą włamać się do Twoich danych.
  • Znany ekspert ds. cyberbezpieczeństwa Bruce Schneier powiedział na niedawnej konferencji, że jest coraz bardziej zaniepokojony penetracją systemów komputerowych przez sztuczną inteligencję.
  • W 2018 r. przeprowadzono jeden cyberatak oparty na sztucznej inteligencji przeciwko TaskRabbit, który skompromitował 3,75 miliona użytkowników.
Sztucznie inteligentny robot pracujący na ekranie dotykowym pełnym danych.

Andrij Onufrijenko / Getty Images

Hakerzy mogą wkrótce zagłębić się w Twój komputer za pomocą sztucznej inteligencji.

Słynny ekspert ds. cyberbezpieczeństwa Bruce Schneier powiedział niedawno na konferencji, że obawia się, że penetracja systemów komputerowych przez sztuczną inteligencję jest nieunikniona. Eksperci twierdzą, że ataki AI stanowią rosnące zagrożenie.

„Ponieważ sztuczna inteligencja staje się coraz bardziej pomocna z perspektywy hakerów, dane użytkowników i konsumentów mogą być znacznie bardziej zagrożone” — Andrew Douglas, ekspert ds. cyberbezpieczeństwa w firmie

Deloitte Doradztwo Ryzyka i Finanse, powiedział w e-mailowym wywiadzie. „Hakerzy zazwyczaj szukają najłatwiejszego celu przy najmniejszym wysiłku, a sztuczna inteligencja pozwoliłaby im na namierzenie większej liczby osób z lepszą obroną w krótszym czasie”.

Schneier jako ostatni zaalarmował niebezpieczeństwa sztucznej inteligencji. „Każdy dobry system AI w naturalny sposób znajdzie hacki” Schneier podobno powiedział na ostatniej konferencji. „Znajdują nowatorskie rozwiązania, ponieważ brakuje im ludzkiego kontekstu, a konsekwencją jest to, że niektóre z tych rozwiązań przełamią oczekiwania ludzi – stąd włamanie”.

Telefony AI w Twoim domu

Hakerzy już wykorzystują sztuczną inteligencję do włamywania się do komputerów. Jeden Cyberatak oparty na sztucznej inteligencji został uruchomiony przeciwko TaskRabbit w 2018 roku, narażając 3,75 miliona użytkowników, ale okazuje się, że nie można go namierzyć, Chris Hauk, rzecznik ochrony prywatności konsumentów w witrynie Prywatność pikseli, powiedział w e-mailowym wywiadzie.

„Atak został przeprowadzony przez hakerów wykorzystujących duży botnet kontrolowany przez sztuczną inteligencję, który wykorzystywał maszyny niewolnicze do przeprowadzenia zmasowanego ataku DDoS na serwery TaskRabbit” – dodał.

Algorytmy uczenia maszynowego zostały wykorzystane do pomyślnej penetracji systemów w firmie Defcon w 2016 r., zauważył Ray Walsh, ekspert ds. prywatności danych w ProPrivacy, w rozmowie e-mailowej. W tym czasie siedem drużyn rywalizowało o Wielkie Wyzwanie DARPA, aby wygrać nagrodę w wysokości 2 milionów dolarów. „Podczas wyzwania konkurenci wykorzystywali sztuczną inteligencję do znajdowania luk w zabezpieczeniach, tworzenia exploitów i wdrażania łat za pomocą zautomatyzowanych środków” – dodał.

Bruce Young, profesor cyberbezpieczeństwa w Uniwersytet Nauki i Technologii w Harrisburgu, powiedział w wywiadzie e-mail, że sztuczna inteligencja jest wykorzystywana do kontrolowania botnetów, grupy zhakowanych komputerów pod kontrolą złego aktora wykorzystywanej do atakowania innych komputerów.

„Sztuczna inteligencja może być wykorzystana do automatycznego zbierania informacji o danej osobie, na przykład informacji bankowych, medycznych, prawa jazdy, urodzin” – powiedział. „Mogą sformułować wyrafinowaną próbę wyłudzenia informacji i dostarczyć użytkownikowi wiadomość e-mail, która wydaje się być wiarygodna”.

Sztuczna inteligencja może zostać wykorzystana do hakowania poprzez odkrywanie luk w zabezpieczeniach i wykorzystywanie ich, Paul Bischoff, rzecznik prywatności w firmie strona internetowa Comparitech, powiedział w e-mailowym wywiadzie.

„Sztuczna inteligencja i uczenie maszynowe mogą wykryć wzorce, które ludzie mogliby przegapić. Te wzorce mogą ujawnić słabości... Sztuczna inteligencja może wtedy wykorzystać te luki…”

„Sztuczna inteligencja i uczenie maszynowe mogą wykryć wzorce, których ludzie nie zauważyliby” – dodał. „Te wzorce mogą ujawnić słabości cyberbezpieczeństwa lub bezpieczeństwa operacyjnego celu. Sztuczna inteligencja może wtedy wykorzystać te luki znacznie szybciej niż człowiek, ale także bardziej elastycznie niż tradycyjny bot”.

Sztuczna inteligencja może zmieniać i ulepszać swoje ataki bez udziału człowieka, powiedział Bischoff.

„Sztuczna inteligencja jest szczególnie dobrze przystosowana do ukrywania się i może ukrywać się w systemie, w którym zbiera dane lub przeprowadza ataki przez długi czas” – dodał.

Ochrona przed sztuczną inteligencją

Niestety, nie ma nic konkretnego, co użytkownicy mogą zrobić, aby chronić się przed włamaniami opartymi na sztucznej inteligencji, powiedział Bischoff.

„Po prostu postępuj zgodnie ze zwykłymi wytycznymi” – powiedział. „Zminimalizuj swój cyfrowy ślad, aktualizuj oprogramowanie, używaj antywirusa, używaj zapory, tylko pobieraj renomowane oprogramowanie z renomowanych źródeł, nie klikaj w linki ani załączniki w niechcianych wiadomości."

Ale przygotuj się na więcej ataków sterowanych przez sztuczną inteligencję.

Zbliżenie obrazu w skali szarości białego szachowego króla zdejmując czarnego szachowego króla.

Akcje GR / Unsplash

„AI jest wykorzystywana zarówno do cyberbezpieczeństwa, jak i cyberataków, a w przyszłości możemy zobaczyć, jak systemy AI będą się wzajemnie atakować” – powiedział Bischoff. „Na przykład sztuczna inteligencja może być wykorzystywana do identyfikowania nieludzkich zachowań i podejmowania działań przeciwko botom. I odwrotnie, boty mogą wykorzystywać sztuczną inteligencję do dokładniejszego naśladowania ludzkich zachowań i omijania systemów wykrywania botów”.

Grupy sponsorowane przez państwo będą prawdopodobnym źródłem ataków na sztuczną inteligencję w przyszłości, Kris Bondi, dyrektor generalny firma zajmująca się cyberbezpieczeństwem Mimoto, powiedział w e-mailowym wywiadzie.

„Ta kategoria już teraz prowadzi do wzrostu naruszeń, które są coraz bardziej wyrafinowane” – dodał Bondi. „Jeśli sztuczna inteligencja zostanie skutecznie wykorzystana do hakowania, prawdopodobnie będzie to oznaczać jeszcze więcej prób włamań, które są jeszcze bardziej wyrafinowane. Ma to konsekwencje dla osób fizycznych, infrastruktury, szpiegostwa korporacyjnego i bezpieczeństwa narodowego”.