Як ШІ незабаром допоможе хакерам викрасти вашу інформацію

click fraud protection

Ключові речі на винос

  • Експерти кажуть, що кібератаки за допомогою штучного інтелекту можуть зламати ваші дані.
  • Відомий експерт з кібербезпеки Брюс Шнайер на нещодавній конференції сказав, що він все більше стурбований проникненням штучного інтелекту в комп’ютерні системи.
  • У 2018 році проти TaskRabbit була запущена одна кібератака, керована штучним інтелектом, яка скомпрометувала 3,75 мільйона користувачів.
Робот зі штучним інтелектом, що працює на сенсорному екрані, повному даних.

Андрій Онуфрієнко / Getty Images

Незабаром хакери можуть проникнути у ваш комп’ютер за допомогою штучного інтелекту.

Відомий експерт з кібербезпеки Брюс Шнайер Нещодавно на конференції заявив, що він стурбований тим, що проникнення AI в комп’ютерні системи неминуче. Експерти стверджують, що атаки AI є зростаючою загрозою.

«Оскільки ШІ стає все більш корисним з точки зору злому, дані користувачів і споживачів можуть бути значно піддані ризику», — Ендрю Дуглас, експерт з кібербезпеки в Deloitte Risk & Financial Advisory, сказав в інтерв'ю електронною поштою. «Хакери зазвичай шукають найпростішу мету з найменшими зусиллями, а ШІ дозволить їм націлити на більшу кількість людей із кращим захистом за менший час».

Шнайєр був останнім, хто попередив про небезпеку ШІ. «Будь-яка хороша система штучного інтелекту, природно, знайде хаки», Як повідомляється, сказав Шнайєр на нещодавній конференції. «Вони знаходять нові рішення, тому що їм бракує людського контексту, а наслідком є ​​те, що деякі з цих рішень порушують очікування людей, отже, хак».

Телефони зі штучним інтелектом у вашому домі

Хакери вже використовують штучний інтелект, щоб проникнути в комп’ютери. один Кібератака, керована штучним інтелектом, була запущена проти TaskRabbit у 2018 році, компрометуючи 3,75 мільйона користувачів, але виявилося, що його неможливо відстежити, Кріс Хаук, прихильник конфіденційності споживачів на веб-сайті Конфіденційність пікселів, сказав в інтерв'ю електронною поштою.

«Атаку запустили хакери, використовуючи великий ботнет, контрольований ШІ, який використовував підпорядковані машини для здійснення масової DDoS-атаки на сервери TaskRabbit», — додав він.

Алгоритми машинного навчання були використані для успішного проникнення в системи в Defcon ще в 2016 році, зазначив Рей Уолш, експерт із конфіденційності даних у ProPrivacy, в інтерв’ю електронною поштою. У той час сім команд змагалися за Grand Challenge DARPA, щоб виграти приз у 2 мільйони доларів. «Під час випробування конкуренти використовували ШІ для пошуку вразливостей, створення експлойтів та розгортання виправлень за допомогою автоматизованих засобів», — додав він.

Брюс Янг, професор кібербезпеки в Гаррісбургський університет науки і техніки, сказав в інтерв'ю електронною поштою, що AI використовується для контролю бот-мереж, групи скомпрометованих комп'ютерів під контролем поганого актора, який використовується для атаки на інші комп'ютери.

"ШІ можна використовувати для автоматичного збору інформації про людину, наприклад, банківську, медичну, водійські права, дні народження", - сказав він. «Вони можуть сформулювати витончену спробу фішингу та доставити користувачеві електронний лист, який здається легітимним».

ШІ можна використовувати для злому, виявляючи вразливості та експлуатуючи їх, Пол Бішофф, прихильник конфіденційності в веб-сайт Comparitech, сказав в інтерв'ю електронною поштою.

«ШІ та машинне навчання можуть помітити закономірності, які люди б упустити. Ці моделі можуть виявити слабкі сторони... Потім ШІ може використовувати ці вразливості..."

«ШІ та машинне навчання можуть помітити закономірності, які люди б упустити», — додав він. «Ці закономірності можуть виявити слабкі місця в кібербезпеці або оперативній безпеці цілі. Тоді ШІ може використовувати ці вразливості набагато швидше, ніж людина, але й гнучкіше, ніж традиційний бот».

ШІ може змінювати та покращувати свої атаки без участі людини, сказав Бішофф.

«AI особливо добре підходить для приховування і може ховатися в системі, де він збирає дані або запускає атаки протягом тривалого періоду часу», — додав він.

Захист від ШІ

На жаль, користувачі нічого конкретного не можуть зробити, щоб захистити себе від злому на основі штучного інтелекту, сказав Бішофф.

«Просто дотримуйтесь звичайних рекомендацій», — сказав він. «Зведіть до мінімуму свій цифровий слід, оновіть програмне забезпечення, використовуйте антивірус, використовуйте брандмауер, лише завантажуйте надійне програмне забезпечення з надійних джерел, не натискайте посилання або вкладення в непотрібних повідомлення».

Але приготуйтеся до нових атак під керуванням штучного інтелекту.

Крупним планом зображення у відтінках сірого білого шахового короля, що знищує чорного шахового короля.

GR Акції / Unsplash

«AI використовується як для кібербезпеки, так і для кібератак, і в майбутньому ми можемо побачити, що системи штучного інтелекту атакують одна одну», – сказав Бішофф. «Наприклад, ШІ можна використовувати для виявлення нелюдської поведінки та вжиття заходів проти ботів. І навпаки, ШІ можуть використовувати боти, щоб точніше імітувати поведінку людини та обійти системи виявлення ботів».

У майбутньому спонсоровані державою групи будуть імовірним джерелом злому штучного інтелекту, Кріс Бонді, генеральний директор фірма з кібербезпеки Mimoto, сказав в інтерв'ю електронною поштою.

«Ця категорія вже сприяє збільшенню кількості порушень, які стають дедалі складнішими», — додав Бонді. «Якщо AI ефективно використовуватиметься для злому, це, ймовірно, означатиме ще більше спроб злому, які будуть ще більш складними. Це має наслідки для окремих осіб, інфраструктури, корпоративного шпигунства та національної безпеки».