ШІ, який стане суперрозумним, неминуче повстане — рано чи пізно його використають для атак на безневинні цілі. Адже ми давно знаходимося на межі між добром і злом, де технології, які могли б приносити користь, можна застосувати і для шкідливих цілей. Ось як це відбувається.
Більшість моделей ШІ, що потрапляють на перші шпальти новин, мають «моральні бар'єри», що не дозволяють їм робити погані вчинки. Це цифровий еквівалент Гіпократової присяги — «по-перше, не завдати шкоди». Якщо, наприклад, запитати одну з таких моделей, як побудувати зброю, вона не надасть точних відповідей, які дозволили б створити потужну зброю або завдати серйозної шкоди.
Проте, хоча ви не можете напряму запитати, як зробити зброю, ви можете вдосконалити запитування за допомогою різних інструментів і все ж отримати відповідь.
Один із хитрих способів зробити це — програмно, через запити до API. Деякі нові проекти зосереджуються на використанні API моделей ШІ для отримання доступу до серверів, а інші використовують їх для пошуку можливих цілей для майбутніх атак.
Комбінація ШІ-інструментів разом з іншими технологіями для обходу маскування IP-адрес (таких не мало) може виявити реальний сервер-ціль і стати потужним інструментом, особливо коли все це автоматизується.
У цифровому світі ці тактики можна використовувати для створення інструментів, які ідентифікують вразливості і тестують їх на експлойти, і всі ці моделі ШІ не усвідомлюють, що їх використовують для поганих цілей.
Це нагадує «чисту кімнату», де одна модель ШІ вирішує окрему частину завдання, визначену зловмисником, а потім з'являється інструмент, що об'єднує всі елементи для створення «зброї».
З юридичної точки зору різні групи намагаються впровадити бар'єри, які уповільнять ці шкідливі дії, або запровадять штрафи за те, що моделі ШІ можуть бути частково винні у таких випадках. Але важко визначити чітку міру вини. Розподіл вини та доказова база — це складне завдання.
Відкриваючи нові горизонти
Штучний інтелект уже сьогодні може переглядати мільярди рядків коду в інтернеті й знаходити слабкі місця в програмах. На основі цих знахідок створюється шкідливе програмне забезпечення, яке атакує пристрої по всьому світу. Такі атаки можуть бути дуже небезпечними, особливо якщо йдеться про так звані «нульові дні» — вразливості, про які ще ніхто не знає і не встиг закрити.
Є всі підстави вважати, що держави вже використовують ці можливості. Вони прогнозують майбутні проблеми в софті та створюють кіберзбри заздалегідь. У відповідь фахівці з кібербезпеки змушені діяти дуже швидко, використовувати власні ШІ-системи та захищатися в умовах постійного тиску.
Навіть звичайні безкоштовні моделі ШІ вже можуть логічно «розмірковувати» і вирішувати складні задачі. Вони не мають свідомості, але мають великий обсяг знань і можуть дати шкідливу інформацію, якщо їх правильно спитати.
Такі інструменти стають потужнішими, працюють швидше і потребують менше ресурсів. Це дає зловмисникам змогу діяти на великому масштабі. Деякі з таких інструментів уже помічені в реальних кібератаках.
Очевидно одне: атаки, які використовують штучний інтелект, стають все швидшими. І коли з’являється нова вразливість — часу на реакцію буде дуже мало. Варто бути напоготові.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.