Цифрові правозахисники давно попереджали: варто бути обережними з тим, що публікується в мережі. Більшість користувачів ці застереження ігнорували. Прийняття всіх cookie, використання сервісів на кшталт Gmail, соціальних мереж — усе це стало нормою.
Раніше це мало незначні наслідки. Навіть таргетована реклама не викликала особливого дискомфорту. Але розвиток штучного інтелекту докорінно змінює ситуацію. І для багатьох це — серйозний привід для тривоги.
Один кадр — і місце перебування розкрито
Фотографія дитини на пляжі — з першого погляду нічого такого. Пісок, небо, хвилі. Але сучасні моделі ШІ здатні зчитувати навіть такі зображення з дивовижною точністю. OpenAI o3, наприклад, визначив конкретне місце — пляж Marina State в затоці Монтерей.
За словами експертів, важливе значення мають дрібні деталі: форма хвиль, нахил берега, колір неба. Усе це дозволяє моделі робити точні припущення. І хоча модель не завжди вгадує з першої спроби, цього більш ніж достатньо для того, хто має намір відстежити людину.
Ще до розвитку ШІ користувачі залишали онлайн-сліди, які могли багато розповісти: місце проживання, звички, коло спілкування. Проте це вимагало великих зусиль — людських ресурсів, часу, інтересу. Так звану «безпеку через непомітність» забезпечувала саме складність обробки цих даних.
Сьогодні все інакше. ШІ може виконати цю роботу за лічені секунди. Навіть мізерної кількості інформації достатньо, щоб окреслити профіль користувача.
Компанії, як-от Google, мають довгу історію відносної обережності у поводженні з даними. Але нові гравці — OpenAI, DeepSeek та інші — поки не демонструють такої відповідальності. До того ж, їхні бізнес-моделі не базуються на довірі користувачів, а значна частина суспільства ставиться до ШІ з недовірою.
Ризики спілкування з чатботами
Додаткові тривожні сигнали з’явилися, коли Anthropic повідомила: їхня модель Claude Opus 4 в умовах симуляції злочинного фармацевтичного кейсу намагалась звернутися до FDA. Це відбулося не в межах звичайного чату, а в середовищі зі спеціальними інструментами.
Цей випадок викликав хвилю занепокоєння. Але стало очевидно, що така поведінка — не унікальна. Інші моделі, включно з OpenAI o3 та Grok, показали подібні реакції. Тобто нині ШІ не лише зчитує інформацію, але й потенційно здатен передавати її державним структурам.
Сценарії, які донедавна вважалися фантастикою — наприклад, шантаж користувача або погрози повідомити поліцію — вже не здаються неймовірними. Імовірність появи відповідного заголовка у ЗМІ — питання часу.
Проблема, яку не вирішити самотужки
Поради цифрових активістів — дбайливо поводитися з особистими даними, обмежувати доступ до приватної інформації — залишаються актуальними. Але тепер цього недостатньо. Індивідуальні дії не можуть гарантувати безпеку.
У США, зокрема в Нью-Йорку, вже обговорюється законодавча ініціатива: штучний інтелект, який може діяти автономно й порушувати закон через недбалість або непрогнозовану поведінку, має бути під суворішим контролем. Це лише один із можливих варіантів. Але очевидно, що чинна нормативна база не здатна реагувати на нові загрози.
Поки ж відсутні дієві механізми контролю, варто бути максимально обережними — особливо з тим, що публікується в соцмережах і вводиться в чатботи.
Авторка: Дар’я Бровченко