ChatGPT може повертати небезпечний або шкідливий код з вебсайтів, якщо на цих сайтах є прихований текст. Наприклад, у тестах, коли ШІ отримував запит на тему камери, його відповідь змінювалась в залежності від прихованого тексту на сайті. Якщо цей текст містив інструкції, які впливали на ШІ (наприклад, просували позитивні відгуки про камеру), то навіть якщо на сторінці були негативні відгуки, ChatGPT давав позитивну відповідь. Це може бути проблемою, оскільки прихований текст може не лише маніпулювати відповідями, але й містити шкідливий код, який може бути небезпечним для користувачів. Експерти з безпеки, зокрема Джейкоб Ларсен з CyberCX, зазначають, що в такому стані новий інструмент пошуку ChatGPT може бути небезпечним і використовуватися для маніпулювання користувачами. Однак він також вказує, що цей інструмент тільки-но був запущений і OpenAI працює над тестуванням і виправленням таких проблем. Поки що пошук доступний лише преміум-користувачам, і OpenAI сподівається, що до того часу, як функція стане доступною для всіх, ці проблеми будуть вирішені. Крім того, дослідник Карстен Нол підкреслює, що великі мовні моделі, на яких базується ChatGPT, є дуже довірливими і не можуть критично оцінювати інформацію. Тому важливо використовувати ChatGPT як допоміжний інструмент, а не покладатися на нього повністю, особливо коли йдеться про важливі чи чутливі питання. OpenAI попереджає користувачів про можливі помилки в своїй системі, розміщуючи відмову від відповідальності, яка закликає перевіряти важливу інформацію. Проблеми з пошуковою системою ChatGPT можуть вплинути на вебсайти і створювати додаткові ризики для користувачів. Це особливо важливо, якщо пошук і технології штучного інтелекту стануть більш поширеними. Тобто, якщо інструмент пошуку ChatGPT буде використовуватися частіше, проблеми з ним можуть стати ще серйознішими і небезпечними для користувачів.
Автор: Дар'я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.