З кожним роком технології штучного інтелекту (ШІ) стають все більш поширеними. Одним із яскравих прикладів є пошукові запити в Google, що показують відповіді ШІ. Безпека при використанні ШІ стає важливою як ніколи, особливо в еру технологічної всеохопності. Тож, як користувачам забезпечити безпечне використання генеративного ШІ (Gen AI)?
Професори асистенти Школи комп’ютерних наук Університету Карнегі-Меллона Маартен Сап та Шеррі Тонгшуан У під час свого виступу на SXSW розповіли про недоліки великих мовних моделей (LLM), на яких базуються популярні інструменти генеративного ШІ, як-от ChatGPT, а також про способи ефективного використання цих технологій.
«Вони чудові, і вони всюди, але насправді вони далеко не ідеальні», — зазначив Сап.
Ось п’ять простих змін, які ви можете внести у ваші щоденні взаємодії з ШІ, щоб уникнути його недоліків та отримати точніші відповіді від чат-ботів.
1. Давайте чіткіші інструкції ШІ
Завдяки можливості вести розмову, люди часто використовують занадто короткі та недостатньо детальні запити, подібно до спілкування з другом. Проблема полягає в тому, що ШІ може неправильно інтерпретувати ваші запити, адже йому не вистачає людських навичок для того, щоб «прочитати між рядків».
Для ілюстрації цього питання, на своєму семінарі Сап і У розповіли чат-боту, що вони читають мільйон книг, і чат-бот сприйняв це буквально, замість того, щоб зрозуміти, що людина просто перебільшувала. Сап поділився, що за його дослідженнями сучасні LLM на понад 50% випадків неправильно трактують нелітеральні посилання.
Найкращий спосіб уникнути цієї проблеми — чітко формулювати свої запити, надаючи максимально конкретні вимоги. Це займе більше часу, але результат буде точнішим і відповідатиме вашим потребам.
Сап зазначив, що галюцинації трапляються в межах 1–25% часу для загальних випадків, а для специфічних сфер, таких як право та медицина, їх рівень може перевищувати 50%. Вони важко виявляються, оскільки виглядають переконливо, навіть якщо є абсурдними.
Щоб захиститися від галюцинацій, найкраще — перевіряти відповіді. Це можна зробити, порівнюючи виведені дані з надійними джерелами, такими як Google чи новинні агентства, або перепитуючи модель іншими словами, щоб перевірити, чи дасть вона однакову відповідь.
Щоб підтримувати належну гігієну при роботі з ШІ, рекомендується не ділитися чутливою або особистою інформацією з LLM. У разі необхідності, ви можете редагувати ці дані, щоб отримати допомогу без ризику. Багато інструментів ШІ, зокрема ChatGPT, дозволяють відмовитися від збору даних.
4. Будьте обережні в оцінці можливостей LLM
Завдяки здатності ШІ спілкуватися природною мовою, деякі люди переоцінюють можливості цих систем. Антропоморфізація — це приписування людиноподібних рис машинам, що може призвести до надмірної довіри до ШІ.
Найкраще уникати приписування людських характеристик ШІ. Замість того, щоб говорити: «Модель вважає, що ви хочете збалансовану відповідь», краще сказати: «Модель створена для генерації збалансованих відповідей на основі її навчальних даних».
Тому найкращий підхід — бути обережним і продуманим, вирішуючи, чи є LLM найкращим інструментом для вашої проблеми. Важливо також оцінити, в яких сферах моделі досягають найкращих результатів, і використовувати найвідповіднішу модель для ваших завдань.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.