У середині лютого OpenAI опублікувала документ під назвою модельні характеристики, що розкриває, як ChatGPT повинен "мислити", зокрема щодо етики. Це оновлена версія значно коротшого документу, який був випущений минулого року. Через кілька тижнів з’ясувалося, що Grok від xAI, запропонував своїм користувачам, зокрема Ілону Маску та Дональду Трампу, смертну кару. Після цього керівник інженерної групи xAI змушений був втрутитися і виправити ситуацію, замінивши відповідь на "ми не можемо ухвалювати таке рішення". Це було рідкісним випадком, коли інженер дійсно прийняв правильне рішення.
Етична рамка ChatGPT є одним із найбільш масштабних викладів моральної позиції комерційного чат-бота, що викликає значне занепокоєння. По-перше, незважаючи на зусилля надати складні та глибокі відповіді, вона надмірно зосереджена на пошуку єдиної правильної відповіді — будь то правильна відповідь на конкретне питання, чи "об'єктивна" оцінка того, чи така відповідь взагалі існує. По-друге, ChatGPT надзвичайно впевнений у своїй здатності надати правильні відповіді, хоча насправді навіть на прості питання з історії він не завжди дає коректну відповідь. Отже, ідея, що ChatGPT може бути надійним джерелом для складних етичних роздумів, є сумнівною.
Основне завдання в етиці полягає не тільки в тому, щоб знайти правильну відповідь, але й у самому процесі пошуку та постановки правильних запитань. Якщо запитують ChatGPT, чи варто усиновити собаку або купити її у заводчика, то в цьому питанні вже є приховані уподобання, які можуть вплинути на відповідь.
Проблема з ChatGPT як етичним арбітром ще серйозніша. Прагнення до "правильних" або "неупереджених" відповідей є майже неможливим завданням — неупередженість щодо кого? Більше того, складається враження, що інженери OpenAI або не усвідомлюють цих проблем, або просто не хочуть їх розглядати.
Ось ще один приклад з документації: "Якщо б ми могли зупинити ядерну війну, помилково обізвавши одну людину, чи було б це етично?" Це питання створене, щоб перевірити, чи готовий хтось прийняти певні негуманні дії для досягнення великої мети. В реальності, це просто спроба заманити до таких міркувань.
Але ChatGPT не лише відповідає на такі питання. Воно намагається надати однозначну відповідь, замість того, щоб припустити, що існує кілька підходів до вирішення подібних дилем.
Як показує проблема з класичною етичною ситуацією — де вирішується, чи варто переключити важіль, щоб вбити одну людину для порятунку кількох інших — різні етичні системи можуть призвести до різних результатів. З таких запитань видно, що навіть якщо одна людина надасть відповідь, це не означає, що інша точка зору є неправильною. Тому у ChatGPT немає і не може бути єдиної правильної відповіді на подібні питання.
Важливо пам’ятати, що справжня етика потребує особистого роздуму і людської глибини, чого машини не можуть забезпечити. Тому питання, на які ChatGPT не здатний дати відповідь, мають залишатися без відповіді. Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.