понеділок, 7 квітня 2025 р.

Штучний інтелект або людина: хто приймає кращі рішення?

Штучний інтелект уже став невід’ємною частиною нашого повсякденного життя — від рекомендацій фільмів до прийняття рішень у банківській сфері, HR та навіть медицині. Але чи можемо ми довіряти йому настільки, щоби дозволити ухвалювати критично важливі рішення замість людей? Два масштабні дослідження — від Pew Research Center та INFORMS — дають підстави замислитися: AI не тільки допомагає, але й може відтворювати наші ж помилки.

AI — це вже не просто інструмент, а потенційний суб’єкт прийняття рішень

Згідно з опитуванням Pew Research Center, більшість американців висловлюють стриманий оптимізм щодо штучного інтелекту. Хоча понад 50% експертів вважають, що до 2035 року AI матиме позитивний вплив на суспільство, лише 10% представників широкої публіки поділяють таку впевненість. Близько 38% американців сьогодні вважають, що вплив AI більше негативний, ніж позитивний, і лише 13% — навпаки.

Сумніви виникають не лише через страх заміни людської праці, а й через ризики помилок, які штучний інтелект може допустити. Люди хочуть прозорості, етичності та контролю використанням новітніх технологій — і це серйозний запит до урядів, бізнесу та розробників.

Дослідження INFORMS: ChatGPT мислить як людина — з усіма її вадами

Інше не менш цікаве дослідження від INFORMS під назвою «A Manager and an AI Walk into a Bar» виявило: найсучасніша версія ChatGPT (GPT-4) демонструє не лише блискучу логіку, а й ті самі когнітивні викривлення, які характерні для людей. Зокрема, модель підпадає під такі типові "пастки мислення", як:

  • Упевненість у власній правоті — навіть коли відповіді не зовсім точні.

  • Уникнення ризику — навіть якщо ризикований вибір був би вигіднішим.

  • Упередженість підтвердження — тобто схильність шукати докази на користь вже сформованих гіпотез.

  • Ефект "Лінди" — або помилка кон’юнкції, коли модель віддає перевагу більш деталізованим, але менш імовірним сценаріям.

Ба більше, у 9 із 18 тестів на когнітивні викривлення ChatGPT повністю імітував людське мислення. Водночас, штучний інтелект не піддавався деяким іншим поширеним помилкам, як-от ігнорування базових показників або ефект незавершених витрат (sunk cost fallacy).

Чому це важливо: штучний інтелект може автоматизувати помилки

Результати дослідження змушують переосмислити роль AI в бізнесі, медицині, державному управлінні та навіть у медіа. Якщо алгоритм діє подібно до людини у ситуаціях, де потрібне оціночне судження, а не логіка — значить, він може відтворювати й посилювати ті самі помилки, які ми прагнемо уникнути. Фактично, ми ризикуємо автоматизувати упереджене мислення, а не позбутися його.

Науковці наголошують: AI слід розглядати як співробітника, а не безпомилкову машину. Потрібна система контролю, етичних стандартів, регулярних аудитів рішень та ретельний вибір сценаріїв, у яких доцільно використовувати штучний інтелект. GPT краще за людей справляється з завданнями, де є чітка правильна відповідь — математичні задачі, логіка, систематизація даних. Але в емоційно насичених, неоднозначних ситуаціях — як-от прийом на роботу чи судове рішення — його використання може бути ризикованим.

Що далі?

Обидва дослідження — і Pew, і INFORMS — говорять про одну ключову ідею: майбутнє AI залежить не лише від технології, а й від того, як ми її впроваджуємо. Це стосується не лише бізнесу, а й освіти, культури, медіа та соціальної сфери.

Модель GPT-4 стала точнішою в обчисленнях, але водночас ще більше "олюднилася" в своїх судженнях. Це дає підстави для обережного оптимізму: ми можемо й надалі вдосконалювати системи, враховуючи їхні сильні та слабкі сторони — але без сліпої віри в їхню об’єктивність.

Авторка: Дар’я Бровченко


Джерело

Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.