Штучний інтелект уже став невід’ємною частиною нашого повсякденного життя — від рекомендацій фільмів до прийняття рішень у банківській сфері, HR та навіть медицині. Але чи можемо ми довіряти йому настільки, щоби дозволити ухвалювати критично важливі рішення замість людей? Два масштабні дослідження — від Pew Research Center та INFORMS — дають підстави замислитися: AI не тільки допомагає, але й може відтворювати наші ж помилки.
AI — це вже не просто інструмент, а потенційний суб’єкт прийняття рішень
Згідно з опитуванням Pew Research Center, більшість американців висловлюють стриманий оптимізм щодо штучного інтелекту. Хоча понад 50% експертів вважають, що до 2035 року AI матиме позитивний вплив на суспільство, лише 10% представників широкої публіки поділяють таку впевненість. Близько 38% американців сьогодні вважають, що вплив AI більше негативний, ніж позитивний, і лише 13% — навпаки.
Сумніви виникають не лише через страх заміни людської праці, а й через ризики помилок, які штучний інтелект може допустити. Люди хочуть прозорості, етичності та контролю використанням новітніх технологій — і це серйозний запит до урядів, бізнесу та розробників.
Дослідження INFORMS: ChatGPT мислить як людина — з усіма її вадами
Інше не менш цікаве дослідження від INFORMS під назвою «A Manager and an AI Walk into a Bar» виявило: найсучасніша версія ChatGPT (GPT-4) демонструє не лише блискучу логіку, а й ті самі когнітивні викривлення, які характерні для людей. Зокрема, модель підпадає під такі типові "пастки мислення", як:
Упевненість у власній правоті — навіть коли відповіді не зовсім точні.
Уникнення ризику — навіть якщо ризикований вибір був би вигіднішим.
Упередженість підтвердження — тобто схильність шукати докази на користь вже сформованих гіпотез.
Ефект "Лінди" — або помилка кон’юнкції, коли модель віддає перевагу більш деталізованим, але менш імовірним сценаріям.
Ба більше, у 9 із 18 тестів на когнітивні викривлення ChatGPT повністю імітував людське мислення. Водночас, штучний інтелект не піддавався деяким іншим поширеним помилкам, як-от ігнорування базових показників або ефект незавершених витрат (sunk cost fallacy).
Чому це важливо: штучний інтелект може автоматизувати помилки
Результати дослідження змушують переосмислити роль AI в бізнесі, медицині, державному управлінні та навіть у медіа. Якщо алгоритм діє подібно до людини у ситуаціях, де потрібне оціночне судження, а не логіка — значить, він може відтворювати й посилювати ті самі помилки, які ми прагнемо уникнути. Фактично, ми ризикуємо автоматизувати упереджене мислення, а не позбутися його.
Науковці наголошують: AI слід розглядати як співробітника, а не безпомилкову машину. Потрібна система контролю, етичних стандартів, регулярних аудитів рішень та ретельний вибір сценаріїв, у яких доцільно використовувати штучний інтелект. GPT краще за людей справляється з завданнями, де є чітка правильна відповідь — математичні задачі, логіка, систематизація даних. Але в емоційно насичених, неоднозначних ситуаціях — як-от прийом на роботу чи судове рішення — його використання може бути ризикованим.
Що далі?
Обидва дослідження — і Pew, і INFORMS — говорять про одну ключову ідею: майбутнє AI залежить не лише від технології, а й від того, як ми її впроваджуємо. Це стосується не лише бізнесу, а й освіти, культури, медіа та соціальної сфери.
Модель GPT-4 стала точнішою в обчисленнях, але водночас ще більше "олюднилася" в своїх судженнях. Це дає підстави для обережного оптимізму: ми можемо й надалі вдосконалювати системи, враховуючи їхні сильні та слабкі сторони — але без сліпої віри в їхню об’єктивність.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.