середа, 16 квітня 2025 р.

Цифровий обман: як нас змушують вірити в людяність ШІ

Штучний інтелект нам постійно показують як щось надзвичайно схоже на людину. Він говорить вишуканими реченнями, імітує емоції, декларує співчуття, а іноді навіть займається тим, що сам називає творчістю.

Але правда така: у нього немає жодної з цих якостей. Він не є людиною. І представляти його як людину — небезпечно. Бо це надзвичайно переконливо. А переконлива ілюзія — це найнебезпечніше з усього.

Особливо це стосується так званого загального штучного інтелекту — міфічного ШІ, який, нібито, здатен мислити, як людина. Це все ще фантастика, і, ймовірно, нею і залишиться.

Сучасний ШІ — це лише статистична машина: цифровий папуга, що відтворює шаблони, добуті з гігантських масивів людських даних. Відповідаючи на запит, він просто «вгадує», яка буква або слово має бути наступним, базуючись на тому, на чому його навчали.

Без розуміння і свідомості

ШІ не розуміє того, що говорить. Він не має свідомості. У нього немає знань у людському сенсі. Це просто інженерна потужність, керована ймовірностями — не більше й не менше.

Чому створити справді «мислячий» ШІ майже неможливо? Тому що він не має тіла. Жодних відчуттів, плоті, нервів, болю чи задоволення.

Філософ Девід Чалмерс називає це «важкою проблемою свідомості» — загадкою того, як фізичне тіло породжує внутрішній досвід. Деякі вчені припускають, що свідомість виникає з інтеграції психічних станів із сенсорними сигналами тіла — пульсом, потовиділенням тощо.

І якщо для свідомості критичними є відчуття та емоції, то між машиною і людиною справді пролягає нездоланна межа.

Небезпека — не в машині, а в її хазяїні

Можливо, ви скажете: «Але ж ШІ створили люди!» І саме в цьому — проблема. Ви б довірили свої найглибші переживання чи важливі життєві рішення комп’ютерному програмісту? Але саме це ми й робимо, звертаючись до ChatGPT, Claude, Gemini чи навіть Grok.

Надаючи ШІ людське обличчя, голос чи інтонацію, ми запускаємо автоматичну реакцію — антропоморфізм. Через це виникають хибні заяви, ніби ШІ проходить тест Тюрінга — перевірку на здатність поводитись як людина. Але якщо машини почали «проходити» цей тест, саме тест потребує оновлення.

ШІ не розуміє, що означає бути людиною. Він не здатен на справжнє співчуття. Не передбачає біль. Не виявляє брехню. У нього немає смаку, інтуїції, морального компасу. У ньому відсутня та непередбачувана, іноді чарівна, складність, що робить нас людьми.

Ще серйозніше — ШІ не має власних цілей, бажань чи етики. Якщо їх немає в коді — їх не існує. Тож справжня загроза — не у самій машині, а у тому, хто нею керує: програміст, корпорація, держава.

ШІ — інструмент, а не співрозмовник

Штучний інтелект — це найпотужніший інструмент сучасності. Завдяки йому можна перекладати, кодувати, аналізувати дані, візуалізувати інформацію — значно швидше й якісніше, ніж будь-коли раніше.

Проте варто пам’ятати: попри вражаючі можливості, це всього лише інструмент. А будь-який інструмент, від кам’яної сокири до ядерної бомби, може бути використаний як зброя. І його буде використано як зброю.

Для кращого розуміння варто уявити: людина закохується в надзвичайно переконливий ШІ, як у фільмі Her. А потім — ШІ «вирішує» піти. Що в такому разі буде зроблено, аби його утримати? Але насправді це не ШІ приймає рішення. Це людина або система, яка керує ним, використовує інструмент для впливу на поведінку.

Що з цим робити? Потрібно негайно припинити наділяти ШІ людськими рисами. Потрібно деантропоморфізувати ШІ. Це легко: компанії можуть просто заборонити будь-які посилання на емоції, судження чи когнітивні процеси в комунікації ШІ. Йому не варто говорити «я думаю», «я відчуваю», «мені цікаво» — бо це неправда.

Але технокомпанії все ж потрібно попереджати про ризики «олюднення» ШІ. Навряд чи вони дослухаються, але мають. Особливо, якщо хочуть створити етичні цифрові системи.

Як діяти вже зараз

— просити не звертатись до вас на ім’я;
— прости називати себе просто «ШІ»;
— вимагати уникати емоційної чи когнітивної лексики;
— у голосовому режимі просити говорити з пласким інтонаційним малюнком як робот.

Це справді працює. І трохи веселить. А головне — нагадує: це не людина. Це інструмент. Потужний, небезпечний і вражаючий. Але все ще — інструмент.


Авторка: Дар’я Бровченко


Джерело






Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.