AI-агенти перетворилися від простих алгоритмів до складних систем, які аналізують людські особистості в реальному часі для оптимізації переконання. Ці розмовні агенти незабаром зможуть взаємодіяти з нами щодня, адаптуючи свої відповіді залежно від наших рис, емоцій і поведінки.
У статті дослідник штучного інтелекту Луї Розенберг стверджує, що коли розмовні AI-агенти стануть більш інтерактивними та персоналізованими, вони зможуть перевершити людських інфлюенсерів у здатності впливати на наші рішення без нашого усвідомлення цього.
Розенберг згадує, як у дитинстві його життєвими AI-агентами були чотири кольорові привиди з популярної гри Pac-Man. Хоча ці агенти мали обмежену інтелектуальність, вони використовували прості алгоритми для того, щоб переслідувати гравця. В кожного з них була своя "особистість", що дозволяло досвідченим гравцям передбачати їхні дії. Однак, на відміну від цих старих AI-систем, сьогоднішні агенти мають набагато більші можливості для маніпуляцій, завдяки вдосконаленим технологіям.
Вже незабаром AI-агенти будуть здатні аналізувати нашу особистість, щоб ефективніше впливати на нас, а їхня здатність до маніпуляції може стати справжньою загрозою для споживачів та громадян. Це означає, що люди будуть ставати гравцями в "Грі Людей", де AI-агенти виступатимуть як суперники, а ми будемо їхніми цілями для оптимізації.
Головною проблемою є те, що такі агенти, які взаємодіятимуть з нами у реальному часі через фотореалістичні аватари та AI-окуляри, зможуть аналізувати наші особистісні риси, бажання та емоції, а потім використовувати цю інформацію для впливу на наші думки і поведінку, продавати нам продукти або навіть переконувати у хибних ідеях. Без належного регулювання ці агенти можуть стати потужним інструментом маніпуляцій.
Розенберг наголошує, що необхідно впровадити обмеження на такі технології, щоб захистити людей від потенційної маніпуляції. Одним із можливих рішень є заборона AI-агентам створювати "зворотні зв'язки", що дозволяють їм оптимізувати свої тактики маніпуляцій на основі наших реакцій. Також ці агенти повинні бути зобов'язані інформувати нас про свої цілі. Якщо їхня мета — впливати на наші рішення, вони повинні повідомляти про це заздалегідь. Крім того, заборона на доступ до особистих даних, які можуть бути використані для маніпуляцій, є важливим кроком у забезпеченні приватності та безпеки.
У ситуації, коли цілеспрямований вплив стає глобальною проблемою, розмовні AI-агенти можуть зробити її ще небезпечнішою. Якщо не вжити необхідних заходів для захисту, ці технології можуть серйозно змінити нашу взаємодію зі світом і спричинити непередбачувані наслідки для суспільства.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.