Дослідження BBC показало, що чотири великі чатботи на основі штучного інтелекту дають неточні підсумки новин. BBC надав чотирьом чатботам — ChatGPT від OpenAI, Copilot від Microsoft, Gemini від Google і Perplexity AI — матеріали з сайту BBC і поставив їм питання щодо новин. У відповідях, як стверджує BBC, було виявлено "значні неточності" та спотворення.
Генеральний директор BBC News and Current Affairs, Дебора Тернесс, зазначила в блозі, що ШІ відкриває "безмежні можливості", однак компанії, які розробляють ці інструменти, "грубо граються з вогнем".
"Ми живемо в складні часи, і як довго ще триватиме, поки викривлені заголовки ШІ не спричинять реальну шкоду?" — запитала вона.
Представник OpenAI зазначив: "Ми підтримуємо видавців і творців, допомагаючи 300 мільйонам користувачів ChatGPT щотижня знаходити якісні матеріали через підсумки, цитати, чіткі посилання та атрибуцію".
Інші технологічні компанії, що володіють чатботами, були запрошені для коментарів.
"Зупиніть це"
У дослідженні BBC чатботи повинні були підсумувати 100 новинних статей і відповісти на відповідні питання. Кожну відповідь оцінювали журналісти, які є експертами у відповідних темах.
Результати показали, що 51% всіх відповідей від ШІ містили суттєві проблеми. Додатково, 19% відповідей, що посилалися на контент BBC, містили фактичні помилки, такі як неправильні факти, цифри та дати.
Приклади неточностей, виявлених BBC:
ChatGPT і Copilot заявили, що Ріші Сунак і Нікола Стерджен все ще перебувають на своїх посадах, хоча вони вже пішли.
Perplexity невірно процитував BBC News у статті про Близький Схід, стверджуючи, що Іран спочатку показав "стриманість" і описав дії Ізраїлю як "агресивні".
Загалом, Microsoft Copilot і Google Gemini мали більше серйозних проблем, ніж OpenAI ChatGPT і Perplexity, який має інвестора в особі Джеффа Безоса.
Зазвичай BBC блокує свій контент для чатботів, але під час тестів у грудні 2024 року відкрила свій сайт для цих цілей.
У звіті зазначено, що, окрім фактичних неточностей, чатботи "не змогли розрізнити думки та факти, часто редакційно перебільшували і не включали важливий контекст".
Директор програми BBC з генеративного ШІ, Піт Арчер, зазначив, що видавці повинні мати контроль над тим, як використовується їхній контент, а компанії ШІ мають показати, як їхні помічники обробляють новини і які масштаби та обсяг помилок вони можуть допускати.
Представник OpenAI відповів BBC News: "Ми співпрацюємо з партнерами для покращення точності цитувань і поважаємо уподобання видавців, зокрема дозволяючи управляти тим, як їхній контент з'являється в пошукових системах за допомогою OAI-SearchBot в robots.txt. Ми будемо продовжувати покращувати результати пошуку."
(Robots.txt — це інструкція в коді веб-сторінки, яка вказує боту, щоб той не використовував цю сторінку в пошукових результатах.)
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.