середа, 12 лютого 2025 р.

Гендиректор BBC попереджає про потенційну шкоду від АІ


Дослідження BBC показало, що чотири великі чатботи на основі штучного інтелекту дають неточні підсумки новин. BBC надав чотирьом чатботам — ChatGPT від OpenAI, Copilot від Microsoft, Gemini від Google і Perplexity AI — матеріали з сайту BBC і поставив їм питання щодо новин. У відповідях, як стверджує BBC, було виявлено "значні неточності" та спотворення.

Генеральний директор BBC News and Current Affairs, Дебора Тернесс, зазначила в блозі, що ШІ відкриває "безмежні можливості", однак компанії, які розробляють ці інструменти, "грубо граються з вогнем".

"Ми живемо в складні часи, і як довго ще триватиме, поки викривлені заголовки ШІ не спричинять реальну шкоду?" — запитала вона.

Представник OpenAI зазначив: "Ми підтримуємо видавців і творців, допомагаючи 300 мільйонам користувачів ChatGPT щотижня знаходити якісні матеріали через підсумки, цитати, чіткі посилання та атрибуцію".

Інші технологічні компанії, що володіють чатботами, були запрошені для коментарів.

"Зупиніть це"

У дослідженні BBC чатботи повинні були підсумувати 100 новинних статей і відповісти на відповідні питання. Кожну відповідь оцінювали журналісти, які є експертами у відповідних темах.

Результати показали, що 51% всіх відповідей від ШІ містили суттєві проблеми. Додатково, 19% відповідей, що посилалися на контент BBC, містили фактичні помилки, такі як неправильні факти, цифри та дати.

Приклади неточностей, виявлених BBC:

  • ChatGPT і Copilot заявили, що Ріші Сунак і Нікола Стерджен все ще перебувають на своїх посадах, хоча вони вже пішли.

  • Perplexity невірно процитував BBC News у статті про Близький Схід, стверджуючи, що Іран спочатку показав "стриманість" і описав дії Ізраїлю як "агресивні".

Загалом, Microsoft Copilot і Google Gemini мали більше серйозних проблем, ніж OpenAI ChatGPT і Perplexity, який має інвестора в особі Джеффа Безоса.

Зазвичай BBC блокує свій контент для чатботів, але під час тестів у грудні 2024 року відкрила свій сайт для цих цілей.

У звіті зазначено, що, окрім фактичних неточностей, чатботи "не змогли розрізнити думки та факти, часто редакційно перебільшували і не включали важливий контекст".

Директор програми BBC з генеративного ШІ, Піт Арчер, зазначив, що видавці повинні мати контроль над тим, як використовується їхній контент, а компанії ШІ мають показати, як їхні помічники обробляють новини і які масштаби та обсяг помилок вони можуть допускати.

Представник OpenAI відповів BBC News: "Ми співпрацюємо з партнерами для покращення точності цитувань і поважаємо уподобання видавців, зокрема дозволяючи управляти тим, як їхній контент з'являється в пошукових системах за допомогою OAI-SearchBot в robots.txt. Ми будемо продовжувати покращувати результати пошуку."

(Robots.txt — це інструкція в коді веб-сторінки, яка вказує боту, щоб той не використовував цю сторінку в пошукових результатах.)

Авторка: Дар’я Бровченко


Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.