понеділок, 24 березня 2025 р.

Anthropic додає веб-пошук до свого чат-бота Claude

Anthropic розширює можливості свого AI-чат-бота Claude, додавши функцію веб-пошуку — можливість, яка довгий час залишалася недоступною.

Як повідомили в блозі компанії, веб-пошук наразі доступний у тестовому режимі для платних користувачів Claude у США. Найближчим часом функція з’явиться і для безкоштовних користувачів, а також стане доступною в інших країнах. Користувачі можуть увімкнути веб-пошук у налаштуваннях свого профілю в веб-додатку Claude. Після активації Claude автоматично шукатиме інформацію в Інтернеті для надання точніших відповідей.

На даний момент ця функція працює лише на останній моделі Claude — Claude 3.7 Sonnet.

"Коли Claude використовує інформацію з вебу у своїх відповідях, він надає прямі посилання на джерела, щоб ви могли легко перевірити достовірність даних", — зазначено в блозі Anthropic.

"Замість того щоб самостійно шукати результати, Claude обробляє інформацію та подає її в зручному форматі. Це оновлення розширює базу знань Claude, доповнюючи її актуальними даними, що дозволяє надавати більш точні відповіді."

Під час тестування цієї функції веб-пошук не завжди спрацьовував для запитів, пов’язаних з актуальними подіями. Проте, коли це відбувалося, Claude дійсно надавав відповіді з вбудованими посиланнями на джерела, серед яких були соціальні мережі (наприклад, X), а також авторитетні медіа, такі як NPR і Reuters.

Завдяки цій можливості Claude тепер має функціональність аналогічну більшості конкурентних AI-ботів, таких як ChatGPT від OpenAI, Gemini від Google та Le Chat від Mistral. Раніше компанія Anthropic пояснювала відсутність веб-пошуку тим, що Claude був "спроєктований як самодостатній". Вочевидь, конкурентний тиск вплинув на зміну підходу.

Однак залишається ризик так званих "галюцинацій"  або некоректного цитування джерел. З подібною проблемою стикаються й інші чат-боти. За даними дослідження Центру цифрової журналістики Tow, популярні AI-асистенти, зокрема ChatGPT і Gemini, дають неточні відповіді у понад 60% випадків. Окремий звіт The Guardian показав, що навіть пошукова функція ChatGPT може генерувати повністю хибні підсумки.


Авторка: Дар’я Бровченко


Джерело


Немає коментарів:

Дописати коментар

Примітка: лише член цього блогу може опублікувати коментар.