понеділок, 30 червня 2025 р.

Штучний інтелект спрощує дослідження. Можливо, надто спрощує

Дослідження показало, що люди, які використовують «великі мовні моделі» для пошуку інформації, гірше розуміють тему після цього ChatGPT та інші «великі мовні моделі» (LLM) обіцяють зробити навчання простішим, ніж будь-коли. Та нове дослідження свідчить: те, що легко вивчається, гірше запам'ятовуються .

LLM — це різновид генеративного штучного інтелекту, що спілкується мовою, подібною до людської. Але у серії експериментів, проведених у Вортонській школі при Пенсильванському університеті, понад 4500 учасників, які використовували LLM для дослідження звичних тем, продемонстрували гірше розуміння цих тем і створили менше оригінальних ідей у порівнянні з тими, хто користувався звичайним пошуком Google.

Ці результати викликають занепокоєння щодо способів, якими люди шукають і вчаться, каже Ширі Мелумад, професорка маркетингу у Вортоні та перша авторка дослідження. «Це наче ефект Google, але в гігантському масштабі», — пояснює вона, натякаючи на попередні дослідження, які показували, що люди менше запам’ятовують інформацію, коли її легко знайти. З LLM, додає Мелумад, «ми ще більше відходимо від активного навчання».

Чотири експерименти

У чотирьох експериментах Мелумад та співавтор Джін Хо Юн випадково розподілили учасників на дві групи — ті, хто використовував Google Search, і ті, хто працював з LLM, щоб дослідити звичні теми і написати поради на їх основі.

Перший експеримент залучив понад 1100 учасників, які мали знайти інформацію про вирощування овочевого городу за допомогою Google або ChatGPT. Користувачі Google витрачали більше часу на пошук, докладали більше зусиль і писали довші, детальніші відповіді. Аналіз природної мови показав, що їхні поради містили більше унікальних фраз і фактів.

Щоб виключити можливість, що різниця була в самій інформації, а не в способі подання, другий експеримент показав майже 2000 учасникам однакові сім порад із садівництва: у вигляді єдиного підсумку від AI або розбитих на шість вебсторінок, як це зазвичай відображається у Google. Знову ж таки, користувачі Google проявили більшу зацікавленість, краще запам’ятали інформацію і написали більш продумані та оригінальні поради.

Два інші експерименти дали схожі результати.

Проблема мотивації

Деніел Оппенгеймер, професор психології та науки про прийняття рішень в університеті Карнегі-Меллон, зазначає, що ці результати резонують із його дослідженнями: студенти, які користуються AI для виконання завдань, краще справляються з домашньою роботою, але гірше — із тестами. «Вони отримують правильні відповіді, але не вчаться», — каже він.

Оппенгеймер вважає, що сама віра в те, що інформація отримана від LLM, знижує мотивацію до навчання. «Вони вважають, що система розумніша за них, тому припиняють старатися», — пояснює він. Це — проблема мотивації, а не лише когнітивна.

Втім, він попереджає не відкидати AI повністю. Якщо його використовувати правильно — наприклад, критично оцінювати відповіді, які генерує AI, або ставити йому глибокі питання — він може допомогти у навчанні. «ШІ не мусить робити нас пасивними, але зараз саме так його і використовують», — каже професор.

Виклики та можливості

Мелумад теж занепокоєна впливом AI на освіту та професії, що базуються на критичному мисленні. Але, як і Оппенгеймер, вона визнає перспективи, які відкриває штучний інтелект.

«Молодь усе частіше звертається спочатку до великих мовних моделей, — каже Мелумад. — Але якщо ми не навчимо їх синтезувати і інтерпретувати інформацію самостійно, ризикуємо втратити здатність до глибокого навчання взагалі».

Авторка: Дар’я Бровченко


Джерело



Як PR допомагає брендам вигравати у пошуку на основі штучного інтелекту


Майбутнє пошуку — це не нова версія SEO. Щоб вигравати з великими мовними моделями (LLM), потрібно впливати на те, що саме вони відповідають. Саме тут PR отримує величезний шанс, каже Роб Девіс з MSL.

З появою генеративного штучного інтелекту, що поступово витісняє традиційні пошукові системи, світ PR і комунікацій відчуває серйозні алгоритмічні зміни, які формують поведінку споживачів. Класична мудрість каже: потрібно придумати новий тип SEO, щоб пристосуватися до пошуку, керованого великими мовними моделями.

І ось починається суперечка — як же назвати цю нову стратегію? Генеративна оптимізація (GEO)? Оптимізація відповідей (AEO)? Чи ще якась інше «(порожнє)EO»?

Відповідь — «нічого з цього». Залишати погляд у минуле, орієнтуючись на SEO, — це тупиковий шлях. Перемога з LLM залежить від впливу на сам зміст відповідей, і це відкриває величезні можливості для PR.

Оптимізація — це вчорашній день. Вплив — ось тренд сьогодення.

SEO працювало на присутність: бути високо в пошукових результатах, потрапити у стрічку, бути рекомендованим. Оптимізація під шлях споживача, що базується на позиції в рейтингах і кліках, які ведуть до залучення чи конверсії, працювала десятиліттями, але тепер цього вже замало.

LLM — це не просто пошукові списки, а генератори текстів. Для них важливо не тільки, щоб бренд згадали, а як саме його подають. Вони замінюють довгі переходи по посиланнях на готові, авторитетні відповіді. Навіть якщо продукт багато разів згадують, негативний контекст може сильно нашкодити репутації. Через це традиційний трафік падає, і брендам доводиться впливати на відповіді LLM, щоб вони були якісними, навіть краще за офіційний сайт — бо користувачі можуть на нього навіть не заходити.

У MSL ми почали вивчати з появою ChatGPT у 2022 році, тестуючи Digital Brand Influence. Спочатку думали про SEO, але швидко зрозуміли — це вже не працює.

Стратегічні комунікації допомагають зберегти трафік. Якщо дивитися очима аудиторії, бренди можуть впливати на LLM і ключові канали, враховуючи потреби людей. Якісний контент і правильний розподіл допомагають обійти «нульові кліки», і навіть підняли трафік клієнта на 236% за рік, попри падіння кліків.

Платформи, яких багато ігнорували, повертаються. Reddit і YouTube — це великі бази глибокого контенту, що допомагають LLM створювати збалансовані відповіді. Оптимізувати відео для YouTube — це одне, а зробити їх впливовими для LLM — зовсім інше. Reddit для багатьох — табу, але щоб виграти, треба повністю вкладатись у ці платформи.

PR — це ключ до впливу на LLM. Вони сильно покладаються на сторонній контент — earned media. Журналісти, блогери, креатори і подкастери — саме вони формують вплив. Усвідомлення цього має змінити старі SEO-стратегії. Вплив — ось що працює.

Генеративний AI — це старт, а не кінець. Ризики і можливості ростуть, відмовитися неможливо. Бренди мають або адаптуватись, або зникати.

Авторка: Дар’я Бровченко


Джерело



Штучний інтелект під контролем людини: керування агентами майбутнього

"Ми всі станемо CEO маленької армії AI-агентів," — прогнозує Ерік Бріньйольфссон, директор лабораторії цифрової економіки Стенфордського інституту штучного інтелекту, який фокусується на людинозалежних технологіях, і засновник Workhelix, в інтерв’ю для The New York Times.
Він закликає замислитись: що саме ми хочемо досягти? Які цілі справді важливі?

Нові професії від AI?

Бріньйольфссон — справжній техно-оптиміст, але попереджає, що керування "армією" AI — це не просто фішка, а виклик, якого треба серйозно сприймати. Його думку підтримує Даріо Амодей, співзасновник і CEO Anthropic, який відкрито говорить про ризики AI.

Амодей пояснює, що спершу AI-агенти успішно застосовуються у програмуванні, але дуже швидко їх робота виходить за межі цього — вони стають частиною бізнес-процесів різного роду.

Зараз AI-агенти не працюють поодинці — вони формують мережі, які взаємодіють і активують одне одного, щоб швидко реагувати на завдання.

AI-агенти — не автономні, потрібні люди

Навіть найбільш запеклі прихильники AI погоджуються: без людей, що керують діями агентів, ніяк не обійтись. Амодей пояснює: "Ти делегуєш агентам роботу, а сам фактично стаєш менеджером цієї армії."

Це і є так звані "флоти агентів," які згодом перетворяться на "рой агентів."

Як Anthropic використовує Claude

Фундаментальна модель Anthropic — Claude — застосовується у різних сферах: від кодування до бізнес-завдань.

"Програмування розвивається найшвидше — саме там ми бачимо перші результати," — каже Амодей. "Це знак того, що скоро так буде у всіх сферах. Спочатку люди просто писали код, потім настала епоха автодоповнення, тепер ми переходимо у вібраційне кодування, коли ти фактично “просиш” модель зробити щось, і це дуже інтерактивно."

Людський фактор — це must-have

Керівник агентів завжди потрібен — "як у справжній компанії," пояснює Амодей. Люди контролюють, щоб агенти не розголошували приватні дані і не робили дій, які можуть спричинити кризу в безпеці.

Приклад від Block (раніше Square)

Один з відомих відкритих проектів AI-агента — Codename Goose від Block. Спочатку це був інструмент для програмістів, але зараз його застосовують і в інших відділах компанії.

"Спершу Goose використовували близько 75% інженерів Block. Але потім він став універсальним інструментом, який координує різні завдання, працює з різними даними і автоматизує дії," — пояснює Амодей.

Сьогодні ним користується щонайменше 40% співробітників Block — не лише розробники.

Anthropic "їсть власну їжу"

Команда Anthropic активно застосовує Claude для креативних досліджень, фінансового аналізу і не тільки. "Ми бачимо, що агенти автономно покращують бізнес, допомагають запускати нові продукти і розробляти маркетингові стратегії," — ділиться Амодей.

"Якщо ти сам не отримуєш користі від продукту, навряд чи варто продавати його іншим."

Масштаби зростання AI-агентів

Прогнозують, що впровадження агентів виросте на 327% за два роки. Вже зараз їх можна вважати "віртуальними колегами," хоч ми поки не на тому рівні.

Виклики і майбутнє

Амодей застерігає: дуже складно знайти баланс між тим, щоб агенти точно виконували інструкції і не перевищували свої повноваження. Потрібно ретельно "налаштовувати" моделі, щоб вони розуміли людський намір і виконували завдання коректно — від кодування до роботи з клієнтами.

Процес вдосконалення ще триває, але вже є суттєвий прогрес.

Авторка: Дар’я Бровченко


Джерело



Windsurf CEO Варун Мохан: Стартапи на одного — міф, бо для росту потрібні команди

Історія успіху платформи Windsurf — це класний приклад того, як AI-інструменти змінюють корпоративне програмування. На конференції VB Transform 2025 CEO Windsurf Варун Мохан розповів, що їхнє середовище розробки (IDE) за 4 місяці залучило понад мільйон користувачів, а понад половину коду на платформі пише саме AI. Розмову модерував CEO VentureBeat Метт Маршалл, а Мохан утримався від коментарів щодо потенційного придбання Windsurf OpenAI. Ця угода активно обговорюється після публікації The Wall Street Journal про напругу між OpenAI і Microsoft. OpenAI хоче купити Windsurf без передачі Microsoft інтелектуальної власності, що може вплинути на ринок AI-розробки. Але сесія була про технології, бізнес і майбутнє агентної розробки.

Більше, ніж автозаповнення

IDE Windsurf базується на «mind-meld loop» — спільному стані проєкту між людиною та AI, що дає змогу AI виконувати повний цикл кодування, а не просто підказувати код. Агенти можуть робити рефакторинг, писати тести і вносити зміни в UI після pull request. Мохан підкреслив, що 20–30% часу розробника йде на написання коду, а решта — на налагодження, рев’ю та тестування. Тож AI потрібен доступ до всіх цих процесів. Нещодавно в IDE вбудували браузер, щоб агенти могли тестувати зміни і взаємодіяти з живими інтерфейсами, як людина.

Безпека за замовчуванням

Оскільки AI все активніше бере участь у корпоративній розробці, безпека стає ключовою. Windsurf застосовує гібридну модель, де персональні дані не залишають середовище користувача. Це особливо важливо через інтегрований браузерний агент. Завдяки цьому Windsurf уже працює у регульованих галузях, таких як JPMorgan Chase і Morgan Stanley. Мохан додав, що коли всі співробітники мають доступ до технологій, безпека — це фільтр для продуктивності, щоб не допустити збоїв через помилки нетехнічних користувачів.

Маленькі команди — швидкі експерименти

У компанії працюють маленькі команди по 3–4 інженери, кожна тестує власні гіпотези. Мохан зазначив, що міф про стартапи на одного — це не реальність. Більше людей означає швидший ріст і якісніший продукт. Маленькі фокусні команди, що паралельно тестують ідеї, дозволяють швидко адаптуватися до змін AI і потреб користувачів.

Масштабована персоналізація

Найважливіша оптимізація Windsurf — не швидкість генерації коду, а релевантність. Персоналізація дозволяє агенту розуміти структуру, стиль і правила кожного клієнта і вносити зміни, які точно відповідають намірам користувача.

Готовність до майбутніх моделей

Компанія готує платформу до майбутніх моделей AI, бо кожне покращення вимагає переосмислення продукту. Windsurf працює над відкритим протоколом, що дозволить інтегрувати будь-які великі мовні моделі, зберігаючи гнучкість і уникаючи залежності від конкретних постачальників.

ROI під мікроскопом

Платформа надає аналітику ефективності — показує, який відсоток коду створив AI, і це прямо пов’язують із продуктивністю команд. Це допомагає обґрунтувати інвестиції.

Менше шуму, більше діла

На питання про конкуренцію з OpenAI, Microsoft і Google Мохан відповів: головне — швидкість реалізації правильної стратегії. Ризик — загальмувати або заглянути занадто далеко і пропустити актуальні потреби. Він додав, що великі компанії можуть стати AI-компаніями, але їх стримує повільність інновацій.

Незалежно від майбутнього Windsurf — у складі OpenAI чи окремо — її успіх у корпоративному сегменті та акцент на безпечній, вимірюваній взаємодії AI роблять її гравцем, за яким варто слідкувати.

Авторка: Дар’я Бровченко


Джерело



Чи дійсно AI-пошук приносить якісний трафік?

Попри заяви Google про те, що кліки з AI-пошуку приносять «кращий трафік» на сайти, нове дослідження від Ahrefs демонструє іншу картину: користувачі, які переходять із платформ на базі штучного інтелекту — таких як ChatGPT, Perplexity та Copilot — проявляють менше зацікавлення, ніж традиційні пошукові відвідувачі.

Що показало дослідження

Ahrefs порівняв поведінку користувачів з AI-джерел і класичних пошукових систем, аналізуючи трафік на понад 81 тисячу сайтів у травні–червні 2025 року. Результати виявили низку тривожних тенденцій:

  • Вищий показник відмов: користувачі з AI-платформ на 4,1% частіше залишають сайт, не взаємодіючи з ним, ніж ті, хто прийшов із пошуку. У порівнянні із середніми показниками — різниця ще більша: +5,4%.

  • Менше сторінок за візит: AI-відвідувачі переглядають у середньому 4 сторінки, тоді як ті, хто прийшов із пошуку — 5,2, а загальний середній показник — 5,5.

  • Коротші сесії: ці користувачі повільніше взаємодіють із сайтом і рідше досліджують додаткові розділи.

  • Трохи більше часу на сайті: у середньому сесія з AI-платформ триває 86 секунд — це на 8 секунд більше, ніж із пошукового або загального трафіку.

Чому це важливо

Google наполягає, що впровадження посилань у відповідях AI-пошуку стане перевагою для брендів і видавців, оскільки ті отримають більш «якісні кліки» замість втраченої органічної видачі. Проте чітких доказів цього бракує, і дедалі більше компаній сумніваються у чесності таких обіцянок.

А як щодо конверсій?

Попри знижену залученість, Ahrefs зафіксував вищий рівень конверсій — близько 12% для трафіку з AI-платформ порівняно з традиційним пошуком.

Висновок: трафік з AI — не краще і не гірше, він просто інший. Такі відвідувачі можуть бути рішучішими у своїх діях, але вони менше взаємодіють із контентом, частіше залишають сайт і переглядають менше сторінок.

Авторка: Дар’я Бровченко


Джерело




Як ChatGPT та інші ШІ-інструменти змінюють професію вчителя

У шостому класі для обдарованих учнів вчителька математики Ана Сепульведа вирішила зробити геометрію цікавою. Враховуючи любов учнів до футболу, вона звернулася по допомогу до ChatGPT.

За кілька секунд чат-бот створив п’ятисторінковий план уроку з темою: «Геометрія — усюди у футболі: на полі, у м’ячі та навіть в архітектурі стадіонів!» Він пояснив, як використовуються фігури й кути, запропонував запитання для обговорення та проєкт зі створення власного футбольного поля.

«ШІ змінив мою роботу», — каже Сепульведа, яка викладає у двомовній школі в Далласі та використовує ChatGPT для перекладів і підвищення залученості учнів.

Сьогодні по всій країні вчителі використовують ШІ для створення тестів, планів уроків, оцінювання і скорочення бюрократії. Багато хто зазначає, що технології допомагають їм працювати ефективніше.

ШІ вже масово використовують у школах США

Опитування Gallup і Фонду Волтонів показало: 6 з 10 учителів державних шкіл у США використовували ШІ в роботі протягом минулого навчального року. Найактивніше — вчителі середніх шкіл і педагоги-початківці. У середньому ШІ економить їм близько шести годин на тиждень, що може зменшити ризик вигорання, зазначають дослідники.

Деякі штати розробили власні рекомендації щодо використання ШІ, але їх застосування різниться. Професорка Університету Флориди Майя Ізраїль наголошує: важливо не дозволити ШІ замінити вчительські рішення. Наприклад, автоматичне оцінювання доцільне лише для тестів із вибором відповідей. А складні завдання повинні оцінюватися викладачем.

Також має бути механізм, через який учні можуть повідомити про несправедливу оцінку. Остаточне рішення завжди має залишатися за людиною.

Використання ШІ економить час і покращує якість

Близько 80% учителів, які користуються ШІ, кажуть, що він допомагає з рутинними завданнями. Майже 60% вважають, що змогли покращити якість матеріалів і зворотного зв’язку з учнями.

Викладачка суспільствознавства з Х’юстона Мері Маккарті, яка використовує ШІ для планування уроків, зазначає, що це допомогло їй покращити роботу та зберегти баланс між працею і особистим життям. Завдяки офіційному навчанню вона також вчить учнів грамотному використанню технологій.

«Якщо ми не навчимо дітей правильно користуватися ШІ, вони й справді ризикують втратити навички», — каже вона. «Це наша відповідальність — допомогти їм навчитися орієнтуватися у майбутньому».

Учителі закликають використовувати ШІ обережно

Від моменту запуску ChatGPT у 2022 році ставлення шкіл до ШІ суттєво змінилося: від заборон — до інтеграції у навчання. Але побоювання лишаються: половина вчителів вважає, що надмірне використання ШІ послаблює критичне мислення й самостійність учнів.

Однак ті ж технології допомагають помічати, коли роботи учнів створені штучним інтелектом. Про це можуть свідчити ідеально граматичні тексти та складні мовні звороти, каже вчитель англійської з Колорадо Даррен Баркетт, який також користується ChatGPT.

Учителька мистецтва з передмістя Чикаго Ліндсі Джонсон працює тільки з тими ШІ-програмами, які пройшли перевірку IT-відділу школи. За її словами, ШІ долучається лише на пізніх етапах роботи, щоби не знижувати впевненість учнів у власних силах.

Під час фінального завдання восьмикласники малювали портрети важливих для них людей. Коли портрети були майже завершені, Джонсон запропонувала використати ШІ для створення фону — тільки за бажанням. Половина учнів обрала завершувати роботу самостійно.

«Моя мета — показати різні інструменти й навчити ними користуватись», — пояснює вона.

Авторка: Дар’я Бровченко


Джерело



Чому бізнесу слід підпорядковувати AI-агентів тим самим правилам, що й людей

Чи справді так звані AI-агенти можуть працювати пліч-о-пліч із людьми настільки ефективно, як це пророкують деякі лідери індустрії? Генеральний директор Nvidia Дженсен Хуанг вважає, що в майбутньому його компанія зможе поєднати 50 тисяч працівників із 100 мільйонами AI-агентів.

І навіть якщо така картина поки що далека від реальності, Nvidia точно не буде єдиною. Якщо агентні AI справді виправдають очікування, варто уявити всі компанії зі списку Fortune 500, які впровадять у себе цілі флоти цифрових агентів — загальна кількість може сягати мільярдів. І навіть якщо частину з них координуватимуть автономні AI-«керівники», саме люди зрештою залишатимуться відповідальними за дотримання стандартів, встановлених роботодавцями.

Рецензії для AI? Чому б і ні

Один із логічних шляхів уперед — запровадити для AI-агентів аналогічні оцінки продуктивності, як для звичайних працівників. Цифрових співробітників можна оцінювати за такими критеріями, як ефективність, безпека та дотримання нормативних вимог — це допоможе краще розуміти, де вони приносять цінність, а де потребують покращення.

Управління сотнями мільйонів цифрових працівників

З огляду на стрімке зростання кількості AI-агентів у робочому середовищі, організаціям необхідно розробити масштабовані управлінські рамки. Незалежно від того, чи йдеться про сотні чи мільйони агентів, контроль над ними має залишатися в руках людських команд.

Отже, менеджери мають бути готові керувати усім життєвим циклом цифрових агентів — від дизайну та впровадження до моніторингу, перенавчання й виведення з експлуатації.

Оскільки відповідальність за дії агентів залишається на людях, компаніям слід забезпечити прозорість джерел даних, з якими працюють AI. Для цього рекомендується створити централізовану, захищену та затверджену платформу з доступом до даних, з якою агенти можуть працювати безпечно.

Ключову роль у цьому відіграє зріла стратегія використання API (інтерфейсів прикладного програмування). Як людським працівникам надається доступ до інструментів через облікові записи, так і цифрові агенти потребують контрольованого доступу до систем і даних.

API дозволяють компаніям надати таким агентам саме той обсяг доступу, який їм потрібен для прийняття рішень і виконання поставлених завдань — нічого зайвого.

Небезпека "зомбі": як тримати агентів під контролем

У міру зростання кількості API для підтримки цифрової робочої сили, з’являється одна з найнебезпечніших загроз — тіньові або так звані "зомбі"-API.

Йдеться про так звані тіньові або «зомбі»-API — це неофіційні та неузгоджені інтеграції, які створюються окремими командами або тимчасово, без участі IT-відділу. Часто вони відкривають доступ до ізольованих джерел даних і використовуються без урахування всіх можливих ризиків.

Такі невидимі API швидко стають однією з найпоширеніших «лазівок» для хакерських атак. Вони можуть спричинити витік важливої інформації, порушення в роботі даних і наростання технічних проблем. Як компанії блокують несанкціонований доступ людей до своїх систем, так само їм потрібно виявляти й вимикати тіньові API — щоб AI-агенти не могли їх використовувати.

Централізація: єдине джерело правди

Найефективніший спосіб боротьби з "зомбі"-API — створити центральний хаб для управління усіма API та AI-агентами.

Такий хаб стає єдиним джерелом правди, яке дозволяє бачити повну картину: які агенти працюють у системі, які API вони використовують, до яких даних мають доступ. Це спрощує виявлення та блокування неавторизованих дій.

Окрім цього, централізований хаб має включати чіткі політики управління доступом і системи безпеки, щоб цифрові агенти дотримувалися тих самих норм приватності, що й їхні людські колеги. Також важливо впроваджувати low-code інструменти, які дозволяють швидко створювати агентів із вбудованими механізмами безпеки, відповідності й ефективності — завдяки стандартним шаблонам і підказкам на основі природної мови.

Час діяти — зараз

Запровадивши ці контрольні механізми на ранньому етапі формування цифрової робочої сили, ІТ-керівники можуть отримати перевагу і зробити вплив штучного інтелекту на свою організацію позитивним, керованим і масштабованим.

Авторка: Дар’я Бровченко


Джерело