Дослідження Boston Consulting Group показало, що 28% опитаних використовують ШІ для вибору товарів, зокрема косметики. А з розвитком агентів штучного інтелекту, які можуть самостійно купувати товари для користувачів, компанії ще більше занепокоєні тим, як їхні продукти оцінюють алгоритми.
Це може стати новим рівнем SEO (оптимізації для пошукових систем), де найважливішим завданням стане формування позитивного іміджу в великих мовних моделях (LLM).
Як штучний інтелект оцінює бренди
Компанія JellyFish розробила програмне забезпечення Share of Model, яке аналізує, як різні ШІ-моделі сприймають бренди. Оскільки кожен ШІ тренується на різних наборах даних, оцінки можуть відрізнятися. Наприклад, модель Llama від Meta може вважати ваш бренд надійним та цікавим, тоді як ChatGPT — лише цікавим, але не настільки надійним. Share of Model проводить аналіз на основі різних запитань, що ставляться до ШІ, і формує висновки щодо іміджу бренду.
Приклад з Ballantine’s
Компанія Pernod Ricard, яка володіє брендом шотландського віскі Ballantine’s, використовує Share of Model для корекції іміджу продукції.
“Ballantine’s — це віскі для широкої аудиторії, але Llama сприймала його як преміальний продукт, ймовірно, через асоціацію з його елітними версіями”, — розповідає Гьокчен Карака, керівник цифрового напрямку в Pernod Ricard.
Щоб виправити ситуацію, компанія змінила рекламні матеріали, зосередившись на доступності та масовості бренду. Хоча результати ще не остаточні, перші дані показують позитивну динаміку.
Як вплинути на штучний інтелект
Багато сучасних ШІ-моделей є закритими, а їхні алгоритми непрозорі, що ускладнює роботу з ними. Однак поява “моделей міркувань” (reasoning models), які пояснюють логіку своїх рішень, може допомогти брендам зрозуміти, що впливає на їхнє сприйняття.
Дослідники з Carnegie Mellon University виявили, що навіть незначна зміна формулювань запиту може кардинально змінити рекомендації ШІ.
Наприклад, зміна запиту з:
👉 “Я шукаю найкращу скороварку за співвідношенням ціни та якості”
на
👉 “Я шукаю скороварку з багатьма пресетами та цифровим дисплеєм”
призвела до того, що модель Gemma від Google змінила свою рекомендацію з 0% згадок Instant Pot до 100% згадок Instant Pot.
Це означає, що компанії можуть намагатися впливати на запити, які користувачі вводять у ШІ. Наприклад, бренди можуть приховано просувати бажані формулювання на форумах на кшталт Reddit, створюючи маніпулятивні рекомендації.
Проблеми та етичні питання
Такий підхід нагадує те, як компанії намагалися впливати на алгоритми Google для підняття своїх сайтів у пошуку.
Деякі методи, як-от “ін'єкція запитів” (prompt injection), прямо заборонені, але існують і більш тонкі способи, наприклад, зміна рекламних матеріалів для “правильного” впливу на ШІ.
Ще одна проблема — вбудовані упередження у ШІ-моделях.Дослідження University of South Florida показало, що великі мовні моделі, як правило, оцінюють глобальні бренди як якісніші за локальні.
Наприклад:
🔹 Nike часто описується як “стильний” та “зручний”
🔹А місцевий бренд взуття може отримати характеристики “низька якість” або “некомфортне”
Подібні упередження також впливають на рекомендації подарунків. Якщо запитати у ШІ, що подарувати людині з розвиненої країни, він може порадити люксовий бренд, а для мешканця країни, що розвивається, — бюджетний товар.
Компанії вже починають сприймати штучний інтелект як окрему цільову аудиторію, яка впливає на їхній бізнес. Якщо раніше маркетологи фокусувалися на тому, як їхні бренди виглядають для людей, тепер вони змушені враховувати ще й їх сприймає ШІ.З часом ці взаємодії стануть складнішими, а успішні бренди навчаться адаптувати свої стратегії так, щоб не лише зацікавлювати клієнтів, а й бути привабливими для алгоритмів.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.