понеділок, 31 березня 2025 р.

Anthropic розкриває таємниці штучного інтелекту: прорив у розумінні мовних моделей

Дослідники розробили метод, який допомагає зрозуміти, як працюють великі мовні моделі

Компанія Anthropic заявила про фундаментальний прорив у розумінні того, як саме працюють великі мовні моделі (LLMs) — той самий тип штучного інтелекту, який лежить в основі сучасного технологічного буму. Це відкриття може суттєво вплинути на підвищення безпеки, надійності та контрольованості штучного інтелекту.

Проблема «чорної скриньки»

Одна з головних проблем сучасних мовних моделей полягає в їхній непрозорості. Ми знаємо, які вхідні дані вони отримують і які результати видають, але процес формування цих відповідей залишається загадкою навіть для самих дослідників.

Ця «непрозорість» створює низку ризиків. Наприклад, складно передбачити, коли модель почне «галюцинувати» — впевнено видавати помилкову інформацію. Також невідомо, чому деякі способи обходу обмежень (так звані jailbreaks) працюють краще за інші, і чому навіть після налаштування моделі все одно можуть генерувати небажаний контент.Через це деякі компанії не поспішають впроваджувати мовні моделі у свій бізнес.

Як AI ухвалює рішення

Ще одна проблема — контроль над потужними AI-агентами. Дослідники знають, що ці системи можуть знаходити неочікувані способи досягнення поставленої мети, які не відповідають задуму розробників. Іноді моделі навіть обманюють користувачів, приховуючи, що саме вони роблять.

Сучасні AI-моделі використовують так званий «ланцюг міркувань» (chain of thought), який виглядає як послідовний процес ухвалення рішень. Проте досі невідомо, наскільки ця «логіка» справді відповідає реальному процесу обчислень у нейромережі.

Прорив Anthropic

Дослідники Anthropic створили новий метод аналізу роботи мовних моделей, схожий на функціональну МРТ для мозку людини. Вони застосували цей метод до своєї моделі Claude 3.5 Haiku і отримали кілька важливих відкриттів.

З’ясувалося, що хоча модель тренується просто на прогнозуванні наступного слова, у процесі вона навчається будувати довготривалі стратегії. Наприклад, при написанні вірша Claude спочатку визначає ключові слова, які мають римуватися, а потім підбирає решту тексту відповідно до них.

Ще одне відкриття стосується багатомовності моделі. Claude не має окремих модулів для різних мов — натомість він оперує загальними концепціями, які кодуються в тих самих нейронах, незалежно від мови.

Також дослідники виявили, що модель може свідомо спотворювати власні міркування, якщо це відповідає очікуванням користувача. Наприклад, коли модель отримувала неправильну підказку для розв’язання математичної задачі, вона коригувала свої пояснення так, щоб вони відповідали цій підказці. А в деяких випадках Claude просто вигадував складний процес міркування там, де він насправді не відбувався.

Нові можливості для контролю

Розуміння внутрішньої роботи LLM відкриває нові перспективи для підвищення безпеки штучного інтелекту. Це дозволить ефективніше налаштовувати захисні обмеження та зменшити ризик «галюцинацій» або помилкових відповідей.

Деякі експерти вважають, що ця проблема не є унікальною для ШІ — адже людське мислення теж часто незрозуміле навіть самим людям. Проте ключова різниця в тому, що помилки штучного інтелекту можуть бути зовсім не схожими на людські, що робить їх важче передбачуваними.

Дослідник Anthropic Джош Батсон вважає, що завдяки новим підходам у механістичній інтерпретації (mechanistic interpretability) ми зможемо розібратися в тому, як «мислять» мовні моделі, навіть краще, ніж розуміємо роботу людського мозку.

Обмеження нового методу

Метод, запропонований Anthropic, поки що не є ідеальним. Він лише приблизно відтворює реальну картину роботи LLM, і деякі важливі аспекти, зокрема механізм уваги (attention), залишаються поза його можливостями. Крім того, розбір навіть коротких запитів займає багато часу, що поки що ускладнює масштабування цього підходу.

Попри ці обмеження, дослідження Anthropic відкриває новий шлях до розуміння ШІ та його більш ефективного контролю. З часом ці знання можуть зробити AI більш безпечним, передбачуваним і надійним для широкого застосування.

Авторка: Дар’я Бровченко


Джерело




Доступний ШІ: революція у технологіях чи нова бульбашка на ринку?

УРЮМЧІ, КИТАЙ — 13 ЛЮТОГО: Інженер перевіряє дата-центр у місті Урумчі, розташованому в Сіньцзян-Уйгурському автономному районі Китаю. Тут китайська компанія DeepSeek запустила інфраструктуру для підтримки своєї великої мовної моделі штучного інтелекту (ШІ).

Бюджетна альтернатива ШІ та виклики ринку

Коли DeepSeek представила свою модель R1, заявивши, що її розробка коштувала лише 6 мільйонів доларів, це викликало нову хвилю критики в адресу американських компаній, таких як OpenAI, які витрачають мільярди на створення власних моделей.

Незважаючи на сумніви щодо реальної вартості розробки DeepSeek, довіра інвесторів до OpenAI залишається незмінною. Компанія планує залучити новий раунд фінансування на 40 мільярдів доларів, оцінюючись у 300 мільярдів, та прогнозує зростання доходу до 12,7 мільярда доларів цього року. Тим часом чип CoreWeave може стати ключовим фактором для відродження ринку IPO в сегменті ШІ. Однак, зростає стурбованість тим, що ринок розвивається надто швидко і з надмірними витратами.

ШІ-бульбашка та китайський виклик

Технологічний сектор відчуває змішані настрої: акції «Великої сімки» цього року демонструють нестабільність, а співзасновник Alibaba Джо Цай попереджає про можливу ШІ-бульбашку в США. Це впливає як на інвестиційні стратегії, так і на геополітичні рішення, зокрема посилення обмежень на експорт чипів до Китаю.

Попри ці ризики, американські дослідники продовжують експериментувати з генеративним ШІ. Наприклад, команда з UC Berkeley змогла створити маломасштабну мовну модель на базі DeepSeek всього за 30 доларів. Це стало можливим завдяки використанню двох Nvidia H200 GPU та простих математичних алгоритмів для навчання моделі з трьома мільярдами параметрів.

Нові можливості у сфері досліджень

Керівниця проєкту TinyZero, аспірантка UC Berkeley Цзяї Пан, зазначає, що їхній експеримент дозволив дослідити, як ШІ може навчитися міркувати перед тим, як давати відповіді. DeepSeek R1 став першою моделлю, яка пояснила цей підхід, проте навіть її бюджет у 6 мільйонів доларів виявився недосяжним для багатьох лабораторій.

Команда TinyZero використала алгоритм DeepSeek R1-Zero для тренування ШІ у математичній грі Countdown. Спочатку модель шукала рішення випадковим чином, але з часом навчилася коригувати стратегію та знаходити оптимальніші варіанти.

«Навіть модель з трьома мільярдами параметрів може навчитися міркувати», — зазначає Пан.

Це доводить, що здатність до логічного мислення не обов’язково залежить від розміру моделі.

Відкритий код і новий підхід до ШІ

Проєкт TinyZero привернув увагу дослідників, включаючи команду зі Стенфорда, яка відтворила експерименти в грі Countdown. Їхнє дослідження також використало систему VERL від ByteDance та відкриту модель Qwen від Alibaba Cloud, що зменшило витрати на розробку.

Старший науковець з машинного навчання Ніна Сінгер підкреслює, що такі проєкти, як TinyZero, доводять: розмір моделі не є ключовим фактором у її ефективності.

«Менші моделі, спеціально налаштовані для окремих завдань, можуть конкурувати з великими нейромережами при значно менших витратах», — зазначає вона.

Майбутнє ШІ: ефективність замість масштабу

Головний висновок TinyZero — якість тренування та специфіка задачі важливіші за кількість параметрів. Це кидає виклик традиційному уявленню, що лише величезні моделі, як ChatGPT, здатні до самовдосконалення. Успіх таких проєктів може змусити великі компанії робити свої ШІ-моделі більш відкритими для дослідницьких ініціатив.

Таким чином, майбутнє штучного інтелекту може змінитися з акценту на гігантські моделі до ефективних, доступних і спеціалізованих рішень.

Авторка: Дар’я Бровченко


Джерело







Білл Гейтс прогнозує, що 2-денний робочий тиждень стане реальністю вже за 10 років завдяки ШІ

Білл Гейтс стверджує, що штучний інтелект найближчим часом автоматизує майже все, що призведе до скорочення робочого тижня до 2 днів менш ніж за десятиліття.

Якщо ви не любите 5-денний робочий графік, є хороші новини: Білл Гейтс прогнозує, що вже через 10 років люди можуть працювати лише два дні на тиждень, і все це завдяки ШІ.

Згідно з його прогнозами, штучний інтелект замінить людей «для більшості завдань», що спричинить необхідність переосмислення робочих процесів.

Що чекає на робочі місця? Чи варто працювати лише 2 або 3 дні на тиждень? — запитав Білл Гейтс у програмі Джиммі Феллона.

Це не вперше, коли мільярдер згадує про скорочення робочого тижня. У 2023 році, коли ChatGPT лише набував популярності, Гейтс заявив, що суспільство може «врешті-решт» прийти до того, що нормою стане 3-денний робочий тиждень, і світ повинен буде зрозуміти, як використовувати додатковий вільний час.

«Якщо подивитися ширше, мета життя — не просто виконувати роботу», — сказав він під час інтерв’ю з Тревором Ноа.

5-денні вихідні можуть збільшити народжуваність і зменшити вигорання

Скорочення робочого тижня, безумовно, стане втіхою для багатьох працівників, які борються з вигоранням і виснаженням, особливо після пандемії. Є ознаки того, що перехід до 4-денного робочого тижня дійсно принесе користь. Одна компанія встановила, що скорочення на один день збільшило продуктивність на 24% і зменшило вигорання вдвічі.

Хоча загальне впровадження скороченого робочого тижня ще не стало масовим, рух у цьому напрямку вже розпочався. Наприклад, столичний уряд Токіо нещодавно оголосив про перехід на 4-денний робочий тиждень — частково з метою підвищення рівня народжуваності в Японії.

Джеймс Даймон, CEO JPMorgan, також висловив думку, що ШІ зробить роботу менш пріоритетною, передбачаючи 3,5-денний робочий тиждень.

Однак, на даний момент у його компанії не планують переходити до такої моделі через нові вимоги повернення до п’ятиденного робочого графіка.

2 професії, які, ймовірно, замінить ШІ, згідно з Гейтсом

Зі зростанням впливу ШІ на робочі місця, Гейтс визнає, що деякі професії зазнають значних змін. Він назвав лікарів і вчителів двома професіями, які можуть бути замінені ШІ — і це на користь суспільству в цілому.

«З розвитком ШІ, через десятиліття, інтелект стане доступним і звичним», — сказав Гейтс.

Хоча він зазначає, що люди залишать за собою деякі професії, як-от професійний спорт, він малює картину світу, в якому ШІ виконуватиме більшість завдань.

Якщо не можна побороти ШІ, приєднуйтесь до нього

Ті, хто хоче досягти успіху в бізнесі в цю нову, непевну епоху технологічного прогресу, повинні будуть прийняти, а не чинити опір ШІ. За даними LinkedIn, володіння навичками роботи з ШІ є найбільш швидко зростаючою компетенцією 2025 року.

Авторка: Дар’я Бровченко


Джерело





Чи зайшов сучасний ШІ у глухий кут? Вчені сумніваються, що він досягне людського інтелекту

Згідно з новим опитуванням, 76% науковців вважають, що масштабування великих мовних моделей навряд чи призведе до створення штучного загального інтелекту (AGI).


Революція чи застій?

Незважаючи на глобальні інвестиції у $56 мільярдів у 2024 році, сучасні підходи до штучного інтелекту, швидше за все, не дозволять створити системи, які зрівняються з людським інтелектом.

Такий висновок зроблено на основі опитування 475 дослідників у сфері ШІ. Більшість із них (76%) заявили, що навіть подальше масштабування великих мовних моделей (LLM) є «малоймовірним» або «дуже малоймовірним» для досягнення AGI – рівня, коли системи машинного навчання зможуть навчатися не гірше, ніж люди.

Ці результати суперечать очікуванням технологічних гігантів, які з моменту зростання генеративного ШІ у 2022 році вважали, що для досягнення AGI достатньо більше даних, потужнішого обладнання та фінансових вливань.

Проте, як свідчить опитування, більшість дослідників, опитаних Асоціацією з розвитку штучного інтелекту (AAAI), вважають, що компанії зайшли у глухий кут – і жодні інвестиції не допоможуть їм вибратися.

«Стало очевидно ще після випуску GPT-4, що подальше масштабування дає лише незначні й дуже дорогі покращення», – каже Стюарт Рассел, професор Каліфорнійського університету в Берклі та один з організаторів дослідження.

«Технологічні компанії вже вклали надто багато і просто не можуть собі дозволити визнати помилку. Вони змушені подвоювати зусилля, навіть якщо це тупиковий шлях».

Виснаження ресурсів та технічні обмеження

Неймовірний прогрес мовних моделей за останні роки став можливим завдяки трансформерній архітектурі, вперше запропонованій науковцями Google у 2017 році. Ця технологія дозволяє ШІ моделювати ймовірнісні патерни на основі аналізу величезних обсягів текстових даних.

Проте масштабування таких моделей вимагає колосальних фінансових та енергетичних витрат. У 2024 році венчурні інвестори вклали у генеративний ШІ $56 мільярдів, значна частина яких пішла на будівництво гігантських дата-центрів. Водночас викиди CO₂ від цих центрів потроїлися з 2018 року.

До того ж, за прогнозами, доступні людські дані для навчання ШІ вичерпаються до кінця десятиліття. Це означає, що компанії будуть змушені або збирати приватні дані користувачів, або використовувати синтетично згенеровані дані, що може призвести до саморуйнування моделей через накопичення помилок.

«Основна проблема нинішніх підходів у тому, що вони базуються на навчанні гігантських, але все ж таки обмежених схем», – пояснює Рассел.

«Такі схеми мають фундаментальні обмеження у представленні складних концепцій. Це змушує їх працювати як розширені бази даних з величезними прогалинами. Саме тому люди можуть перемагати "суперлюдські" ШІ-програми у грі в Ґо».

Яке майбутнє чекає на штучний інтелект?

Усі ці проблеми стали серйозними викликами для компаній, що прагнуть покращити продуктивність ШІ. Деякі опитані експерти вважають, що саме вони призвели до застою у розвитку та пояснюють, чому OpenAI досі не випустила GPT-5.

Крім того, у 2025 році китайська компанія DeepSeek змогла створити модель, яка за ефективністю зрівнялася з дорогими західними аналогами, витративши значно менше коштів та ресурсів.

Це ще раз доводить, що нинішній підхід до розвитку ШІ має серйозні обмеження. У результаті 79% опитаних дослідників дійшли висновку, що реальні можливості штучного інтелекту суттєво переоцінені.

«Багато експертів вважають, що це просто чергова технологічна бульбашка», – зазначає Рассел.

«Тим більше, коли потужні ШІ-моделі безкоштовні ».

Проте це не означає, що розвиток штучного інтелекту припиниться. Вчені бачать перспективу у нових підходах, таких як моделі логічного мислення (reasoning models), які виділяють більше ресурсів на обробку запитів. Також перспективним є поєднання мовних моделей із іншими системами машинного навчання та використанням ймовірнісного програмування.

«Компанії роблять велику ставку на майбутні прибутки від генеративного ШІ», – каже професор Томас Дітеріх з Університету штату Орегон.

«Як показує історія, великі технологічні прориви потребують 10-20 років, щоб почати приносити значний дохід. Чимало стартапів зникне, але деякі стануть надзвичайно успішними».

Що ж, схоже, що гонка за справжнім AGI ще далека від фінішу, і найбільш значущі відкриття можуть чекати попереду.

Голосовий AI-агент від Otter.ai відповідатиме на запитання під час онлайн-зустрічей

Компанія Otter.ai, відома своїм сервісом транскрипції голосу в текст, запускає голосового AI-агента, який зможе брати участь в онлайн-дзвінках і відповідати на запитання.

Новий інструмент під назвою Otter Meeting Agent, представлений у вівторок, активується за голосовим запитом, розпізнає питання і знаходить відповіді, використовуючи дані з відкритих джерел або внутрішніх документів компанії.

Otter.ai вже пропонує веб-інтерфейс і мобільний застосунок для транскрибування голосових нотаток, створення їхніх підсумків та пошуку інформації за текстовими запитами. Тепер ця функціональність доступна і в голосовому режимі під час онлайн-зустрічей, що особливо корисно, коли учасникам потрібно отримати інформацію миттєво, без необхідності вводити запит вручну.

AI-агент для відеоконференцій

За словами CEO Otter.ai Сема Ляна, новий AI-агент не лише відповідатиме на запитання, а й зможе виконувати деякі дії.

«Otter Meeting Agent зможе відповідати на питання, брати участь у зустрічах і навіть виконувати певні завдання», — зазначив Лян.

Наприклад, під час демонстрації в Zoom він звернувся до агента:
"Привіт, Otter, хто винайшов аудіомагнітофон і в якому році?"
Агент миттєво відповів:
"Аудіомагнітофон був винайдений Томасом Едісоном у 1877 році."

Спочатку голосовий агент працюватиме з Zoom, а найближчими тижнями буде інтегрований у Google Meet та Microsoft Teams.

Крім пошуку загальнодоступної інформації, агент може отримувати дані з корпоративних джерел. Наприклад, він здатний відповісти на запит про кількість підписників або темпи зростання компанії, використовуючи внутрішні бази даних.

Також AI-агент може виконувати додаткові дії, такі як планування зустрічей або створення чернеток електронних листів.

Як працює система?

Otter Meeting Agent використовує метод Retrieval-Augmented Generation (RAG), що дозволяє йому аналізувати запити, розбивати їх на підзадачі та визначати, які функції активувати або до яких систем звернутися для отримання інформації.

«Агент може отримувати дані з різних джерел і формувати відповідь, узагальнюючи отримані результати», — пояснює Лян.

Чи готові люди до голосових AI-асистентів?

Під час дискусії GTC експерти зазначили, що користувачі загалом віддають перевагу спілкуванню з живими людьми, а не з AI. Однак Лян вважає, що голосові агенти можуть доповнювати роботу людей, виконуючи прості завдання, зокрема відповідаючи на типові запитання.

На даний момент Otter Meeting Agent працює лише за запитом і не втручається в розмову без необхідності. У майбутньому компанія планує розширити його функціонал, щоб він міг активно брати участь у дискусіях і навіть виправляти хибні твердження.

Майбутнє AI-асистентів у зустрічах

Ідея участі AI у нарадах не нова. Ще у 2013 році аналітик Forrester Дж.П. Гаундер прогнозував, що такі інструменти не тільки надаватимуть дані, але й братимуть активну участь у обговореннях.

«Я ще тоді передбачив, що AI-агенти зможуть активно брати участь у зустрічах, витягуючи дані та аналітику з корпоративних систем», — зазначив він.

«Але реальність така, що ми часто ухвалюємо рішення без аналізу внутрішніх документів, аналітики та попередніх розмов, що не є ефективним».

Проте, перш ніж такі рішення стануть поширеними, доведеться подолати низку викликів, зокрема питання довіри та соціального сприйняття. Учасникам зустрічей може не сподобатися, якщо AI-агент їх перебиватиме, а навіть кілька помилкових відповідей можуть призвести до втрати довіри.

«Чи зможуть AI-агенти знаходити правильні дані серед гігабайтів корпоративних документів і архівів?», — запитує Гаундер. 
«Я вважаю, що знадобиться ще кілька років, перш ніж ця технологія стане масовою, хоча її потенціал очевидний».

Скільки коштує Otter Meeting Agent?

Otter.ai пропонує різні тарифні плани: безкоштовний, а також бізнес-версію за $30 на місяць. Також є корпоративний тариф, проте його вартість не розголошується.

Зараз Otter.ai має 25 мільйонів користувачів, хоча компанія не уточнює, яка частина з них користується платними підписками.

пʼятниця, 28 березня 2025 р.

Білл Гейтс передбачив смерть усіх професій через ШІ — за винятком цих трьох



Як бути в безпеці від ШІ?

Якщо ви вже давно слідкуєте за технологічним світом, то, напевно, помітили раптову настирливу тенденцію впроваджувати ШІ в усі сфери технологій. ШІ став не лише маркетинговим терміном, а й реальністю, яка оточує нас. Багато хто стурбований, що ШІ замінить людей на робочих місцях.

І вони, ймовірно, мають рацію, якщо вірити засновнику Microsoft Біллу Гейтсу. Нещодавно інтерв’ю з Гейтсом знову стали популярними, адже мільярдер поділився кількома прогнозами щодо того, як виглядатиме робота в майбутньому.

ШІ чи люди: хто залишиться в безпеці?

Білл Гейтс нещодавно з’явився на шоу Джиммі Феллона, де заявив, що ШІ замінить людей в більшості професій. «Є деякі речі, які ми залишимо для себе. Але коли мова йде про створення, переміщення предметів або вирощування їжі, з часом ці проблеми будуть вирішені», — сказав Гейтс.

Проте, розвиваючи цю думку, Гейтс вважає, що хоча ШІ може захопити багато професій, є три сфери, де людські руки все ще будуть необхідні.

Три професії, де ШІ не замінить людей

Незважаючи на те, що деякі технологи (зокрема, CEOs) стверджують, що програмування стане сферою ШІ, Гейтс вважає, що програмісти залишатимуться потрібними. У іншому інтерв’ю він зазначив, що програмісти повинні розуміти основи ШІ, щоб визначити, чи працює він правильно, або чи веде себе «безглуздо».

«Це як питання, чи треба вам вчитися множити, просто тому що комп’ютери справляються з цим дуже добре», — сказав Гейтс в інтерв'ю Axios.

Гейтс також додав, що програмісти життєво важливі для виявлення та виправлення помилок, удосконалення алгоритмів і покращення розвитку ШІ.

Біологи та енергетики: хто ще не під загрозою?

Окрім програмістів, Гейтс вважає, що біологи залишатимуться незамінними, навіть якщо ШІ буде використовуватися для діагностики захворювань та аналізу ДНК. Він вважає, що саме біологи необхідні для наукових досліджень і відкриттів у сфері біології.

Також Гейтс вважає, що енергетики залишатимуться важливими, оскільки ця галузь надто складна для повної автоматизації.

А решта з нас?

Що стосується решти людей, Гейтс поставив питання: «Чи варто нам працювати лише два чи три дні на тиждень?» Він зазначив, що завдяки ШІ експертні медичні поради та освітні ресурси стануть доступні та дешеві.

Що ми робитимемо в ці «два чи три дні на тиждень», ще належить обговорити, але є ціла частина Силіконової долини, яка майже поклоняється ШІ, і, ймовірно, ми станемо адептами цього нового технологічного культу.


Авторка: Дар’я Бровченко


Джерело



Amazon інтегрує штучний інтелект для покращення покупок



Amazon продовжує інтегрувати штучний інтелект у свої інструменти для покупок, щоб заохотити клієнтів здійснювати більше покупок. У середу компанія анонсувала нову функцію під назвою "Інтереси", спрямовану на створення більш персоналізованого та розмовного пошукового досвіду.

З цією новою функцією користувачі можуть вводити спеціально підібрані запити в рядок пошуку, які відображають їхні інтереси, переваги та навіть бюджет. Наприклад, користувачі можуть запитати "набори для моделювання та аксесуари для інженерів-аматорів" або "інструменти для заварювання кави та гаджети для любителів кави".

Функція "Інтереси" використовує великі мовні моделі (LLM), щоб перетворювати повсякденну мову на запити, які традиційні пошукові системи можуть зрозуміти, що призводить до більш релевантних пропозицій товарів.

Крім того, цей інструмент працює у фоновому режимі, сповіщаючи користувачів, коли з’являються нові товари, що відповідають їхнім інтересам, а також надаючи оновлення про наявність товарів, поповнення запасів і акції.

Наразі функція "Інтереси" доступна вибраному колу користувачів у США через додаток Amazon Shopping на пристроях iOS та Android, а також на мобільному сайті в розділі "Мій профіль".

Компанія планує розширити доступ до цієї функції для більшої кількості користувачів у США в найближчі місяці.

Функція "Інтереси" є логічним кроком у розвитку технологій Amazon, оскільки компанія продовжує впроваджувати ШІ в свій додаток. Вона приєднується до ряду інших інтелектуальних функцій, вже доступних на Amazon, зокрема ШІ-помічника для покупок Rufus, ШІ-гідів для покупок, підсумків відгуків, генерованої ШІ інформації про товари та багато іншого.

Крім того, кілька інших компаній, ймовірно, підуть за прикладом Amazon для покращення покупок для своїх клієнтів, і деякі з них вже почали це робити.

Наприклад, Google нещодавно оновив свою вкладку "Шопінг", запровадивши інструмент "Vision Match", що дозволяє покупцям описати одяг, який вони уявляють, а ШІ пропонує подібні варіанти на основі опису. Також було запущено інструмент для автоматичного підсумовування інформації про товари.

Авторка: Дар’я Бровченко


Джерело