Google почала поступово впроваджувати нові функції штучного інтелекту в Gemini Live, які дозволяють йому "бачити" ваш екран або камеру смартфона і відповідати на запитання в реальному часі.
Про це в інтерв'ю для The Verge підтвердив представник компанії Google Алекс Джозеф. Ці функції з’являються майже через рік після того, як Google вперше продемонструвала роботу “Project Astra”, що їх підтримує.
Користувач Reddit повідомив, що нова функція з’явилася на його смартфоні Xiaomi. Сьогодні той самий користувач опублікував відео, яке демонструє нову здатність Gemini до зчитування екрану. Це одна з двох функцій, які, за словами Google, “почнуть впроваджуватися для підписників Gemini Advanced в рамках плану Google One AI Premium” у березні цього року.
Інша функція Astra, яка зараз впроваджується, — це жива відеоінтерпретація. Вона дозволяє Gemini аналізувати відео із камери вашого смартфона в реальному часі та відповідати на запитання про нього. У демонстраційному відео, опублікованому Google цього місяця, людина використовує цю функцію, щоб попросити Gemini допомогти обрати колір фарби для нової керамічної роботи.
Розгортання цих функцій є ще одним прикладом лідерства Google у галузі штучного інтелекту, оскільки Amazon готується до обмеженого раннього доступу до оновленого Alexa Plus, а Apple відклала запуск оновленого Siri. Обидва ці асистенти повинні мати подібні можливості до тих, що Astra починає впроваджувати вже зараз. Тим часом Samsung все ще має свій Bixby, хоча Gemini вже є стандартним асистентом на смартфонах цієї компанії.
Авторка: Дар’я Бровченко
Немає коментарів:
Дописати коментар
Примітка: лише член цього блогу може опублікувати коментар.