Yuklenilir...
Yuklenilir...
Google представила две крупные новости в области искусственного интеллекта в апреле: Gemini 3.1 Flash-Lite — новую языковую модель, оптимизированную для эффективности, и Lyria 3 Pro — самую передовую модель генерации музыки компании. Вместе эти запуски укрепляют конкурентные позиции Google на быстро меняющемся рынке ИИ.
Новая модель обеспечивает в 2,5 раза более быстрое время отклика и на 45% более быструю генерацию вывода по сравнению с предыдущими версиями Gemini. Это значительный шаг вперёд для мобильных устройств, периферийных развертываний и приложений чата в реальном времени. Цена агрессивна — всего $0,25 за миллион входных токенов, что существенно ниже рыночных конкурентных ставок и делает модель привлекательной для высоконагруженных агентских рабочих нагрузок и чувствительных к затратам корпоративных клиентов.
Lyria 3 Pro развёртывается как самая передовая музыкальная модель Google и интегрируется в большее число продуктов. Система может создавать целые оркестровые произведения, вокальные партии и композиции в разных жанрах по текстовым подсказкам. Интегрированная через API для разработчиков, модель будет обеспечивать функции в YouTube, Google Фото и новых инструментах создания музыки для профессионалов и любителей.
Объявления появились через две недели после NVIDIA GTC 2026, где были показаны фреймворки агентного ИИ — в частности, инструменты оркестрации NeMoCLAW и OpenCLAW. Вместе с сообщениями об инвестициях Microsoft в размере $10 миллиардов в AI в Японии эти релизы сигнализируют, что гонка ИИ в 2026 году усиливается на каждом уровне — от кремния до моделей и приложений для конечного пользователя.
Разработчики могут получить доступ к новой модели Gemini прямо сейчас через Vertex AI и Google AI Studio. Lyria 3 Pro будет развёрнута поэтапно для пользователей в разных регионах в ближайшие недели. Google отметила, что проверки ответственного ИИ и водяные знаки включены по умолчанию для всего аудио, созданного Lyria.
Получайте еженедельные обзоры самых важных новостей на вашу почту.