Сегодня Microsoft представил две модели искусственного интеллекта собственной разработки: MAI-Voice-1 и MAI-1-preview. До сих пор компания использовала ИИ-модели от OpenAI, объявляя об их доступности в инфраструктуре Azure и во всех своих продуктах и сервисах.
MAI-Voice-1 — модель ориентирована на генерацию речи, она уже доступна в приложениях Copilot Daily (аудиосводка новостей и погоды на базе ИИ) и Podcasts. Пользователи могут опробовать модель в новом интерфейсе Copilot Labs. С помощью функции Copilot Audio Expressions можно задать темы для разговора, выбрать голос, стиль и режим для создания высококачественного, выразительного звука. Сгенерированный аудиофайл будет доступен для скачивания. Microsoft подчеркивает, что модель MAI-Voice-1 работает очень быстро и эффективно. Она способна сгенерировать минуту аудио менее чем за секунду при использовании одного GPU.
Модель MAI-1-preview была обучена на 15 000 специализированных ускорителях Nvidia H100. Это первая фундаментальная ИИ-модель Microsoft, прошедшая комплексное обучение собственными силами. По заверению компании, она способна эффективно выполнять инструкции и давать полезные ответы на повседневные вопросы пользователей.
Microsoft планирует внедрить MAI-1-preview для некоторых текстовых сценариев Copilot в ближайшие недели. При этом уточняется, что MAI-1-preview не заменяет модели OpenAI в Copilot. Компания планирует использовать лучшие решения как собственной команды, так и партнеров, включая сообщество разработчиков ПО с открытым исходным кодом. Сейчас модель находится на этапе публичного тестирования и доступна на платформе LMArena.