На конференции Ignite компания Microsoft анонсировала собственный чип для искусственного интеллекта Maia 100, который, как ожидается, сможет конкурировать с разработками NVIDIA, а также Cobalt 100 на базе Arm для вычислений общего назначения. Это первые чипы, разработанные Microsoft для облачной инфраструктуры Azure.
ИИ-ускоритель Azure Maia 100 изготовлен по 5-нм техпроцессу на мощностях TSMC. Microsoft заявляет, что Maia 100 является одной из самых крупных микросхем, производящихся с использованием этого техпроцесса. Чип получил 105 млрд. транзисторов, что примерно на 30% меньше, чем у AMD MI300X AI (153 млрд). Применяются системы жидкостного охлаждения. Maia 100 предназначен для выполнения облачных рабочих нагрузок искусственного интеллекта, таких как обучение больших языковых моделей. В том числе, чип будет использоваться в рамках партнерства с OpenAI.
В настоящее время Microsoft тестирует, насколько Maia 100 соответствует потребностям чат-бота поисковой системы Bing, ИИ-помощника GitHub Copilot и модели GPT-3.5-Turbo от OpenAI.
Azure Cobalt 100 — это 128-ядерный процессор на основе платформы Arm Neoverse Compute Subsystem (CSS) и адаптированный для Microsoft. Он предназначен для работы с общими облачными сервисами Azure. Заявляется, что производительность Cobalt 100 до 40% выше решений на базе Arm, в настоящий момент использующихся в составе серверных систем Microsoft Azure. Компания пока не раскрывает ни полных характеристик чипа, ни результатов тестов. Известно лишь о том, что для этих чипов также предусмотрено жидкостное охлаждение.
Сейчас Microsoft тестирует процессор Cobalt на таких рабочих нагрузках, как Microsoft Teams и SQL-сервер, а в следующем году планирует предоставить клиентам виртуальные машины для различных рабочих нагрузок.
Microsoft Azure Maia 100 и Azure Cobalt 100 производитель начнет использовать в своих серверных системах с начала 2024 года. Компания также продолжит предоставлять услуги своих облачных сервисов Azure на базе решений компаний NVIDIA и AMD.