Компания Amazon раскрыла исходные коды сервиса Amazon SageMaker Neo, позволяющего построить и обучить один раз модели машинного обучения на PyTorch, а затем развернуть их в облаке AWS с двукратной производительностью.
Платформа выпущена в рамках проекта Neo-AI под лицензией Apache Software License и после раскрытия исходников позволит производителям чипов и устройств, а также разработчикам программного обеспечения оптимизировать модели машинного обучения для широкого спектра аппаратных платформ.
Согласно заявлению Amazon, Neo-AI автоматически оптимизирует модели для платформ TensorFlow, MXNet, PyTorch, ONNX и XGBoost и может удвоить скорость работы этих моделей без потери точности. Сервис также преобразует модели в общий формат, чтобы уменьшить проблемы совместимости.
«Как правило, оптимизация модели машинного обучения для нескольких аппаратных платформ является сложной задачей, поскольку разработчикам необходимо настраивать модели вручную для конфигурирования аппаратного и программного обеспечения каждой платформы, — пишут Суквон Ким и Вин Шарма из Amazon Web Services (AWS) в блоге. — Это особенно сложно для периферийных устройств, которые обычно ограничены в вычислительной мощности и памяти».
Первую версию Neo-AI поддержали компании Intel, Nvidia и Arm, а чипмейкеры Xilinx, Cadence и Qualcomm планируют присоединиться к ним, сообщает tadviser.ru.