NVIDIA поставила ряд рекордов в ИИ-тестах MLPerf Inference V2.0
Старшая версии в пять раз быстрее и в два раза энергоэффективнее, нежели Jetson AGX Xavier — компания привела результаты тестирования AGX Orin в MLPerf Inference V2.0, где новая платформа без труда расправилась со своей предшественницей, а также не оставила практически ни единого шанса связке Qualcomm Snapdragon 865 и Cloud AI 100 (DM.2). Впрочем, старший серверный вариант ускорителя всё же оказался более энергоэффективным в сравнении с NVIDIA A100 в некоторых других тестах.
Дополнительно NVIDIA опубликовала результаты тестов ускорителя A30. Компания отдельно подчёркивает несколько моментов. Так, производительность A100 на платформах Arm и x86-64 оказалась практически идентичной — трёхлетние усилия по портированию ПО на Arm не прошли даром. Более того, оптимизация одного только ПО дала прирост до 50% за последний год. Заодно NVIDIA объявила, что теперь инференс-платформа Triton может работать только на CPU, не требуя обязательного наличия GPU.
Также NVIDIA совместно с Microsoft показала, что производительность A100 в инстансах Azure незначительно отличается от того, что можно получить при использовании bare-metal оборудования. Наконец, компания продемонстрировала эффективность работы Multi-Instance GPU (MIG) — при использовании всех семи инстансов производительность каждого составляет порядка 98% от той, которая доступна при использовании только одного инстанса.
К сожалению, сам набор MLPerf всё ещё во много ориентирован на аппаратные решения NVIDIA — в новой серии тестов очень мало результатов от других крупных игроков, хотя всего было принято более 3900 замеров, из которых 2200 включали также данные об энергопотреблении. Та же Qualcomm выступила далеко не во всех дисциплинах, а Google фактически отказалась от участия в этом раунде.