Nvidia представила «суперплатформу» для обучения больших моделей ИИ

На конференции Nvidia GTC компания представила ряд новинок, среди которых — DGX Superpod, «первое в мире готовое решение ИИ для дата-центра», позволяющее разработчикам создавать модели ИИ любой сложности, не беспокоясь об инфраструктуре проекта. Система работает на графическом процессоре Blackwell, преемнике Hopper, который поддерживает модели с триллионом параметров.

Платформа DGX Superpod будет состоять из множества систем DGX GB200. В каждой из них 36 «суперчипов» Nvidia GB200, состоящих из 36 графических процессоров Grace и 72 графических процессоров Blackwell. Этот суперкомпьютер обеспечит 240 Тбайт памяти, необходимой для работы больших языковых моделей. Плюс 11,5 эксафлопс вычислительной мощности.

Передовым DGX Superpod делает то, что платформа позволяет соединить множество систем GB200 с помощью анонсированной сетевой технологии Nvidia Quantum-X800 InfiniBand, пишет Venture Beat. Эта архитектура обеспечивает до 1800 Гбайт/с для каждого графического процессора в платформе. А новый протокол SHARP повышает эффективность архитектуры в четыре раза по сравнению с предыдущим поколением.

Прежде обучение модели с 1,8 трлн параметров требовало 8000 графических процессоров Hopper и 15 МВт энергии. А теперь, как утверждает компания, справятся 2000 процессоров Blackwell за 4 МВт.

Возможности систем DGX будут также доступны в облачном сервисе Nvidia DGX и партнеров: AWS, Google Cloud и Oracle Cloud.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

ХайТек+