Главная » IT-индустрия » HGX-2: интеллект и производительность

HGX-2: интеллект и производительность

Производители серверов намерены начать поставки систем на базе новой платформы к концу текущего года.

 

Мощь 16 графических процессоров Tesla V100 Tensor Core должна удовлетворить потребности искусственного интеллекта и высокопроизводительных вычислений. Компания Nvidia представила новую серверную платформу HGX-2, сделав очередной шаг к новым рекордам вычислительной производительности и эффективности.

Некоторые крупные пользователи систем HGX-2 станут одновременно и их поставщиками. Компании Lenovo, Supermicro, Wiwynn и QCT, выпускающие серверы для ЦОД, сообщили о намерении начать поставки систем HGX-2 к концу текущего года. Ожидается, что производством серверов на новой платформе для облачных ЦОД займутся Foxconn, Inventec, Quanta и Wistron.

Каждая из плат управляет восемью процессорами, что в сумме позволяет довести число графических процессоров до 16. В HGX-2 используются две графические платы, связывающие графические процессоры Tesla через коммутационную матрицу NVSwitch. Анонсированная год назад система HGX-1 объединяла только 8 графических процессоров.

На этой же платформе будет построена и готовящаяся к выпуску собственная система Nvidia DGX-2. Компания Nvidia называет HGX-2 «строительными блоками», с помощью которых производители серверов смогут создавать системы, настраиваемые для выполнения различных задач. Новость же заключается в том, что компания предоставляет свою платформу производителям серверов в качестве референсной архитектуры, благодаря чему производители систем смогут начать их поставки к концу текущего года.

Генеральный директор Nvidia Дженсен Хуанг анонсировал новую платформу на конференции GPU Technology Conference, проходившей на Тайване.

Обычно такую производительность связывают с сотнями кластеризованных серверов. Два месяца назад на технической конференции в Сан-Хосе представители Nvidia заявили, что DGX-2, первая система на базе HGX-2, будет обладать производительностью в 2 PFLOPS. долл. Начальная цена DGX-2 составит 399 тыс.

Генеральный директор Nvidia Дженсен Хуанг

Генеральный директор Nvidia Дженсен Хуанг анонсировал новую платформу на конференции GPU Technology Conference, проходившей на Тайване.

Одна такая система способна заменить 300 серверов с центральными процессорами, которые стоят миллионы долларов. В эталонном тесте ResNet-50 опытные системы на базе HGX-2 установили рекорд скорости.

Массово-параллельная архитектура графических процессоров делает их особенно подходящими для обучения искусственного интеллекта. Графические процессоры нашли свою нишу в обучающих наборах данных, по сути создавая модели нейронных сетей для приложений машинного обучения.

Платформа HGX-2 ориентирована также на высокопроизводительные вычисления при решении научных задач, обработке изображений и рендеринге видео, а также имитационном моделировании. Преимуществом HGX-2 является возможность использования этой платформы как для обучения искусственного интеллекта, так и для выполнения правил вывода, что делает ее пригодной для построения нейронных сетей, применяемых в различных сценариях реальной жизни.

– Уникальной особенностью HGX-2 являются ее возможности организации вычислений с различной точностью». «Мы верим в будущее вычислений, организованных на базе унифицированной платформы, – заявил менеджер Nvidia по маркетингу искусственного интеллекта и ускоренных вычислений Пареш Харя.

Платформа позволяет проводить при научных расчетах и моделировании вычисления с точностью до FP64 (64-разрядные или с плавающей точкой двойной точности), поддерживая одновременно FP16 (16-разрядные или с плавающей точкой половинной точности) и Int8 (8-разрядные операции с целыми числами) для задач искусственного интеллекта.

Любой из этих портов может обмениваться данными с любым другим портом на скорости NVlink (NVlink – это собственная внутренняя шина Nvidia, которую уже лицензировала компания IBM). На каждой из плат HGX-2 находятся шесть неблокирующих 18-портовых коммутаторов NVSwitch.

Топология позволяет всем 16 графическим процессорам (по восемь на каждой плате) одновременно обмениваться данными с любыми другими графическими процессорами на полной скорости NVLink в 300 Гбайтс/с. Две платы платформы HGX-2 имеют 48 портов NVLink.

– В том числе и ограничения производительности единой системы, потребляющей 10 киловатт мощности». «Нам удалось преодолеть множество классических системных ограничений, – сообщил Харя.

В каждой из них установлено два процессора Xeon и различное число графических процессоров, предназначенных для решения задач искусственного интеллекта и организации высокопроизводительных вычислений. Nvidia анонсировала также восемь классов серверных платформ с графическими ускорителями. На другом конце находится система SCX-E1, имеющая два графических процессора Tesla V100 и встроенную шину PCIe. Система старшего класса Nvidia HGX-T2 на базе HGX-2 оснащена 16 графическими процессорами Tesla V100 и предназначена для обучения гигантских многоуровневых нейронных сетей. Она потребляет 1200 ватт и предназначена для высокопроизводительных вычислений начального уровня.

В номенклатуре Nvidia присутствуют системы HGX-T для обучения искусственного интеллекта, HGX-I для искусственного интеллекта на основе правил вывода и системы SCX для организации высокопроизводительных вычислений и научных расчетов.

В 2016 году Intel купила стартап глубинного обучения Nervana Systems и сейчас завершает работу над созданием собственного процессора Intel Nervana Neural Network Processor (NNP). Компания Nvidia занимает устойчивые позиции на рынке графических процессоров для решения задач искусственного интеллекта, но и ей приходится сталкиваться с растущей конкуренцией. Производитель микросхем FPGA компания Xylinx предлагает еще более мощные продукты FPGA (field programmable gate arrays) для построения систем искусственного интеллекта на основе правил вывода.

Такая гибкость идеально подходит для решения задач искусственного интеллекта на основе правил вывода. Микросхемам FPGA не хватает вычислительной мощности для того, чтобы успешно конкурировать с графическими процессорами при обучении искусственного интеллекта, но их можно запрограммировать для обработки каждого из уровней нейронной сети с минимально пригодной для этого уровня точностью.





Оставить комментарий

Ваш email нигде не будет показанОбязательные для заполнения поля помечены *

*

x

Это интересно

RPA 2022: Найти место для робота

На конференции по роботизации процессов, ставшей центральным событием года, обсудили допустимые места применения технологии RPA и поделились лучшими практиками ее использования. Конференция «Роботизация бизнес-процессов — 2022», организованная издательством «Открытые системы», уже в четвертый раз собрала на одной площадке экспертов-практиков, пользователей ...

Как подобрать коммутатор?

Одной из инновационных разработок, что в настоящее время не только упрощает, но и снижает затраты, является poe коммутатор, где передача данных и питания, осуществляется при помощи всего одного кабеля Ethernet. По сравнению с другими аналогичными устройствами, данные конструкции имеют ряд ...