Infiniband NDR

На прошедшей выставке/конференции SC2020 компания Mellanox, которая теперь NVIDIA, представила новый стандарты Infiniband NDR, работающего на скороти 400 Гбит/с (!!!). Вместе со стандартом показали и все необходимое железо. Прикол в том, что для работы сетевого адаптера Infiniband NDR нужно 32 линии PCIe 4.0, что может выдать не каждая материнская плата. Читать дальше…

Война интерконнектов: продолжение

Компания Intel категорически не согласилась с результатами сравнения ее HPC интерконнекта OmniPath и Mellanox Infiniband. Более того, Intel решил показать результаты своих измерений, и они получились очень занимательными. В статье, ссылка на которую приведена в конце поста, есть куча графиков, где присутствуют три колонки результатов: «Mellanox Infiniband», «Intel OPA — результаты Читать дальше…

Анонс HDR Infiniband

#Mellanox анонсировали HDR #Infiniband — это аж 200 Гбит/с. Хотите кластер считающий в #ANSYS быстро и без проблем — смотрите в сторону Infiniband 😊 Mellanox Takes HPC Interconnects to the Next Level at SC17

Ускорение #ANSYS #Fluent при помощи #GPGU #NVIDIA возможно, и даже очень полезно! Как показывают тесты NVIDIA, на одном и том-же пуле лицензии главный #CFD решатель ANSYS может ускориться почти в 4 раза за счет подключения нескольких #Tesla P100. И сейчас мы говорим не про супер компьютер, а про обычный сервер Читать дальше…

#Mellanox, находясь в лидерах рынка #HPC интерконнекта, не останавливается, и продолжает придумывать новые технологии для снижения задержек и повышения быстродействия. Строите кластер для #ANSYS — закладывайте в его основу Mellanox Infiniband. #Infiniband #SocketDirect https://youtu.be/gzilN_cuhMk Eye on Mellanox socket direct

Приятные поздравления Наконец дошли руки до подтверждения квалификации пом #HPC и #Mellanox #Infiniband А за поздравления — большое спасибо! Компетенция специалистов компании ЗАО «КАДФЕМ Си-Ай-Эс» https://www.cadfem-cis.ru/list/article/yuranox/

Deploying HPC Cluster with Mellanox InfiniBand Interconnect Solutions В очередной раз убедился, что нет лучше пособия по отладке true #HPC кластеров чем эта небольшая брошюрка от #Mellanox. #Infiniband рули, а ссылка на документ чуть ниже в посте. https://vk.com/doc11568_441185555

Когда MPI заболел На днях мне довелось собирать кластер из «того, что было» на коленке: без планировщика, без серверной операционки, без #Infiniband. Так вот, во время отладки работы #Intel #MPI я наткнулся на очень интересную статью на портале поддержки Intel: «Examples of MPI Failures». В статье разобраны 7 ситуаций, когда Читать дальше…

Интерконнект на 20 Гбит Интерконнект на 200 Гбит На прошедшей неделе компания #Mellanox анонсировала выпуск нового поколения их #HPC интерконнекта #Infiniband — IB HDR. Infiniband дефакто является стандартом для суперкомпьютеров — более 70% всех систем такого класса собраны с использованием IB. Теперь же он может работать на скоростях 200 Гбит/с Читать дальше…

Полноценное #HPC в облаке Инфоповод по сообщению во множестве блогов: #ANSYS #CFD распараллелился почти линейно на 1024 ядра в облаке #Azure. Новость эта несет в себе сразу две морали. Первая мораль: ANSYS начинает рассматривать Azure как дополнение к #AWS — и это очень хорошо. Конкуренция облаков — это всегда хорошо Читать дальше…

Все лучшие практики HPC

Вот так, в одном проекте удалось совместить все лучшие практики #HPC: тут и #infiniband, и #tesla для ускорения расчетов, и #SSD для локального кэширования данных. На системное ПО тоже не поскупились: #Altair #PBS Pro, #NICE #DCV и #EngineFrame, #HP #CMU. Вот такой вот best practice вживую! Мы это сделали! Проектирование Читать дальше…

#Altair продолжает наращивать свое партнерство с #Microsoft. Очередным этапом стал запуска решателя #RADDIOSS (явная динамика) на мощностях #Azure для выполнения #HPC расчетов. Надо отметить, что до этого шага Altair и Microsoft начали дружить в рамках Altair #PBS Pro — одного лидеров среди систем планирования очереди задач. И вот теперь RADDIOSS Читать дальше…

#Mellanox, израильский производитель самого правильно #Infiniband для #HPC, вчера анонсировал новое поколение коммутаторов для EDR Infiniband. Мы наконец попадаем в эру сетей с пропускной способностью 100 Гигабит в секунду! Но это еще не все! Подробности в прилагаемом вбинаре. Mellanox Switch IB2 — Paving the Road to Exascale Mellanox Technologies http://www.mellanox.com/page/press_release_item?id=1627 Читать дальше…