Вакансия: R&D по HPC в московской лаборатории Huawei

Впервые на правах рекламы от моих читателей! Мы ищем людей в московскую R&D лабораторию Huawei для работы в области High-Performance Computing и оптимизации сетевых протоколов для HPC/Data Center сетей.   Приоритетные для нашей лаборатории направления исследований в HPC: Congestion и flow control в HPC/DC сетях Оптимизация MPI и communication middle-ware Читать дальше…

ScaleMP поставил очередной рекорд для систем с общей памятью

ScaleMP это специализированный «гипервизор», способный собирать на основе физических машин, объединенных интерконнектом, одну виртуальную машину, агрегирующую все ресурсы в системе с общей памятью. Иными словами, ScaleMP — это программная реализация когерентного кеширования. ScaleMP вместе с AMD построили виртуальную машину на 8192 ядер и 256 Тб оперативной памяти и порвали всех Читать дальше…

Easy8 — Bright Cluster Manager бесплатно!

С американского мероприятия SC2019 пришла очень важная новость. Bright Computing, разработчики Bright Cluster Manager, лидера среди независимых систем развертывания, мониторинга и управления HPC кластерами под Linux, представили бесплатную версию своего продукта. Она получила название Easy8, и ее единственное ограничение в плане функционала – это не более 8-ми узлов в системе. Читать дальше…

ANSYS Distributed compute services (DCS)

Начиная с 2019 R3 у ANSYS стал доступен новый компонент, упрощающий параметрические исследования. Он назвается Distributed compute services (DCS), и являться логическим развитием идеи RSM. DCS представляет собой службу, в которую можно послать проект Workbench, выполняющий параметрические исследования. После чего сам WB можно закрывать — управление расчетами займется DCS: ход Читать дальше…

Рекорд по расчетам и визуализации турбулентных вихрей

Коллеги из суперкомпьютерного центра Лейпцига опубликовали свои результаты в области визуализации результатов расчетов. Расчет производился на суперкомпьютере SuperMUC-NG, стоящем на 9-ом месте списка Top500. Он состоит из 6.5 тысяч вычислительных узлов на основе процессоров Intel 8174 Xeon Skylake и обладает суммарной оперативной памятью в 719 Тб. Расчеты заняли всего 131 Читать дальше…

LS-DYNA HPC

Решатель LSTC славится своей масштабируемостью как для явной, так и для неявной схемы интегрирования по времени. Порой кажется, что нет никаких трудностей в том, чтобы запустить расчет на сотни и даже тысячи ядер. Но на самом деле, за кажущейся легкостью решаемой задачи распараллеливания скрывается серьезная большая работа десятков программистов и Читать дальше…

Как надо уметь готовить ANSYS EKM

Монументальная работа по настройке ANSYS EKM от Александра Николаевича Чернова. Порой я думаю, что EKM его боится, и сам подсказывает, как лучше сделать. Потому что мой коллега уже перевел интерфейс на русский, настроил взаимодействие с базами данных и контроллером домена и подключил это к расчетному кластеру. Такой EKM — это Читать дальше…

GENESIS — CFD код от GE

Вычислительный код GENESIS разрабатывается GE на базе существующей научной разработки hp-adaptive Multi-physics Simulation Code (hpMusic), так что правильнее его называть hpMusic/GENESIS. Код, по заявлениям разработчиков, очень интересный.Это не традиционный метод конечных объемов, а некий собственный «flux reconstruction method», который представляет собой некую смесь лагранжева и эйлерова подхода к описанию среды. Читать дальше…

HPC интерконнект по PCIe Gen 4

Интересная разработка HPC стартапа по превращению шины PCIe в полноценный интерконнект. Обычно на эту шину цепляется как-то интерконнект типа сети (Infiniband, Ethernet, Omny Path). Но в случае компании GigaIO интерконнект строится прямо на основе PCIe шины. Если все правильно сделать, то должно получиться неплохо, так как часть накладных расходов на Читать дальше…

Azure и облачный кластер на 20 000 ядер

Коллеги из Microsoft немного поиграли мускулатурой в своих ЦОД West US 2 и East US. Недолго думая, они смогли собрать HPC кластер из 512 виртуальных машин (новая серия HC) = 22 528 физических вычислительных ядер Intel Xeon Platinum 8168 (безо всякого там Hyper Threading). При этом это действительно HPC, так Читать дальше…

Расчеты в LS-DYNA на кластерах Windows HPC Cluster

DYNAmore выпустили инструкцию по настройке и работе распределённого решетеля LS-DYNA на кластерах под управлением MS Windows HPC Pack 2016. Инструкция полезная, но на самом деле вам достаточно знать следующий набор команд: SET LSTC_MEMORY=auto job submit /jobname:<JOBID> /numcores:<NCPU> /workdir:<WORKDIR> mpiexec -np <NCPU> <mpp-dyna.exe> i=<WORKDIR\INPUT.K> jobid=<JOBID> Ну а если вы используете лицензии Читать дальше…

HPE покупает Cray

Огромная новость из мира HPC. Hewlett Packard Enterprise (HPE) объявили, что договорились с Cray купить последнюю за $1.3 миллиарда. Напомню, что несколько лет назад HPE уже купил другую легенду суперкомпьютерного мира — компанию SGI (Silicon Graphics Incorporated), обладавшую уникальными технологиями по созданию аппаратных систем с общей памятью и файловых систем. Читать дальше…

Высокопроизводительные вычисления в ANSYS 2019 R1

Ровно через неделю (23 мая в 14:00) приходите на мой вебинар про HPC и Cloud для ANSYS. Каверзные вопросы приветствуются. Необходима бесплатная регистрация: https://webinars.cadfem-cis.ru/event/hpc/registration/. Ну и вообще, у нас новая прикольная платформа для Web семинаров: https://webinars.cadfem-cis.ru

CFD кластер на Android

Третий день кряду я говорю про мобильную операционную систему Android. Сегодня темой дня стала система для распределённого решения задач гидродинамики. Причем расчет идет не просто на мобильных устройствах, а на их GPU! А задачу решают при помощи решетчатых уравнений Больцмана. Ссылки на научные статьи тут: https://www.adriantheengineer.co.uk/single-post/2019/04/22/Article-Trilogy-Interactive-Simulation-on-Mobile-Devices

HPC porn: HPE Superdome Flex

Наши инженеры многое бы отдали за такую систему с общей памятью Официальный пресс-релиз: «HPE Superdome Flex предназначен для критичных к вычислительной мощности рабочих нагрузок, таких как анализ данных, решение проблем искусственного интеллекта и высокопроизводительные вычисления. Его конфигурации варьируются от 4 до 32 сокетов и до 896 ядер в одной системе, Читать дальше…

48 ядер в одном процессоре от Intel

Новые, мощные процессоры Cascade Lake-SP от Intel и их презентация для простых смертных на конференции HPC User Forum. Что у нас новго: AVX 512 — еще больше математической производительности на такт x2 количество каналов памяти 80 линий PCIE третьего поколения Таким образом теперь мы можем сделать вычислительную систему с общей Читать дальше…

vSMP для AMD EPYC

Рецепт HPC портно, или как сделать большой сервер за недорого: взять 4 свежих сервера поставить в каждый по 2 просессора AMD EPYC 7601 (32 физических ядра и 64 виртуальных потока), соединить при помощи Infiniband добавить ПО помпании ScaleMP В итоге получим одну виртаульную машину на 256 физических ядер и общей Читать дальше…

Молния: NVIDIA купила Mellanox

Новость в HPC мире, какой еще не было. NVIDIA объявила о договоренность по покупке Mellanox за сумму около $6.9b. Таким образом лидер рынка графики, математических сопроцессоров и машинного интеллекта приобретает лидера рынка высокопроизводительного сетевого оборудования и HPC интерконнекта. https://www.scientific-computing.com/news/nvidia-acquire-mellanox-69-billion https://nvidianews.nvidia.com/news/nvidia-to-acquire-mellanox-for-6-9-billion