Серверы і сістэмы захоўвання правераных брэндаў з гарантыяй і падтрымкай.
Больш за 100 мадэляў сервераў і сістэм захоўвання ад Dell, HPE, Lenovo і Huawei. Выбірайце па брэнду, катэгорыі ці пакаленню. Усе пазіцыі - пад заказ напрамую са склада ў Кітаі з дастаўкай у Беларусь.
У каталогу прадстаўлены стойкавыя серверы 1U і 2U для віртуалізацыі, VDI і хмарных нагрузак, высокашчыльныя GPU-серверы для AI і ML (NVIDIA H100, H200, L40S, A100), карпаратыўныя СХД All-Flash і гібрыдныя масівы. Характарыстыкі кожнай мадэлі ўключаюць тып працэсара, аб'ём памяці, канфігурацыю назапашвальнікаў і формаў-фактар.
Замовіць сервер у Мінску можна праз форму запыту — укажыце мадэль або апішыце задачу, і мы падрыхтуем камерцыйную прапанову. Для нестандартных канфігурацый выкарыстоўвайце анлайн-канфігуратар GPU-сервераў.
Флагман з інтэграванымі 8-GPU модулямі для навучання нейрасетак.
4U з да 10 DW GPU для AI-інферэнсу.
2U GPU-сервер з DDR5 і PCIe 5.0.
4U GPU-сервер для AI-інферэнсу.
Флагман для суперкампутарных кластараў.
Супервылічальная платформа з DLC.
4U AI-платформа V4 з найноўшымі GPU.
2U AI-аптымізаваная версія SR650 V4.
HPC-вузел AMD + NVIDIA GPU з Neptune.
HPC-вузел на AMD EPYC з Neptune.
Вузел з NVIDIA GPU і Neptune DWC.
Вузел з Xeon Max Series (HBM) і Neptune.
Вузел з прамым вадкасным астуджэннем Neptune.
4U AI-сервер з DLC для навучання LLM.
4U AI-платформа на AMD EPYC + 8× NVIDIA H100/H200.
4U AI-платформа з 8× SXM5 GPU.
5U вадкаснае астуджэнне, 8× NVIDIA H200 / B200 (Blackwell).
Кампануемы HPC-модуль для AI-кластэраў.
2U на NVIDIA GH200 NVL2 (Grace CPU + Hopper GPU).
4U AI-версія з NVIDIA GH200 NVL2 падтрымкай.
HPC-вузел для Apollo 2000 Gen10.
Варыянт Server 9712 з павялічанай шчыльнасцю GPU.
Платформа з DLC для NVIDIA GB200 стойкавых рашэнняў.
Флагманская платформа для суперкампутарных кластараў.
XE9785 з вадкасным астуджэннем для дата-цэнтраў.
AI-платформа на AMD MI300X з DLC.
Экстрэмальная AI-платформа для навучання LLM, DLC.
Пашыраная AI-платформа для LLM з 8 GPU.
Серверная платформа для навучання LLM новага пакалення.
2U R770 для AI-інферэнсу – да 6 GPU.
6U AMD MI300X платформа з вадкасным астуджэннем.
6U вадкаснае астуджэнне XE9680 для дата-цэнтраў DLC.
6U флагман для навучання LLM - 8× NVIDIA H100/H200.
2U вадкаснае астуджэнне з 4× NVIDIA H100.
4U AI-платформа з 4× NVIDIA H100.
4U сервер для AI з AMD EPYC + 4× NVIDIA A100.
4U AI-платформа для размеркаванага навучання.
2U спецыялізаваны сервер для AI-інферэнсу і аналітыкі.