Серверы и системы хранения проверенных брендов с гарантией и поддержкой.
Более 100 моделей серверов и систем хранения от Dell, HPE, Lenovo и Huawei. Выбирайте по бренду, категории или поколению. Все позиции — под заказ напрямую со склада в Китае с доставкой в Казахстан.
В каталоге представлены стоечные серверы 1U и 2U для виртуализации, VDI и облачных нагрузок, высокоплотные GPU-серверы для AI и ML (NVIDIA H100, H200, L40S, A100), корпоративные СХД All-Flash и гибридные массивы. Характеристики каждой модели включают тип процессора, объём памяти, конфигурацию накопителей и форм-фактор.
Заказать сервер в Алматы можно через форму запроса — укажите модель или опишите задачу, и мы подготовим коммерческое предложение. Для нестандартных конфигураций используйте онлайн-конфигуратор GPU-серверов.
Флагман с интегрированными 8-GPU модулями для обучения нейросетей.
4U с до 10 DW GPU для AI-инференса.
2U GPU-сервер с DDR5 и PCIe 5.0.
4U GPU-сервер для AI-инференса.
Флагман для суперкомпьютерных кластеров.
Супервычислительная платформа с DLC.
4U AI-платформа V4 с новейшими GPU.
2U AI-оптимизированная версия SR650 V4.
HPC-узел AMD + NVIDIA GPU с Neptune.
HPC-узел на AMD EPYC с Neptune.
Узел с NVIDIA GPU и Neptune DWC.
Узел с Xeon Max Series (HBM) и Neptune.
Узел с прямым жидкостным охлаждением Neptune.
4U AI-сервер с DLC для обучения LLM.
4U AI-платформа на AMD EPYC + 8× NVIDIA H100/H200.
4U AI-платформа с 8× SXM5 GPU.
5U жидкостное охлаждение, 8× NVIDIA H200 / B200 (Blackwell).
Компонуемый HPC-модуль для AI-кластеров.
2U на NVIDIA GH200 NVL2 (Grace CPU + Hopper GPU).
4U AI-версия с NVIDIA GH200 NVL2 поддержкой.
HPC-узел для Apollo 2000 Gen10.
Вариант Server 9712 с увеличенной плотностью GPU.
Платформа с DLC для NVIDIA GB200 стоечных решений.
Флагманская платформа для суперкомпьютерных кластеров.
XE9785 с жидкостным охлаждением для дата-центров.
AI-платформа на AMD MI300X с DLC.
Экстремальная AI-платформа для обучения LLM, DLC.
Расширенная AI-платформа для LLM с 8 GPU.
Серверная платформа для обучения LLM нового поколения.
2U R770 для AI-инференса — до 6 GPU.
6U AMD MI300X платформа с жидкостным охлаждением.
6U жидкостное охлаждение XE9680 для дата-центров DLC.
6U флагман для обучения LLM — 8× NVIDIA H100/H200.
2U жидкостное охлаждение с 4× NVIDIA H100.
4U AI-платформа с 4× NVIDIA H100.
4U сервер для AI с AMD EPYC + 4× NVIDIA A100.
4U AI-платформа для распределённого обучения.
2U специализированный сервер для AI-инференса и аналитики.