Mellanox Сетевое оборудование MCX653105A - ECAT low profile Сетевой адаптер CONNECTX - 6 VPI

Артикул: 1571963446
39 245 ₽
Цена для юридических лиц с учетом НДС 22%
Сумма заказа:
39 245 ₽
 
Описание
Отзывы 0

Сетевой адаптер NVIDIA Mellanox MCX653105A-ECAT ConnectX-6 VPI — высокопроизводительная сетевая карта 100 Гбит/с для ЦОД и HPC

NVIDIA Mellanox MCX653105A-ECAT — это сетевой адаптер серии ConnectX-6 VPI (Virtual Protocol Interconnect) с поддержкой одного порта QSFP56, обеспечивающего скорость до 100 Гбит/с для протоколов InfiniBand (HDR100, EDR) и Ethernet (100GbE) [citation:1][citation:4]. Карта выполнена в низкопрофильном форм-факторе (low profile) и предназначена для установки в серверы и рабочие станции, требующие максимальной пропускной способности и минимальных задержек для высокопроизводительных вычислений (HPC), искусственного интеллекта, облачных платформ и систем хранения данных.

Основные характеристики

  • Модель: MCX653105A-ECAT (также известна как MCX653105A-ECAT-SP) [citation:5]
  • Порты: 1 × QSFP56 [citation:4][citation:9]
  • Скорость передачи данных: до 100 Гбит/с (HDR100 InfiniBand / 100GbE) [citation:1][citation:4]
  • Протоколы: InfiniBand (HDR100, EDR, FDR, QDR, DDR, SDR) и Ethernet (100/50/40/25/10 Гбит/с) [citation:1][citation:4]
  • Интерфейс хоста: PCIe 3.0/4.0 x16 [citation:1][citation:4]
  • Форм-фактор: Низкопрофильный (low profile), совместимый со стандартными и малыми корпусами [citation:2][citation:5]
  • Кронштейны: В комплекте высокий (tall bracket) и низкий (low-profile) кронштейн [citation:2][citation:8]
  • Размеры платы: 6.6 x 2.71 дюйма (167.65 x 68.90 мм) [citation:9]
  • Типовое энергопотребление: 15.6 Вт (с пассивными кабелями) [citation:10]
  • Рабочая температура: 0°C до 55°C (зависит от воздушного потока) [citation:9][citation:10]

Назначение

Сетевой адаптер MCX653105A-ECAT предназначен для использования в центрах обработки данных (ЦОД), высокопроизводительных вычислительных кластерах (HPC), платформах искусственного интеллекта (AI) и машинного обучения, а также в высоконагруженных системах хранения данных (NVMe over Fabrics) [citation:1][citation:5]. Благодаря поддержке технологии Virtual Protocol Interconnect (VPI), карта может работать как в сетях InfiniBand, так и в стандартных Ethernet-средах, обеспечивая гибкость при построении инфраструктуры [citation:1].

Совместимость и сферы применения

Адаптер совместим с широким спектром серверных платформ на базе процессоров x86 (Intel/AMD), IBM POWER, ARM, а также с системами с GPU-ускорением (NVIDIA) [citation:1]. Основные сценарии использования:

  • Высокопроизводительные вычисления (HPC) — межсоединение узлов кластера с низкой задержкой
  • Искусственный интеллект и глубокое обучение — ускорение распределенного обучения моделей
  • Системы хранения данных — NVMe over Fabrics (NVMe-oF) Target Offloads [citation:1]
  • Облачные платформы и виртуализация — поддержка SR-IOV, VXLAN, NVGRE [citation:1][citation:8]
  • Высокочастотный трейдинг (HFT) — минимальные задержки передачи данных

Возможности

  • Технология Virtual Protocol Interconnect (VPI) — поддержка InfiniBand и Ethernet на одном порту с автоматическим переключением [citation:1]
  • Поддержка RDMA (Remote Direct Memory Access) — RoCE v2 и InfiniBand для обхода CPU при передаче данных [citation:8]
  • Аппаратное ускорение NVMe over Fabrics (NVMe-oF) — разгрузка операций Target [citation:1]
  • Аппаратное шифрование — поддержка AES-XTS 256/512 для защиты данных на лету [citation:1][citation:5]
  • Виртуализация I/O — поддержка SR-IOV для изоляции виртуальных функций (VF) [citation:1][citation:8]
  • Overlay Network Offload — аппаратная обработка VXLAN, NVGRE, Geneve [citation:1][citation:8]
  • PeerDirect — ускорение коммуникаций GPU-GPU и GPU-сеть [citation:1]
  • Безопасная загрузка (Secure Boot) и аппаратный корень доверия (Hardware Root-of-Trust) [citation:8]

Особенности

  • VPI (Virtual Protocol Interconnect) — адаптер может работать как в InfiniBand-сетях (HDR100, EDR), так и в Ethernet-средах (100GbE), что позволяет использовать одно устройство для разных типов инфраструктуры [citation:1].
  • HDR100 InfiniBand — технология, обеспечивающая 100 Гбит/с на порт с использованием двух линий по 50 Гбит/с, что идеально для баланса производительности и энергопотребления [citation:1][citation:9].
  • Низкая задержка — адаптер обеспечивает задержку менее 600 нс и до 215 миллионов сообщений в секунду [citation:1][citation:4].
  • PCIe 4.0 поддержка — использование шины PCIe 4.0 x16 обеспечивает пропускную способность до 64 ГБ/с между адаптером и хостом [citation:1][citation:4].
  • Гибкость установки — карта поставляется с высоким (tall) и низким (low-profile) кронштейном, что позволяет устанавливать её как в стандартные серверные стойки, так и в компактные корпуса [citation:2][citation:8].
  • Энергоэффективность — типовое энергопотребление составляет всего 15.6 Вт с пассивными кабелями [citation:10].
  • Требования к охлаждению — для работы при 55°C необходим воздушный поток не менее 300 LFM (линейных футов в минуту) [citation:10].

Технические характеристики

Сетевые протоколы и скорости

  • InfiniBand: HDR100 (100 Гбит/с), EDR (100 Гбит/с), FDR (56 Гбит/с), QDR (40 Гбит/с), DDR (20 Гбит/с), SDR (10 Гбит/с) [citation:1][citation:4]
  • Ethernet: 100GbE, 50GbE, 40GbE, 25GbE, 10GbE [citation:1][citation:4]

Интерфейс хоста

  • Тип: PCI Express 3.0/4.0 x16 [citation:1][citation:4]
  • Скорость передачи (PCIe 4.0): до 64 ГБ/с (16 линий × 16 GT/s × 8/10 кодирование) [citation:10]
  • Обратная совместимость: PCIe 3.0 (8 GT/s), PCIe 2.0 (5 GT/s), PCIe 1.1 (2.5 GT/s) [citation:10]

Порт и разъемы

  • Количество портов: 1 [citation:4][citation:9]
  • Тип разъема: QSFP56 (совместим с QSFP28, QSFP+) [citation:1][citation:4]
  • Поддержка кабелей: медные (пассивные/активные) и оптические (активные) [citation:9][citation:10]

Программное обеспечение и драйверы

  • Операционные системы: Linux (RHEL, Ubuntu, SLES, Debian), Windows Server, FreeBSD, VMware ESXi [citation:1]
  • Стек протоколов: OFED (OpenFabrics Enterprise Distribution) для InfiniBand и RoCE [citation:1]

Комплектация и опции

Стандартная комплектация адаптера MCX653105A-ECAT включает: сетевую карту ConnectX-6 VPI, высокий кронштейн (tall bracket), низкий кронштейн (low-profile bracket) для установки в компактные корпуса [citation:2][citation:8]. Кабели (медные или оптические) и трансиверы QSFP56 приобретаются отдельно, в зависимости от требуемой среды передачи.

Для работы необходимо установить карту в слот PCIe x16, совместимый с PCIe 3.0 или 4.0, и обеспечить достаточный воздушный поток (рекомендуется 300 LFM для максимальной производительности при 55°C) [citation:10].

Где применяется Mellanox MCX653105A-ECAT

  • Центры обработки данных (ЦОД) — высокоскоростные магистральные соединения
  • Высокопроизводительные вычислительные кластеры (HPC) — межсоединение узлов с низкой задержкой
  • Платформы искусственного интеллекта (AI/ML) — распределенное обучение нейронных сетей
  • Системы хранения данных (NVMe-oF) — высокопроизводительные хранилища с прямым доступом по сети
  • Финансовый сектор (HFT) — алгоритмическая торговля с минимальными задержками
  • Облачные провайдеры — виртуализация сетевых функций (NFV) и изоляция tenant-ов [citation:1]

Почему стоит выбрать Mellanox MCX653105A-ECAT

  • Высокая пропускная способность — 100 Гбит/с на порт для InfiniBand и Ethernet [citation:1][citation:4]
  • Низкая задержка — менее 600 нс, до 215 млн сообщений в секунду [citation:1][citation:4]
  • Гибкость протоколов — VPI позволяет использовать одну карту в InfiniBand или Ethernet сетях [citation:1]
  • Современный интерфейс — PCIe 4.0 x16 для максимальной пропускной способности [citation:1][citation:4]
  • Аппаратное ускорение — NVMe-oF, RDMA, шифрование, overlay сети [citation:1][citation:5]
  • Энергоэффективность — всего 15.6 Вт типового потребления [citation:10]
  • Универсальность установки — комплектные высокий и низкий кронштейны [citation:2][citation:8]
  • Поддержка виртуализации — SR-IOV, VXLAN, NVGRE для облачных сред [citation:1][citation:8]
  • Надежность — рабочая температура до 55°C, поддержка ECC и защита данных [citation:9][citation:10]

Часто задаваемые вопросы

E-E-A-T и B2B-релевантность

NVIDIA Mellanox MCX653105A-ECAT представляет собой экспертное (Expertise) решение для высокопроизводительных сетей в центрах обработки данных и HPC-кластерах. Компания NVIDIA (Mellanox) является признанным мировым авторитетом (Authoritativeness) в области InfiniBand и высокоскоростных Ethernet-адаптеров, занимая лидирующие позиции в сегменте межсоединений для суперкомпьютеров и AI-инфраструктуры [citation:1]. Серия ConnectX-6 широко используется в топ-500 суперкомпьютерах и облачных платформах ведущих провайдеров.

B2B-ориентация этого продукта выражается в его специализированных функциях: поддержка RDMA для обхода CPU, аппаратное ускорение NVMe-oF, виртуализация SR-IOV и аппаратное шифрование. Эти возможности критически важны для построения масштабируемой и безопасной инфраструктуры в организациях, работающих с большими данными, AI-моделями и высокочастотными транзакциями.

Рекомендуется при выборе кабелей для адаптера учитывать необходимую длину соединения: для коротких расстояний (до 5-7 метров) подходят пассивные медные DAC-кабели, для больших расстояний — активные оптические кабели (AOC) или трансиверы с отдельными патч-кордами. Для обеспечения максимальной производительности рекомендуется устанавливать карту в слот PCIe 4.0 x16 и обеспечить достаточный воздушный поток в корпусе сервера (рекомендуется 300 LFM) [citation:10].

Здесь еще никто не оставлял отзывы. Вы можете быть первым!
Перед публикацией отзывы проходят модерацию.

Нажимая на кнопку «Отправить» вы принимаете условия Публичной оферты.

Аналогичные товары
Вы смотрели
Заявка

Я ознакомлен и согласен с условиями оферты и политики конфиденциальности.

Заказ в один клик