ホーム Enterprise Mellanox が 100 Gb/s スループットの Connect-IB ホスト チャネル アダプタ カードを発表

Mellanox が 100 Gb/s スループットの Connect-IB ホスト チャネル アダプタ カードを発表

by マーク・キッド

Mellanox Technologies は、最大 100Gb/s、サブマイクロ秒の待ち時間、および 130 秒あたり 3.0 億 16 万のメッセージを提供するホスト チャネル アダプタ カード シリーズである Connect-IB を発表しました。 Connect-IB は、PCI Express XNUMX xXNUMX と FDR InfiniBand を使用して、CPU プロトコル処理とデータ移動をインターコネクトにオフロードし、サーバーごとに数百の仮想マシンが存在するマルチテナント環境向けに最適化されています。


Mellanox Technologies は、最大 100Gb/s、サブマイクロ秒の待ち時間、および 130 秒あたり 3.0 億 16 万のメッセージを提供するホスト チャネル アダプタ カード シリーズである Connect-IB を発表しました。 Connect-IB は、PCI Express XNUMX xXNUMX と FDR InfiniBand を使用して、CPU プロトコル処理とデータ移動をインターコネクトにオフロードし、サーバーごとに数百の仮想マシンが存在するマルチテナント環境向けに最適化されています。

Connect-IB 製品ラインは、x3.0 および x8 ホスト バス インターフェイスのオプションを備えた PCI Express 16 用のシングル ポート アダプタとデュアル ポート アダプタ、および PCI Express 2.0 x16 用のシングル ポート アダプタで構成されています。各ポートは、56us 未満の MPI ping 遅延で FDR 1Gb/s InfiniBand をサポートします。すべての Mellanox HCA は、トランスポート操作の CPU オフロードをサポートしています。

Connect-IBの主な機能

  • InfiniBand 経由で 100Gb/s 以上
  • 130 億 XNUMX 万メッセージ/秒を超える
  • 1us MPI ping 遅延
  • トランスポート操作のCPUオフロード
  • アプリケーションのオフロード
  • GPU通信高速化
  • 動的トランスポート操作のサポート
  • 不連続メモリ転送を含む新しいデータ操作
  • エンドツーエンドの QoS と輻輳制御
  • ハードウェアベースのI/O仮想化
  • RoHS-R6

ビッグ データ分析やインメモリ コンピューティングなどの新しいアプリケーションと、Intel の Romley などの次世代コンピューティング サーバーは、並列実行と RDMA (リモート ダイレクト メモリ アクセス) の恩恵を受けます。 Connect-IB アダプターは Windows および Linux ディストリビューションでサポートされ、OpenFabrics ベースの RDMA プロトコルとソフトウェアを提供します。

利用状況
アダプター カードは現在、一部の顧客向けにサンプル提供中です。一般提供は 3 年第 2012 四半期の予定です。

Mellanox Connect-IB

この話を話し合う