설립 초기부터 Marvell은 다양한 애플리케이션과 다양한 워크로드에서 요구하는 서비스 수준을 충족하는 제품을 구축함으로써 인프라 네트워킹에 중점을 두었습니다. IT 설계자는 SSD, 플래시, 크기 조정 가능한 데이터베이스 및 가상화를 지원하기 위해 유연성과 확장성을 제공하는 지능형 기술을 찾아야 합니다. Marvell은 기본 VMware vSphere 및 ESXi를 지원하는 FC(FC-NVMe)를 통해 NVMe-oF를 위한 FC 마이그레이션 전략을 사용하는 FC(Fibre Channel)가 스토리지 전송을 위한 이동 기술이라고 굳게 믿고 있습니다. 이 기술은 현재 사용할 수 있지만 많은 고객에게 분명하지 않습니다.
설립 초기부터 Marvell은 다양한 애플리케이션과 다양한 워크로드에서 요구하는 서비스 수준을 충족하는 제품을 구축함으로써 인프라 네트워킹에 중점을 두었습니다. IT 설계자는 SSD, 플래시, 크기 조정 가능한 데이터베이스 및 가상화를 지원하기 위해 유연성과 확장성을 제공하는 지능형 기술을 찾아야 합니다. Marvell은 기본 VMware vSphere 및 ESXi를 지원하는 FC(FC-NVMe)를 통해 NVMe-oF를 위한 FC 마이그레이션 전략을 사용하는 FC(Fibre Channel)가 스토리지 전송을 위한 이동 기술이라고 굳게 믿고 있습니다. 이 기술은 현재 사용할 수 있지만 많은 고객에게 분명하지 않습니다.
NVMe-oF 입문서
Marvell은 주로 FC가 안정성과 혁신의 역사를 가지고 있기 때문에 FC가 스토리지 네트워크의 표준으로 남을 것이라고 믿습니다. 파이버 채널에 NVMe-oF 기술을 접목하여 기업에 추가적인 가치를 제공함으로써 FC의 가치를 높이고 있습니다. Marvell은 EBOF, FC-NVMe, DPU, SSD 컨트롤러 및 NVMe-oF를 지원하는 심도 있는 제품 포트폴리오를 위해 혁신을 주도해 왔습니다. 이러한 풍부한 제품 라인업과 네트워킹 기술에 대한 관심으로 Marvell은 VMware ESXi 환경 내에서 FC-NVMe, NVMe/TCP, NVMe-RoCEv2에 초점을 맞춘 몇 가지 성능 테스트를 수행하기 위해 실험실로 우리를 초대했습니다.
공급업체가 NVMe 프로토콜 기반 스토리지를 계속 출시함에 따라 기업은 이 기술을 완전히 수용하고 있습니다. NVMe 플래시 어레이는 안정성, 성능 및 보안에 대해 입증된 기술이기 때문에 파이버 채널을 선호하는 전송으로 사용하여 많은 데이터 센터에서 전 세계적으로 배포됩니다. NVMe-oF는 NVMe 작업 그룹이 2.0년 말에 발표된 NVMe 2021 사양에 표준을 적용하면서 인기가 높아졌습니다.
NVMe-oF 표준이 성숙해짐에 따라 공급업체는 이 기술을 스토리지 및 전송 하드웨어에 통합하여 배포 문제를 완화하고 있습니다. NVMe over Ethernet 프로토콜은 일반적으로 이더넷 네트워크에 연결되는 소프트웨어 정의 및 HCI 어플라이언스에서 사용됩니다. SAN에서 현재 Fibre Channel을 사용하는 조직은 FC-NVMe로 전환할 것이며 iSCSI를 사용하는 조직은 NVMe/TCP로 전환할 가능성이 높습니다.
수십 년 동안 FC는 설계가 블록 스토리지 워크로드의 성능 및 대기 시간 요구 사항을 충족하기 때문에 미션 크리티컬 및 비즈니스 크리티컬 환경을 위한 기술이었습니다. FC는 빡빡한 조건을 충족하도록 지원합니다. 기본 스토리지 인프라의 성능과 가용성에 매우 민감한 미션 및 비즈니스 크리티컬 워크로드를 위한 SLA. 워크로드의 크기가 증가했고 이는 인프라 확장성에 영향을 미쳤습니다. 물론 이러한 워크로드가 증가함에 따라 주요 초점 중 하나는 스토리지 시스템에 대한 액세스입니다. 파이버 채널을 통한 NVMe는 다양한 성능, 대기 시간 및 안정성 이점을 제공합니다. 지속적이고 예측 가능한 스토리지 성능을 위해서는 Fibre Channel과의 원활한 통합 및 호환성이 필요합니다.
IT 인프라 패브릭을 구축하기 위한 다른 옵션에는 이더넷과 Infiniband가 있습니다. 그러나 파이버 채널 고유의 기능은 NVMe 메트릭을 충족하기 위한 차세대 인프라 성능 및 확장성 요구를 가장 잘 해결할 수 있습니다. 파이버 채널 패브릭은 1994년에 ANSI 표준이 발표된 이후로 잘 확립되어 왔으며 지속적으로 발전하여 파이버 채널이 여전히 스토리지 네트워크를 위한 최고의 네트워크 기술임을 입증하고 있습니다. 또한 NVMe over FC는 동일한 네트워크에서 NVMe와 SCSI를 동시에 지원할 수 있습니다.
조직이 AI/ML과 같은 더 까다로운 워크로드로 전환함에 따라 FC를 통한 NVMe는 네트워크 성능과 짧은 대기 시간에 대한 예측 가능성을 제공합니다. 공급업체는 FC-NVMe, SCSI/FC 및 기본 SAN 패브릭을 동시에 지원하는 스위치 기술을 제공하고 있습니다. FC-NVMe를 지원하는 네트워크 구성 요소 통합은 매우 간단하며 일반적으로 추가 하드웨어가 필요하지 않습니다. 현재 구현이 16GFC 이상에서 작동하는 FC SAN인 경우 NVMe 명령이 FC에 캡슐화됩니다. NVMe 대상 디스크를 변경하거나 추가하는 것 외에도 HBA 또는 시스템 OS에 대한 펌웨어 또는 드라이버 업데이트가 있을 수 있습니다.
VMware 및 FC-NVMe
VMware ESXi 7.0+는 FC-NVMe(NVMe over Fibre Channel) 및 NVMe-RoCE(NVMe over RDMA Converged Ethernet)를 지원합니다. NVMe-RDMA와 NVMe-RoCE는 본질적으로 동일하며 때때로 상호 교환이 가능합니다. VMware는 최근 NVMe/TCP를 지원하는 ESXi 7.0 U3를 출시했습니다. VMware vSphere 또는 ESXi 환경에서 실행되는 워크로드, FC-NVMe 통합은 간단하고 기존 FC 구현과 유사합니다. 다음 스크린샷은 FC 및 FC-NVMe를 지원하도록 HBA를 구성하는 유사점을 보여줍니다.
사용 Marvell QLogic QLE2772 듀얼 포트 32Gb FC 어댑터 및 NetApp AFF A250을 사용하여 기존 FC LUN 및 NVMe 네임스페이스를 제공함으로써 최종 사용자가 각 스토리지 유형을 프로비저닝하는 것이 얼마나 원활한지 보여줄 수 있습니다. 파이버 채널 패브릭에서 VMware 호스트로 적절하게 조닝된 스토리지를 사용하여 동일한 워크플로우로 데이터 저장소를 생성합니다.
배후에서 듀얼 포트 카드는 2개의 장치로 나타납니다. 3개는 기존 FC 스토리지용이고 나머지는 NVMe용입니다. 스크린샷에서 vmhba67/68은 표준 FC 장치이고 vmhba7/1은 NVMe용입니다. 내장 드라이버 및 현재 펌웨어와 함께 VMware ESXi XNUMX에 자동으로 나타나며 고유한 설치가 필요하지 않습니다. VMware 설명서에서는 설치 중에 기본값을 수락할 것을 권장합니다. 첫 번째 보기에서는 기존 파이버 채널 장치가 선택되어 "사용되지 않음"인 XNUMXTB NetApp 파이버 채널 디스크를 보여줍니다.
보기를 Marvell QLogic NVMe 보기로 전환하면 소비되지 않은 또 다른 1TB NVMe 파이버 채널 디스크가 표시됩니다. vSphere 출력에는 시스템이 LUN에 액세스하는 방법을 정의하는 네임스페이스 및 컨트롤러에 대한 옵션이 포함됩니다.
NVMe 네임스페이스 보기에는 일반적으로 여러 장치가 표시됩니다. 그러나 테스트에서 단일 1TB 장치를 프로비저닝했습니다.
컨트롤러 보기 아래에 NetApp ONTAP NVMe 컨트롤러가 표시되어 매핑된 호스트에 장치를 표시합니다. "컨트롤러 추가" 옵션을 사용하여 새 컨트롤러를 수동으로 추가할 수 있지만 VMware ESXi 7은 지정된 FC WWN에 적절하게 영역 지정될 때 이를 자동으로 검색합니다.
다음 단계에는 스토리지 구성이 포함됩니다. ESXi는 "새 데이터 저장소" 도구를 제공하여 시스템에 쉽게 추가할 수 있습니다. 호스트 설정에서 옵션으로 사용할 수 있는 FC 및 FC-NVMe 스토리지 유형이 모두 있어 최종 사용자가 프로세스를 구성하는 데 얼마나 어려움이 없는지 보여줍니다. 먼저 테스트용 NVMe 장치를 선택하여 적절한 이름의 데이터 저장소를 만들고 다음 단계로 이동합니다.
NVMe 데이터 저장소에는 사용자가 VMFS 6 또는 레거시 VMFS 5 버전 중에서 선택할 수 있는 동일한 VMFS 선택 프로세스가 있습니다.
다음으로, 장치에서 사용 가능한 전체 공간을 사용하여 디스크가 데이터 저장소용으로 분할됩니다.
이러한 몇 단계 후에 새 FC-NVMe 데이터 저장소를 생성할 차례입니다. 프로세스 전체에서 ESXi는 이 프로세스를 올바르게 수행하는 데 도움이 되는 주요 정보를 표시합니다.
FC 스토리지를 생성하는 단계는 위에서 설명한 FC-NVMe와 동일합니다. 먼저 사용 가능한 FC 장치를 선택합니다.
그런 다음 VMFS 버전을 선택합니다.
VMFS 버전을 선택한 상태에서 다음 단계는 디바이스에서 사용 가능한 모든 공간을 사용하여 데이터 저장소를 분할하는 것입니다.
요약 화면의 출력에는 NVMe 파이버 채널 장치 대신 NetApp 파이버 채널 장치가 표시되지만 이 지점에 도달하는 워크플로우는 둘 다 동일합니다.
생성한 새 데이터 저장소가 호스트의 데이터 저장소 목록에 표시되고 VM 스토리지에 사용할 준비가 되었습니다.
FC-NVMe 성능
FC-NVMe 대 NVMe-RoCE 대 NVMe/TCP 간의 전반적인 성능을 설명하기 위해 Marvell은 경량, 중형 및 고중량 워크로드를 기준으로 결과를 측정했습니다. 성능 결과는 NVMe/TCP가 FC-NVMe 및 NVMe-RoCE보다 뒤쳐지는 세 가지 워크로드 모두에서 상당히 일관되었습니다. 테스트 레이아웃은 아래와 같이 구성되었습니다.
가벼운 워크로드를 실행할 때 대기 시간 분석은 TCP 고유의 대기 시간을 강조했습니다. 무작위 블록 크기를 측정할 때 NVMe-RoCE가 성능이 뛰어났고 FC-NVMe가 그 뒤를 바짝 추격했습니다. 시뮬레이션된 8K 읽기를 실행하는 NVMe/TCP는 FC-NVMe의 패브릭 대기 시간이 거의 두 배였습니다.
FC-NVMe와 NVMe/TCP를 비교하는 중간 워크로드를 실행하는 환경에서 FC-NVMe는 고성능이었습니다. FC-NVMe가 NVMe/TCP보다 약 127% 더 많은 트랜잭션을 제공하는 결과는 인상적이었습니다. 대기 시간 수치는 NVMe/TCP보다 대기 시간이 56% 낮은 FC-NVMe 우세를 반영했습니다.
과중한 워크로드 시뮬레이션에서 실행되는 스트레스 수준을 측정한 FC-NVMe는 이더넷 기반 패브릭보다 지속적으로 우수한 성능을 보였습니다. FC-NVMe는 NVMe/TCP보다 50% 더 높은 대역폭을 제공했지만, 더 중요한 것은 VMware ESXi 서버가 더 많은 VM을 호스팅할 수 있도록 CPU 주기를 상당히 낮춰야 했습니다.
최종 생각
가상화된 환경 내에서 FC와 NVMe-oF를 모두 구성하는 단순성은 위의 스크린샷에 설명되어 있습니다. 대부분의 사용자는 ESXi 시스템에서 FC와 FC-NVMe를 모두 쉽게 구현할 수 있다는 것을 완전히 인식하지 못합니다. VMware는 새로운 복잡성을 도입하지 않고도 신뢰할 수 있는 FC 이점을 구성하고 관리할 수 있는 간단한 옵션을 제공합니다.
우리 연구실에서는 연결의 용이성을 강조하기 위해 NetApp 하드웨어를 사용했지만 FC NVMe-oF를 지원하는 다양한 다른 공급업체가 있습니다. Marvell은 공급업체 목록을 작성하여 웹사이트에 게시했습니다. 전체 목록을 보려면 클릭하십시오. LINK.
Marvell FC-NVMe 어댑터에 대한 자세한 내용은 다음을 클릭하여 해당 웹 사이트를 방문하십시오. LINK. 또한 NVM Express 사이트로 이동하여 최신 사양을 확인하고 NVMe의 다음 단계를 확인할 수 있습니다. LINK.
이 보고서는 Marvell의 후원을 받았습니다. 이 보고서에 표현된 모든 견해와 의견은 고려 중인 제품에 대한 우리의 공정한 견해를 기반으로 합니다.
StorageReview에 참여
뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 페이스북 | RSS 피드