La plate-forme logicielle ION Data Accelerator de Fusion-io exploite le stockage flash ioMemory et le matériel de serveur ouvert pour accélérer les performances des applications et du SAN via le partage ou la mise en cluster du flash PCIe haute vitesse. ION Data Accelerator est conçu pour être utilisé avec le matériel de serveur de niveau 1 d'un certain nombre de grands fournisseurs, où il fonctionne comme un accélérateur d'application qui prend en charge les protocoles de stockage de blocs, notamment Fibre Channel 8/16 Go, QDR/FDR InfiniBand et iSCSI 10 Gbit.
La plate-forme logicielle ION Data Accelerator de Fusion-io exploite le stockage flash ioMemory et le matériel de serveur ouvert pour accélérer les performances des applications et du SAN via le partage ou la mise en cluster du flash PCIe haute vitesse. ION Data Accelerator est conçu pour être utilisé avec le matériel de serveur de niveau 1 d'un certain nombre de grands fournisseurs, où il fonctionne comme un accélérateur d'application qui prend en charge les protocoles de stockage de blocs, notamment Fibre Channel 8/16 Go, QDR/FDR InfiniBand et iSCSI 10 Gbit.
Les capacités d'ION Data Accelerator en tant qu'appliance d'accélération d'applications peuvent être pleinement exploitées lorsqu'elles sont utilisées conjointement avec une plate-forme de serveur comme le Supermicro X9DRX+-F qui est conçu pour des performances maximales sur tous ses emplacements PCIe disponibles. Cet examen se concentrera sur les performances de ION Data Accelerator lorsqu'il est utilisé avec la carte mère X9DRX+-F dans un SuperChassis 747 ainsi que les cartes PCIe ioScale de 3.2 To de Fusion-io. Afin de nous assurer que les performances du réseau ne constituent pas un goulot d'étranglement, nous utiliserons deux adaptateurs HBA 16 Go QLogic série 2600 à double port pour la connectivité SAN.
ioScale a commencé comme une solution d'accélération d'applications disponible uniquement en grande quantité pour les applications d'entreprise. Plus récemment, Fusion-io a rendu les cartes ioScale disponibles en plus petites quantités, à la portée d'un éventail de clients beaucoup plus large. Les solutions ION Data Accelerator avec ioScale contrastent avec le SAN et l'accélération des applications via SSD et le stockage hiérarchisé. En théorie, une solution PCIe peut faire évoluer les performances avec moins d'investissements dans de nouveaux équipements et infrastructures que ne l'exigent les architectures concurrentes basées sur SSD. En d'autres termes, si l'approche d'accélérateur d'applications de Fusion-io peut fournir une accélération plus ciblée que le stockage SSD, ils devraient continuer à trouver de nouveaux clients pour cette technologie même s'il y a une prime de prix pour ioScale lorsqu'il est vu en termes de gigaoctet.
ION Data Accelerator améliore les performances du réseau de stockage non seulement en gérant les demandes d'E/S les plus exigeantes et en conservant des copies des données à chaud afin d'éviter la latence des disques durs, mais également en libérant les baies de stockage de la nécessité de gérer des caches ou des niveaux à haute vitesse. . Ces exigences de débit plus légères peuvent améliorer les performances des baies de stockage de masse sous-jacentes. ION Data Accelerator s'intègre à la solution de mise en cache ioTurbine de Fusion-io, qui fournit une accélération en lecture et en écriture.
Configuration système requise pour l'accélérateur de données ION
- Serveurs supportés
- Dell : PowerEdge R720, PowerEdge R420
- HP : ProLiant DL370 G6, ProLiant DL380 G7, ProLiant DL380p Gen8, ProLiant DL580 G7
- IBM : x3650 M4
- Supermicro : Superserveur 1026GT-TRF, Superserveur 1027GR-TRF, Superserveur 6037-TRXF
- Cisco : UCS C240 M3 (la prise en charge concerne les nœuds uniques)
- Configuration matérielle de base
- Contrôleurs de stockage
- Fibre Channel nécessite des adaptateurs de bus hôte (HBA) QLogic série 2500.
- InfiniBand nécessite des adaptateurs de canal hôte (HCA) Mellanox ConnectX-2 ou ConnectX-3 InfiniBand.
- iSCSI nécessite des cartes réseau iSCSI 10 Gbit d'Intel, Emulex, Mellanox ou Broadcom.
- ioMémoire
- ION Data Accelerator prend uniquement en charge ioMemory, y compris ioDrive, ioDrive Duo, ioDrive2, ioDrive2 Duo et ioScale.
- Tous les produits ioMemory de chaque système ION Data Accelerator doivent être identiques en termes de type et de capacité.
- Configuration minimale prise en charge : un ioDrive (pas de capacité RAID sauf si vous avez plus d'un ioDrive).
- RAM : ION Data Accelerator nécessite une base de 8 Go plus 5 Go par To d'ioMemory. Par exemple, si vous avez 4.8 To d'ioMemory, votre système devrait avoir 8 Go + 4.8 * 5 Go, ou 32 Go de RAM.
- Disques durs : Fusion-io recommande que les serveurs aient des disques durs en miroir pour le démarrage et les applications.
- Carte réseau de gestion : la carte réseau LOM de base incluse sur la plate-forme matérielle prise en charge est suffisante.
- Contrôleurs de stockage
- Exigences supplémentaires du système HA
- Un emplacement PCIe avec une interconnexion Mellanox ConnectX-40 3 Gbit disponible pour utilisation.
- Les deux ports d'interconnexion doivent être connectés.
- Chaque système ION Data Accelerator doit être configuré de manière identique avec des ioDrives de type et de capacités identiques.
- NTP (network time protocol) doit être implémenté
Direction
Les entreprises peuvent utiliser la gestion Fusion ioSphere avec ION Data Accelerator pour un contrôle centralisé à partir d'une interface utilisateur graphique et de la ligne de commande. ioSphere peut également assurer la surveillance et la gestion de tous les périphériques ioMemory du centre de données et rationaliser le suivi des informations sur la santé et l'espérance de vie d'ioMemory tout au long d'un déploiement.
ION Data Accelerator peut également être utilisé dans une configuration haute disponibilité avec une fonctionnalité basée sur un RAID intégré pour se protéger contre les pannes de composants et ainsi qu'un clustering de basculement actif/actif asymétrique pour se protéger contre les pannes du système. ION Data Accelerator HA peut être administré par l'interface graphique ioSphere et une interface de ligne de commande. ION Data Accelerator HA inclut des fonctionnalités de réplication basées sur le DRBD de Linbit qui réplique de manière synchrone chaque opération d'écriture sur une paire de nœuds ION Data Accelerator en cluster. Il exploite également les outils Corosync et Pacemaker pour la gestion des ressources du cluster et la messagerie en cas de panne.
Du point de vue de la convivialité, Fusion-io a réussi beaucoup de choses en rendant le processus de configuration assez facile à gérer pour les petits services informatiques sans être un expert en matière de stockage ou de mise en réseau. La configuration que nous avons testée utilisait une carte mère Supermicro X9DRX+-F avec 10 emplacements PCIe 3.0, nous permettant de remplir le serveur avec 8 SSD PCIe ioScale de 3.2 To ainsi que deux HBA FC 16 Go à double port. En utilisant la norme ISO 2.1.11, nous avons pu transformer un serveur nu en ION Accelerator en moins de 15 minutes.
Une fois que le système est opérationnel, la première étape consiste à créer un pool de stockage à partir duquel commencer à découper les LUN. Les utilisateurs ont le choix entre trois modes de stockage, dont RAID0, RAID10 et accès direct. Nous avons choisi RAID10 ou Reliable Performance pour notre environnement de test principal, qui offre toujours beaucoup de performances mais peut gérer une panne ioMemory sans perdre de données. Une fois ce pool de stockage en place, l'étape suivante consiste à provisionner les LUN pour votre environnement SAN.
Dans notre environnement de test, nous avons provisionné 12 LUN pour VMmark ainsi que des LUN supplémentaires pour les benchmarks synthétiques. Le processus était très simple, l'utilisateur saisissant simplement la capacité requise, le groupe initiateur qui accorde l'accès et la taille du secteur (qui peut être définie sur 512 octets ou 4K). L'interface permet de créer des LUN un par un, ou plusieurs dans un seul paramètre, pour déployer rapidement un environnement. L'étape suivante consiste à créer des groupes d'initiateurs pour que plusieurs interfaces FC puissent accéder à un LUN donné dans un environnement à chemins multiples ou virtualisé. Comme on peut le voir ci-dessous, nous avions nos initiateurs VMware dans un groupe et nos initiateurs Windows pour les tests FIO dans un autre.
Une fois l'environnement configuré et actif, ION Accelerator continue de fournir aux utilisateurs une multitude d'informations de gestion. Toute la surveillance des performances est stockée à des fins historiques, ce qui permet aux administrateurs de suivre les performances du réseau et des appareils jusqu'à l'IOP, ainsi que de suivre les éléments vitaux du système tels que l'endurance du flash ou les températures. Dans un exemple de rapport de test VMmark, le débit sur la période sélectionnée, ainsi que les vitesses de transfert moyennes et la surveillance thermique sont rapidement disponibles. Ces données peuvent également être réduites à des périphériques ioMemory spécifiques.
Pour des informations ioMemory plus détaillées, les utilisateurs peuvent accéder à des cartes spécifiques pour consulter les points de montage, l'endurance totale utilisée et d'autres informations détaillées.
Analyse des performances des applications
Le StorageReview Enterprise Lab emploie un Benchmark de virtualisation basé sur VMmark afin d'évaluer les périphériques de calcul et de stockage couramment utilisés dans les environnements virtualisés. La fonctionnalité avancée d'utilisation et de gestion PCIe d'ION Data Accelerator est destinée à améliorer les performances de ces environnements, ce qui en fait un candidat clair pour le benchmark VMware VMmark. Notre protocole VMmark utilise une gamme de sous-tests basés sur des charges de travail de virtualisation et des tâches administratives courantes avec des résultats mesurés à l'aide d'une unité basée sur des tuiles correspondant à la capacité du système à exécuter une variété de charges de travail virtuelles telles que le clonage et le déploiement de machines virtuelles, automatique Équilibrage de la charge des machines virtuelles dans un centre de données, migration en direct des machines virtuelles (vMotion) et relocalisation dynamique des datastores (storage vMotion).
En mesurant les performances d'ION Data Accelerator avec quatre cartes PCIe ioScale de 3.2 To, le score d'application VMmark 2.5.1 normalisé le plus élevé était de 15.40 avec 10 Tiles et le score global le plus élevé était de 12.66 avec 10 Tiles. À un carreau, le score d'application normalisé était de 1.7 tandis que le score global d'un carreau atteignait 1.58.
Benchmarks synthétiques d'entreprise
Notre processus de référence synthétique de stockage d'entreprise préconditionne chaque appareil dans un état stable avec la même charge de travail avec laquelle l'appareil sera testé sous une charge lourde de 16 threads avec une file d'attente exceptionnelle de 16 par thread, puis testé à des intervalles définis dans plusieurs threads/files d'attente profils de profondeur pour montrer les performances en utilisation légère et intensive.
Tests de préconditionnement et d'état stable primaire :
- Débit (agrégat IOPS lecture + écriture)
- Latence moyenne (latence de lecture + écriture moyennée ensemble)
- Latence maximale (latence maximale de lecture ou d'écriture)
- Écart-type de latence (écart-type de lecture + écriture moyenné ensemble)
Notre analyse d'ION Data Accelerator comprend quatre profils comparables à nos précédents benchmarks de stockage d'entreprise et des valeurs largement publiées telles que la vitesse de lecture et d'écriture maximale de 4k et 8k 70/30, qui est généralement publiée dans les spécifications et les benchmarks des fabricants.
- 4k
- 100 % de lecture et 100 % d'écriture
- 8k
- 100 % de lecture et 100 % d'écriture
- 70 % de lecture/30 % d'écriture
- 128K
- 100 % de lecture et 100 % d'écriture
La mesure du débit du système ION Data Accelerator dans nos tests 4k révèle des IOPS en lecture de 301,638 324,506 et des IOPS en écriture de 0 10 lorsqu'il est configuré dans une matrice RAID269,203 pour des performances maximales. Reconfiguré en tant que matrice RAID199,557, le système a maintenu une performance de lecture de XNUMX XNUMX IOPS tandis que la performance d'écriture était de XNUMX XNUMX IOPS.
Le traçage des latences moyennes de lecture et d'écriture de 4k indique des retards similaires pour les opérations de lecture et d'écriture pour la matrice RAID0 à 0.847 ms et 0.786 ms respectivement. Dans notre benchmark de la matrice RAID10, la latence de lecture moyenne augmente légèrement à 0.949 ms tandis que la latence d'écriture atteint 1.280 ms.
Les résultats de latence maximale révèlent un point élevé notable de la latence d'écriture de 4k dans la configuration RAID10, qui a connu un retard de 145.75 ms à un moment donné au cours de l'évaluation.
L'écart type de latence de 4k reflète également la plus grande variabilité des latences d'écriture qu'impose la matrice RAID10. En RAID0, la configuration Fusion ION Data Accelerator a maintenu les deux écarts-types proches de 0.62 ms, qui sont passés à 0.709 ms pour les lectures RAID10 et à 1.619 ms pour les opérations d'écriture.
Après avoir préconditionné les cartes ioScale pour des charges de travail de 8 8, nous avons mesuré le débit des deux types de baies avec des transferts de 16 16 et une charge importante de 100 threads et une profondeur de file d'attente de 100, pour les opérations de lecture à 330,646 % et d'écriture à 310,740 %. Le système ION a atteint 0 171,341 IOPS en lecture et 191,423 10 IOPS en écriture configurés en tant que matrice RAIDXNUMX, qui ont été réduits à XNUMX XNUMX IOPS en lecture et XNUMX XNUMX en écriture en RAIDXNUMX.
Pour obtenir une image plus nuancée des performances avec les transferts 8k, nous avons ensuite utilisé un test comprenant 70 % d'opérations de lecture et 30 % d'opérations d'écriture sur une gamme de nombres de threads et de files d'attente. Le débit est resté plus compétitif entre les deux types de RAID dans ce benchmark, RAID0 offrant les plus grands avantages en termes de performances avec des charges de travail plus importantes en général, et en particulier avec des files d'attente profondes.
Notre tableau des latences moyennes de la référence 8k 70/30 révèle des performances très similaires des deux configurations RAID, avec RAID0 devançant RAID10 à mesure que le nombre de threads et de files d'attente augmente.
Les résultats de latence maximale au cours de ce test présentent un modèle moins cohérent, où RAID10 conserve un léger avantage sur les extrémités basse et haute du spectre de la charge de travail.
Les deux configurations RAID ont géré des performances de latence très constantes lors du benchmark 8k 70/30. À des profondeurs de file d'attente élevées et lorsque le nombre de threads dépasse 8, RAID0 dépasse RAID10.
Notre benchmark synthétique final utilise une taille de transfert beaucoup plus grande de 128k avec des tests pour les opérations de lecture à 100% et les opérations d'écriture à 100%. La plus grande taille de transfert élimine presque l'avantage de performance d'une matrice RAID0 pour le système ION, avec des résultats de performance pour les opérations de lecture et d'écriture dans une variation de 1 % selon le type de matrice.
Conclusion
Fusion-io propose certains des dispositifs d'accélération d'application les plus sophistiqués disponibles, et avec ses cartes PCIe ioScale désormais disponibles pour un segment beaucoup plus large du marché des entreprises, nous nous attendons à voir une utilisation plus fréquente et diversifiée de cette technologie. L'accélérateur de données ION de Fusion révèle une direction vers laquelle s'oriente le stockage PCIe : vers une mise en commun coordonnée et automatisée des ressources de stockage à haut débit sur plusieurs serveurs hôtes. Entre les performances améliorées d'ION et sa gestion unifiée des cartes PCIe ioScale sur plusieurs serveurs, l'accélérateur de données ION a démontré que PCIe a un avenir et des cas d'utilisation distincts des approches d'accélération basées sur SSD.
En termes de convivialité et de performances, l'accélérateur ION de Fusion-io a beaucoup à offrir. Le déploiement du logiciel sur notre propre serveur a pris moins de 15 minutes du début à la fin. Le provisionnement du stockage après sa mise en ligne n'a pris que quelques minutes, avec des menus intuitifs et des paramètres simples pour que le stockage soit distribué aux serveurs en attente. Du point de vue des performances, nous avons été plus qu'impressionnés par notre connectivité FC 4 Go à 16 ports lors des tests, qui a fourni plus de 5.8 Go/s en lecture et 4 Go/s en écriture séquentielle, avec des E/S aléatoires maximales dépassant 301 324 IOPS en lecture et 2.5.1 10 IOPS. écrire. Les performances des applications testées dans VMmark 10 étaient également fantastiques, gérant facilement XNUMX tuiles même si nous avons réduit notre configuration à quatre SSD PCIe ioScale en RAIDXNUMX. En tant que « déploiement de votre propre SAN flash » sur du matériel de base, Fusion-io place la barre haute avec ION Accelerator.
Avantages
- Permet aux utilisateurs de créer le SAN flash exact dont ils ont besoin jusqu'au stockage, à l'interface réseau et au serveur
- Facile à configurer et à gérer
- Performance excellente
- Inclut la prise en charge des configurations HA
Inconvénients
- Liste de support de serveur limitée
Conclusion
L'accélérateur de données Fusion-io ION offre aux administrateurs informatiques une nouvelle façon de déployer le flash dans un environnement de stockage partagé sans la plupart des restrictions rencontrées sur le marché SAN traditionnel. Fusion-io fournit une interface graphique simple, la prise en charge de la plupart des marques de serveurs et cartes d'interface grand public, ainsi que des options de configuration HA, tout en continuant à générer d'énormes E/S évolutives à partir d'un seul boîtier.