Synology propose une belle gamme de périphériques NAS qui sont parfaits pour les TPE et les PME. Le seul inconvénient est que les NAS de milieu de gamme ne sont généralement pas conçus pour des performances et une vitesse de réseau maximales. Grâce à une nouvelle carte d'extension, ils n'ont plus besoin de l'être. Avec l'introduction du Synology E10M20-T1 AIC, les utilisateurs peuvent obtenir des E/S et une bande passante beaucoup plus élevées avec une seule carte.
Synology propose une belle gamme de périphériques NAS qui sont parfaits pour les TPE et les PME. Le seul inconvénient est que les NAS de milieu de gamme ne sont généralement pas conçus pour des performances et une vitesse de réseau maximales. Grâce à une nouvelle carte d'extension, ils n'ont plus besoin de l'être. Avec l'introduction du Synology E10M20-T1 AIC, les utilisateurs peuvent obtenir des E/S et une bande passante beaucoup plus élevées avec une seule carte.
Pour la bande passante, le Synology E10M20-T1 est livré avec un port 10GbE, augmentant considérablement les E/S d'un NAS qui a GbE intégré. En plus des performances réseau améliorées, la carte est livrée avec deux emplacements SSD NVMe pour les disques M.2 (facteurs de forme 2280 et 22110). Cela donne aux utilisateurs des performances d'E/S élevées et ajoute deux emplacements NVMe pour le cache SSD sans renoncer aux baies de lecteur. De cette façon, les utilisateurs peuvent charger leur NAS avec des disques durs haute capacité et toujours disposer d'un cache SSD. Cette carte est également particulièrement utile dans certains des anciens systèmes NAS de Synology, qui n'ont pas d'emplacements SSD intégrés.
VOTRE Synology E10M20-T1 peut être récupéré aujourd'hui pour 250 $. Pour ceux qui préfèrent, nous avons également une présentation vidéo de la carte.
Spécifications du Synology E10M20-T1
Général | |
Interface de bus hôte | PCIe 3.0 x8 |
Hauteur du support | Profil bas et pleine hauteur |
Taille (Hauteur x Largeur x Profondeur) | 71.75 mm x 200.05 mm x 17.70 mm |
Température de fonctionnement | 0 ° C à 40 ° C (° F à 32 104 ° F) |
Température de stockage | -20 ° C à 60 ° C (° F à -5 140 ° F) |
Humidité relative | 5% à 95% RH |
Garanties | 5 ans |
Stockage | |
Interface de stockage | PCIe NVMe |
Facteur de forme pris en charge | 22110/2280 |
Type et quantité de connecteur | Clé M, 2 emplacements |
Réseau | |
Conformité aux spécifications IEEE | Ethernet IEEE 802.3an 10 Gb/s Ethernet IEEE 802.3bz 2.5 Gb/s / 5 Gb/s Gigabit Ethernet IEEE 802.3ab Ethernet rapide IEEE 802.3u Contrôle de flux IEEE 802.3x |
Taux de transfert de données | 10 Gbps |
Mode de fonctionnement réseau | Full Duplex |
Caractéristiques supportées | Cadre géant de 9 Ko Déchargement de la somme de contrôle TCP/UDP/IP Négociation automatique entre 100 Mb/s, 1 Gb/s, 2.5 Gb/s, 5 Gb/s et 10 Gb/s |
Compatibilité | |
Modèles appliqués SSD NVMe | Série SA : SA3600, SA3400 Série 20: RS820RP +, RS820 + Série 19 : DS2419+, DS1819+ Série 18 : RS2818RP+, DS3018xs, DS1618+ |
Concevoir et construire
Le Synology E10M20-T1 est un AIC HHFL qui s'adaptera à certains modèles de Synology NAS. D'un côté se trouvent des dissipateurs thermiques qui s'étendent sur toute la longueur de la carte.
Le retrait du dissipateur thermique avec quatre vis à l'arrière donne un accès aux deux baies SSD M.2 NVMe. Dans l'ensemble, il est facile de sécuriser les lecteurs sur la carte.
Le verso de la carte est relativement spartiate. Synology comprend également un support de taille normale dans la boîte si cela est nécessaire, et des pastilles de contact thermiques pour les SSD.
Performance
Pour tester le Synology E10M20-T1, nous l'avons inséré dans un Synology DS1819 +. Nous avons rempli les baies HDD avec WD Rouge 14 To Disques durs. Pour le cache, nous avons utilisé SSD SNV3400-400G de Synology. Nous avons testé les disques en configuration iSCSI et CIFS en RAID6 avec le cache désactivé et activé.
Analyse synthétique de la charge de travail d'entreprise
Notre processus de référence de disque dur d'entreprise préconditionne chaque disque dans un état stable avec la même charge de travail avec laquelle l'appareil sera testé sous une lourde charge de 16 threads avec une file d'attente exceptionnelle de 16 par thread. Il est ensuite testé à des intervalles définis dans plusieurs profils de profondeur de thread/file d'attente pour montrer les performances en cas d'utilisation légère et intensive. Étant donné que les disques durs atteignent très rapidement leur niveau de performance nominal, nous ne représentons graphiquement que les principales sections de chaque test.
Tests de préconditionnement et d'état stable primaire :
- Débit (agrégat IOPS lecture + écriture)
- Latence moyenne (latence de lecture + écriture moyennée ensemble)
- Latence maximale (latence maximale de lecture ou d'écriture)
- Écart-type de latence (écart-type de lecture + écriture moyenné ensemble)
Notre analyse de charge de travail synthétique d'entreprise comprend quatre profils basés sur des tâches réelles. Ces profils ont été développés pour faciliter la comparaison avec nos références passées ainsi qu'avec des valeurs largement publiées telles que la vitesse de lecture et d'écriture maximale de 4K et 8K 70/30, qui est couramment utilisée pour les disques d'entreprise.
- 4K
- 100 % de lecture ou 100 % d'écriture
- 100% 4K
- 8K70/30
- 70 % de lecture, 30 % d'écriture
- 100% 8K
- 128K (séquentiel)
- 100 % de lecture ou 100 % d'écriture
- 100% 128K
Dans la première de nos charges de travail d'entreprise, nous avons mesuré un long échantillon de performances 4K aléatoires avec une activité d'écriture à 100 % et de lecture à 100 % pour obtenir nos principaux résultats. Pour CIFS, nous avons vu 170 lectures IPS et 1,461 4,075 écritures IOPS sans cache et 10,950 2,897 lectures IOPS et 1,502 20,021 écritures IOPS avec le cache actif. Pour iSCSI, nous avons vu 22,439 XNUMX IOPS en lecture et XNUMX XNUMX IOPS en écriture sans cache et en tirant parti du cache dans l'AIC, nous avons vu XNUMX XNUMX IOPS en lecture et XNUMX XNUMX IOPS en écriture.
Avec une latence moyenne de 4K, CIFS nous a donné 1,497 176 ms en lecture et 63 ms en écriture sans le cache, puis en l'activant, il est tombé à 23 ms en lecture et 88 ms en écriture. iSCSI a vu 170 ms en lecture et 12.8 ms en écriture, puis en activant le cache, il est tombé à 11.4 ms en lecture et XNUMX ms en écriture.
Ensuite, la latence maximale de 4K. Ici, CIFS a atteint 4,476 3,360 ms en lecture et 339 45 ms en écriture sans le cache ; en tirant parti de l'AIC, les chiffres sont tombés à 1,051 ms en lecture et 6,131 ms en écriture. iSCSI avait 11,951 171 ms en lecture et XNUMX XNUMX ms en écriture sans le cache, et avec lui la latence de lecture est passée à XNUMX XNUMX ms mais la latence d'écriture est tombée à XNUMX ms.
Notre dernier test 4K est l'écart type. Ici, sans le cache, CIFS nous a donné 228 ms en lecture et 288 ms en écriture, avec une latence d'activation du cache réduite à 7.3 ms en lecture et 2 ms en écriture. Pour iSCSI, nous avons de nouveau constaté un pic au lieu d'une baisse des lectures, passant de 69 ms sans cache à 196 ms en cache. Les écritures ont montré une amélioration, passant de 282 ms à 16 ms.
Notre prochain benchmark mesure 100 % de débit séquentiel 8K avec une charge 16T16Q dans des opérations de lecture à 100 % et d'écriture à 100 %. Ici, la configuration CIFS sans le cache avait 13,989 10,770 IOPS en lecture et 13,055 11,443 IOPS en écriture ; après l'activation du cache, les chiffres sont passés à 56,579 30,288 IOPS en lecture et 57,774 33,265 IOPS en écriture. Avec iSCSI, nous avons vu XNUMX XNUMX IOPS en lecture et XNUMX XNUMX IOPS sans le cache activé, avec celui-ci activé, nous avons vu les performances augmenter légèrement pour atteindre XNUMX XNUMX IOPS en lecture et XNUMX XNUMX IOPS en écriture.
Par rapport à la charge de travail fixe à 16 threads et 16 files d'attente maximales que nous avons effectuée lors du test d'écriture 100 % 4K, nos profils de charge de travail mixtes adaptent les performances à une large gamme de combinaisons thread/file d'attente. Dans ces tests, nous couvrons l'intensité de la charge de travail de 2 threads et 2 files d'attente jusqu'à 16 threads et 16 files d'attente. Dans le CIFS non mis en cache, nous avons vu le débit commencer à 221 IOPS et se terminer à 219 IOPS, assez stable tout au long. Avec l'activation de la mise en cache, nous avons vu CIFS commencer à 4,597 4,844 IOPS et se terminer à 519 1,751 IOPS. Pour iSCSI, le non-cache a commencé à 8,308 IOPS et s'est terminé à 1,340 XNUMX IOPS. Avec le cache activé, nous avons vu iSCSI commencer à XNUMX XNUMX IOPS et se terminer à XNUMX XNUMX IOPS.
En examinant les temps de réponse moyens 8K 70/30, la configuration CIFS a commencé à 18 ms et s'est terminée à 1,161 860 ms sans cache, et avec la carte active, elle est tombée à 53 µs au début et s'est terminée à 7.7 ms. Pour iSCSI, nous avons vu 146 ms au début et 470 ms à la fin sans la carte, avec la carte c'était 191 µs au début et XNUMX ms à la fin.
Avec une latence maximale de 8K 70/30, la configuration CIFS a commencé autour de 1,009 4,799 ms et est montée jusqu'à 523 260 ms. Avec le cache activé, les chiffres sont passés de 1,436 ms à 5,614 ms. Avec iSCSI, nous avons vu la latence passer de 640 13,588 ms à XNUMX XNUMX ms sans le cache et de XNUMX ms à XNUMX XNUMX ms avec le cache.
Pour l'écart type 8K 70/30, la configuration CIFS a commencé à 26 ms et a fonctionné à 477 ms sans le cache, avec la carte réseau, elle est passée de 1.3 ms à 10.1 ms. Pour iSCSI, nous disons 17 ms à 299 ms sans cache, et 920 µs à 1,155 XNUMX ms avec.
La dernière référence de charge de travail synthétique d'entreprise est notre test 128K, qui est un test séquentiel à grands blocs qui montre la vitesse de transfert séquentielle la plus élevée pour un appareil. Dans ce scénario de charge de travail, CIFS avait 1.09 Go/s en lecture et 464 Mo/s en écriture sans le cache et 1.14 Go/s en lecture et 484 Mo/s avec. Pour iSCSI, nous avons vu 1.15 Go/s en lecture et 443 Mo/s sans cache et 1.15 Go/s en lecture et 615 Mo/s en écriture avec.
Conclusion
Synology a mis au point un moyen simple d'ajouter une connectivité 10GbE et un cache NVMe à une quantité sélectionnée de leurs périphériques NAS via le Synology E10M20-T1 AIC. La carte s'intègre parfaitement à la gamme SSD de l'entreprise et dispose d'emplacements pour s'adapter à deux facteurs de forme 2280 ou 22110 M.2. Cela permet aux utilisateurs de charger le NAS avec des disques durs haute capacité, puis d'utiliser la carte pour améliorer les performances d'E/S. Et, bien sûr, le port 10GbE augmente la vitesse du réseau par rapport aux ports GbE intégrés.
Pour la performance, nous avons encore une fois mis à profit le Synology DS1819 + avec Disques durs WD Red 14 To, mais cette fois nous avons ajouté l'AIC E10M20-T1 avec deux SSD Synology SNV3400-400G. Dans la plupart des cas, mais pas tous, nous avons constaté une amélioration des performances. Au lieu de répertorier les performances, examinons d'abord les différences avec la configuration CIFS. Dans le débit CIFS 4K, nous avons constaté une augmentation de 3,905 9,489 IOPS en lecture et de 4 1,434 IOPS en écriture. Avec une latence moyenne de 153K, nous avons vu la latence baisser de 4 4,137 ms en lecture et de 3,315 ms en écriture. En latence 4K max, nous avons constaté une baisse de 220.7 286 ms en lecture et de 100 8 ms en écriture. L'écart type 934K a vu une baisse de 673 ms en lecture et de 50 ms en écriture. En 20% XNUMXK, nous avons constaté une diminution de XNUMX IOPS en lecture et une augmentation de XNUMX IOPS en écriture. Le séquentiel à grands blocs a vu une augmentation de XNUMX Mo/s en lecture et de XNUMX Mo/s en écriture.
Avec les performances iSCSI, nous avons constaté des points forts du débit 4K avec une augmentation de 17,124 20,937 IOPS en lecture et de 4 75.2 IOPS en écriture. En latence moyenne de 158.6K, nous avons constaté une baisse de 4 ms en lecture et de 10,900 ms en écriture. En latence 15,960K max, nous avons constaté une augmentation de 4 127 ms en lecture et une diminution de 266 100 ms en écriture. L'écart type 8K a vu un pic de latence augmenter à nouveau de 1,200 ms en lecture et une baisse des écritures de 2,977 ms. En 1.15 % 172K, nous avons constaté une augmentation de XNUMX XNUMX IOPS en lecture et de XNUMX XNUMX IOPS en écriture. La lecture séquentielle des gros blocs se maintient à XNUMX Go/s avec ou sans cache et augmente les écritures de XNUMX Mo/s.
Le Synology E10M20-T1 AIC est un moyen facile d'ajouter une connectivité 10GbE et un cache SSD pour certains modèles de Synology NAS. Bien qu'il n'ait pas amélioré toutes les performances dans tous les domaines, il a vu des améliorations significatives dans plusieurs de nos références.
Synology E10M20-T1 AIC sur Amazon
S'engager avec StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | Flux RSS