
sur l'innovation et l'optimisation des performances
La transition des normes telles que NVMe et PCIe, conjuguée à une forte demande et à la concurrence, a permis aux utilisateurs de bénéficier de gains significatifs sur le marché des disques SSD. Cependant, cette dynamique ne semble pas avoir eu d'impact significatif sur les performances des solutions de stockage dans le cloud, créant un écart notable entre les SSD de pointe et les offres des fournisseurs de cloud.
Les disques SSD à mémoire flash connaissent un développement rapide atteignant des débits élevés grâce à l'évolution des normes telles que PCIe 5.0. Ce qui souligne une stagnation notable dans les performances des instances de stockage SSD dans le cloud, notamment chez AWS, malgré les avancées technologiques. Les analyses techniques sur la connectivité réseau et l'architecture de stockage d'instance, remettent en question la limitation de la vitesse d'écriture à 1 Go/s.
Alors que la popularité croissante des services d'IA stimule la demande du marché pour des serveurs haute performance, les meilleurs disques SSD PCIe 5.0 pour centres de données, tels que le Kioxia CM7-R ou le Samsung PM1743, atteignent un débit de lecture de 13 Go/s et plus de 2,7 millions d'IOPS en lecture aléatoire.
Backblaze, une entreprise spécialisée dans la sauvegarde et le stockage en cloud, a récemment dévoilé des données comparatives sur la fiabilité à long terme des disques de stockage à l'état solide (SSD) par rapport aux disques durs rotatifs traditionnels. Ces données, recueillies depuis que l'entreprise a commencé à intégrer des SSD comme lecteurs de démarrage à la fin de 2018, ont été présentées dans un rapport par Andy Klein, l'évangéliste du stockage en cloud de Backblaze. Les résultats révèlent que les SSD de l'entreprise présentent un taux de défaillance notablement inférieur à celui de ses disques durs, surtout à mesure que les disques vieillissent.
Cette analyse s'appuie sur le dernier rapport détaillé de Backblaze, qui met en lumière les statistiques de fiabilité des disques utilisés dans son infrastructure. Ce rapport constitue la deuxième étude spécifique sur les SSD, la première ayant été publiée en mars de la même année. Les disques de démarrage, responsables non seulement du lancement des serveurs de stockage mais aussi du stockage de fichiers journaux et temporaires générés par ces serveurs, sont passés de l'utilisation exclusive de disques durs à l'intégration de SSD depuis le quatrième trimestre de 2018.
Backblaze avait pour objectif de déterminer si les SSD étaient réellement plus fiables que les disques durs. Bien que les données publiées en mars aient semblé indiquer que les SSD suivaient un schéma similaire de taux de défaillance que les disques durs au fil du temps, elles révélaient tout de même un taux de défaillance annualisé (AFR) légèrement inférieur pour les SSD.
Il est important de noter que tant les SSD que les disques durs sont utilisés comme lecteurs de démarrage dans cet environnement, et Backblaze a adopté les SSD au quatrième trimestre de 2018. Afin de garantir une comparaison équitable, l'entreprise a comparé uniquement les SSD avec une moyenne d'un an d'utilisation avec des disques durs ayant également une moyenne d'un an, prenant ainsi en compte les différentes courbes de durée de vie des deux types de disques.
La série CM7-R de KIOXIA est un SSD à lecture intensive optimisé pour prendre en charge un large éventail d'applications d'entreprise et de charges de travail associées, notamment la veille stratégique, le traitement des transactions en ligne, ainsi que le stockage défini par logiciel et la virtualisation. Construits sur les technologies PCIe 5.0 et NVMe 2.0, les disques SSD de la série CM7 offrent jusqu'à 2 700K IOPS (lecture aléatoire) et 310K IOPS (écriture aléatoire). Dotés de la mémoire flash KIOXIA BiCS FLASH 3D TLC à 112 couches, les SSD NVMe d'entreprise de la série CM7-R offrent une endurance de 1 DWPD (Drive Writes Per Day) et prennent en charge des capacités de stockage allant jusqu'à 30,72 To, ce qui les rend parfaitement adaptés aux applications d'entreprise à forte intensité de lecture.
Disques SSD vs Cloud : l'écart de performance qui interpelle
Les fournisseurs de cloud pourraient être réticents à introduire des améliorations majeures pour des raisons de coûts ou de perturbation des structures existantes. Les intervenants expriment également des divergences d'opinions quant à la performance réelle des disques SSD dans le cloud et mettent en lumière des considérations telles que la virtualisation du matériel et la complexité des architectures réseau.
La situation décrite met en évidence une paradoxale stagnation des performances des disques SSD dans le cloud, malgré les avancées rapides de la technologie. Les disques SSD à mémoire flash ont considérablement amélioré leur débit grâce aux normes comme PCIe 5.0, atteignant des niveaux impressionnants de lecture et d'IOPS. Cependant, cette évolution ne se reflète pas dans les performances des instances de stockage SSD proposées par les principaux fournisseurs de cloud, notamment chez AWS. Au cours des six dernières années, nous avons assisté à une transition rapide de SATA à PCIe 3.0, puis à PCIe 4.0 et enfin à PCIe 5.0. Il en a résulté une explosion du débit des disques SSD :
Certains suggèrent que la connectivité réseau pourrait être un obstacle majeur, limitant les performances des disques SSD dans le cloud par rapport à leurs homologues locaux. Des spéculations sur les raisons de cette stagnation incluent la possibilité que les fournisseurs de cloud soient réticents à perturber leurs structures de coûts existantes en introduisant des améliorations majeures dans le stockage d'instance. Les commentaires révèlent également des débats sur la virtualisation du matériel, la complexité des architectures réseau et la prévisibilité des performances.
Certains estiment que la surcharge du réseau joue un rôle crucial, alors que d'autres pointent du doigt la potentielle absence de demande pour des performances de stockage plus élevées dans la plupart des systèmes. La perplexité quant à la limitation volontaire de la vitesse d'écriture à 1 Go/s par AWS suscite des interrogations, tout comme la constatation que les performances des disques SSD dans le cloud sont souvent inférieures à celles des solutions locales.
Amazon Elastic Compute Cloud (Amazon EC2) a été l'un des premiers pionniers de la technologie NVMe, en lançant l'instance I3 avec 8 disques SSD NVMe physiquement attachés au début de 2017. À l'époque, les SSD NVMe étaient encore chers, et en avoir 8 dans un seul serveur était tout à fait remarquable. Les performances de lecture (2 Go/s) et d'écriture (1 Go/s) par SSD étaient également considérées comme étant à la pointe de la technologie.
EC2 offre une capacité de mise à l’échelle à la demande dans le cloud Amazon Web Services (AWS). L’utilisation d’Amazon EC2 réduit les coûts de matériel, ce qui vous permet de développer et de déployer des applications plus rapidement. Il est possible d’utiliser Amazon EC2 pour lancer autant de serveurs virtuels que nécessaire, configurer la sécurité et les réseaux, et gérer le stockage. Il est également possible d’ajouter de la capacité (augmenter) pour gérer les tâches lourdes en termes de calcul, telles que les processus mensuels ou annuels, ou les pics de trafic sur les sites web. Lorsque l’utilisation diminue, vous pouvez de nouveau restreindre la capacité.
Le schéma suivant illustre l’architecture de base d’une instance Amazon EC2 déployée au sein d’un Amazon Virtual Private Cloud (VPC). Dans cet exemple, l’instance EC2 se trouve dans une zone de disponibilité de la région. L’instance EC2 est sécurisée par un groupe de sécurité, qui est un pare-feu virtuel contrôlant le trafic entrant et sortant. Une clé privée est stockée sur l’ordinateur local et une clé publique est stockée sur l’instance. Les deux clés sont spécifiées comme une paire de clés pour prouver l’identité de l’utilisateur. Dans ce scénario, l’instance est basée sur un volume Amazon EBS. Le VPC communique avec Internet à l’aide d’une passerelle Internet.
Les instances I3 sont conçues pour les charges de travail intensives en E/S et équipées d'un stockage SSD NVMe super efficace, ces instances peuvent fournir jusqu'à 3,3 millions d'IOPS à un bloc de 4 Ko et jusqu'à 16 Go/seconde de débit séquentiel sur disque. Elles conviennent donc parfaitement à toute charge de travail nécessitant un débit élevé et une faible latence, notamment les bases de données relationnelles, les bases de données NoSQL, les moteurs de recherche, les entrepôts de données, les analyses en temps réel et les caches sur disque. Par rapport aux instances I2, les instances I3 offrent un stockage moins coûteux et plus dense, avec la possibilité de fournir beaucoup plus d'IOPS et de bande passante réseau par cœur de CPU.
Voici les tailles des instances et les spécifications associées :
Un autre pas en avant a été franchi en 2019 avec le lancement des instances I3en, qui ont doublé la capacité de stockage par dollar. Elles sont utilisées pour héberger des systèmes de fichiers distribués, des bases de données relationnelles et NoSQL, des caches en mémoire, des valeurs clés, des entrepôts de données et des clusters MapReduce.
Les instances I3en sont alimentées par des processeurs Intel Xeon Scalable (Skylake) personnalisés par AWS avec des performances turbo soutenues de 3,1 GHz pour tous les cœurs, jusqu'à 60 To de stockage NVMe rapide et jusqu'à 100 Gbps de bande passante réseau. Voici les spécifications :
Par rapport aux instances I3, les instances I3en offrent :
- un coût par Go de stockage d'instance SSD jusqu'à 50 % inférieur ;
- une densité de stockage (Go par vCPU) environ 2,6 fois supérieure ;
- un rapport entre la bande passante du réseau et les vCPU jusqu'à 2,7 fois plus élevé.
Depuis lors, diverses instances NVMe, telles que I4I et IM4GN, ont été introduites. Cependant, il est étonnant de constater que les performances n'ont pas évolué ; sept ans après le lancement de l'I3, nous sommes toujours limités à 2 Go/s par SSD. Les instances I3 et I3en, bien que considérées comme vieillissantes, demeurent les meilleures options en termes de rendement par coût et de capacité SSD par coût, respectivement. Cette situation surprend certains observateurs, étant donné l'explosion des capacités de bande passante des disques SSD et les baisses de coûts observées sur le marché des produits de base.
À ce stade, l'écart de performance entre les disques SSD de pointe et ceux proposés par les principaux fournisseurs de cloud, en particulier en termes de débit de lecture, de débit d'écriture et d'IOPS, est proche d'un ordre de grandeur. (Les instances NVMe les plus performantes d'Azure sont à peine plus rapides que celles d'AWS).
Pour de nombreux observateurs, la perplexité face à cette...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.