IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les disques SSD sont devenus rapides, sauf dans le secteur du cloud, la crainte de perturber les coûts dans le cloud suscite des inquiétudes
Sur l'innovation et l'optimisation des performances

Le , par Bruno

7PARTAGES

4  0 
La transition des normes telles que NVMe et PCIe, conjuguée à une forte demande et à la concurrence, a permis aux utilisateurs de bénéficier de gains significatifs sur le marché des disques SSD. Cependant, cette dynamique ne semble pas avoir eu d'impact significatif sur les performances des solutions de stockage dans le cloud, créant un écart notable entre les SSD de pointe et les offres des fournisseurs de cloud.

Les disques SSD à mémoire flash connaissent un développement rapide atteignant des débits élevés grâce à l'évolution des normes telles que PCIe 5.0. Ce qui souligne une stagnation notable dans les performances des instances de stockage SSD dans le cloud, notamment chez AWS, malgré les avancées technologiques. Les analyses techniques sur la connectivité réseau et l'architecture de stockage d'instance, remettent en question la limitation de la vitesse d'écriture à 1 Go/s.


Alors que la popularité croissante des services d'IA stimule la demande du marché pour des serveurs haute performance, les meilleurs disques SSD PCIe 5.0 pour centres de données, tels que le Kioxia CM7-R ou le Samsung PM1743, atteignent un débit de lecture de 13 Go/s et plus de 2,7 millions d'IOPS en lecture aléatoire.


Backblaze, une entreprise spécialisée dans la sauvegarde et le stockage en cloud, a récemment dévoilé des données comparatives sur la fiabilité à long terme des disques de stockage à l'état solide (SSD) par rapport aux disques durs rotatifs traditionnels. Ces données, recueillies depuis que l'entreprise a commencé à intégrer des SSD comme lecteurs de démarrage à la fin de 2018, ont été présentées dans un rapport par Andy Klein, l'évangéliste du stockage en cloud de Backblaze. Les résultats révèlent que les SSD de l'entreprise présentent un taux de défaillance notablement inférieur à celui de ses disques durs, surtout à mesure que les disques vieillissent.

Cette analyse s'appuie sur le dernier rapport détaillé de Backblaze, qui met en lumière les statistiques de fiabilité des disques utilisés dans son infrastructure. Ce rapport constitue la deuxième étude spécifique sur les SSD, la première ayant été publiée en mars de la même année. Les disques de démarrage, responsables non seulement du lancement des serveurs de stockage mais aussi du stockage de fichiers journaux et temporaires générés par ces serveurs, sont passés de l'utilisation exclusive de disques durs à l'intégration de SSD depuis le quatrième trimestre de 2018.

Backblaze avait pour objectif de déterminer si les SSD étaient réellement plus fiables que les disques durs. Bien que les données publiées en mars aient semblé indiquer que les SSD suivaient un schéma similaire de taux de défaillance que les disques durs au fil du temps, elles révélaient tout de même un taux de défaillance annualisé (AFR) légèrement inférieur pour les SSD.

Il est important de noter que tant les SSD que les disques durs sont utilisés comme lecteurs de démarrage dans cet environnement, et Backblaze a adopté les SSD au quatrième trimestre de 2018. Afin de garantir une comparaison équitable, l'entreprise a comparé uniquement les SSD avec une moyenne d'un an d'utilisation avec des disques durs ayant également une moyenne d'un an, prenant ainsi en compte les différentes courbes de durée de vie des deux types de disques.

La série CM7-R de KIOXIA est un SSD à lecture intensive optimisé pour prendre en charge un large éventail d'applications d'entreprise et de charges de travail associées, notamment la veille stratégique, le traitement des transactions en ligne, ainsi que le stockage défini par logiciel et la virtualisation. Construits sur les technologies PCIe 5.0 et NVMe 2.0, les disques SSD de la série CM7 offrent jusqu'à 2 700K IOPS (lecture aléatoire) et 310K IOPS (écriture aléatoire). Dotés de la mémoire flash KIOXIA BiCS FLASH 3D TLC à 112 couches, les SSD NVMe d'entreprise de la série CM7-R offrent une endurance de 1 DWPD (Drive Writes Per Day) et prennent en charge des capacités de stockage allant jusqu'à 30,72 To, ce qui les rend parfaitement adaptés aux applications d'entreprise à forte intensité de lecture.

Disques SSD vs Cloud : l'écart de performance qui interpelle

Les fournisseurs de cloud pourraient être réticents à introduire des améliorations majeures pour des raisons de coûts ou de perturbation des structures existantes. Les intervenants expriment également des divergences d'opinions quant à la performance réelle des disques SSD dans le cloud et mettent en lumière des considérations telles que la virtualisation du matériel et la complexité des architectures réseau.

La situation décrite met en évidence une paradoxale stagnation des performances des disques SSD dans le cloud, malgré les avancées rapides de la technologie. Les disques SSD à mémoire flash ont considérablement amélioré leur débit grâce aux normes comme PCIe 5.0, atteignant des niveaux impressionnants de lecture et d'IOPS. Cependant, cette évolution ne se reflète pas dans les performances des instances de stockage SSD proposées par les principaux fournisseurs de cloud, notamment chez AWS. Au cours des six dernières années, nous avons assisté à une transition rapide de SATA à PCIe 3.0, puis à PCIe 4.0 et enfin à PCIe 5.0. Il en a résulté une explosion du débit des disques SSD :


Certains suggèrent que la connectivité réseau pourrait être un obstacle majeur, limitant les performances des disques SSD dans le cloud par rapport à leurs homologues locaux. Des spéculations sur les raisons de cette stagnation incluent la possibilité que les fournisseurs de cloud soient réticents à perturber leurs structures de coûts existantes en introduisant des améliorations majeures dans le stockage d'instance. Les commentaires révèlent également des débats sur la virtualisation du matériel, la complexité des architectures réseau et la prévisibilité des performances.

Certains estiment que la surcharge du réseau joue un rôle crucial, alors que d'autres pointent du doigt la potentielle absence de demande pour des performances de stockage plus élevées dans la plupart des systèmes. La perplexité quant à la limitation volontaire de la vitesse d'écriture à 1 Go/s par AWS suscite des interrogations, tout comme la constatation que les performances des disques SSD dans le cloud sont souvent inférieures à celles des solutions locales.

Amazon Elastic Compute Cloud (Amazon EC2) a été l'un des premiers pionniers de la technologie NVMe, en lançant l'instance I3 avec 8 disques SSD NVMe physiquement attachés au début de 2017. À l'époque, les SSD NVMe étaient encore chers, et en avoir 8 dans un seul serveur était tout à fait remarquable. Les performances de lecture (2 Go/s) et d'écriture (1 Go/s) par SSD étaient également considérées comme étant à la pointe de la technologie.

EC2 offre une capacité de mise à l’échelle à la demande dans le cloud Amazon Web Services (AWS). L’utilisation d’Amazon EC2 réduit les coûts de matériel, ce qui vous permet de développer et de déployer des applications plus rapidement. Il est possible d’utiliser Amazon EC2 pour lancer autant de serveurs virtuels que nécessaire, configurer la sécurité et les réseaux, et gérer le stockage. Il est également possible d’ajouter de la capacité (augmenter) pour gérer les tâches lourdes en termes de calcul, telles que les processus mensuels ou annuels, ou les pics de trafic sur les sites web. Lorsque l’utilisation diminue, vous pouvez de nouveau restreindre la capacité.

Le schéma suivant illustre l’architecture de base d’une instance Amazon EC2 déployée au sein d’un Amazon Virtual Private Cloud (VPC). Dans cet exemple, l’instance EC2 se trouve dans une zone de disponibilité de la région. L’instance EC2 est sécurisée par un groupe de sécurité, qui est un pare-feu virtuel contrôlant le trafic entrant et sortant. Une clé privée est stockée sur l’ordinateur local et une clé publique est stockée sur l’instance. Les deux clés sont spécifiées comme une paire de clés pour prouver l’identité de l’utilisateur. Dans ce scénario, l’instance est basée sur un volume Amazon EBS. Le VPC communique avec Internet à l’aide d’une passerelle Internet.


Les instances I3 sont conçues pour les charges de travail intensives en E/S et équipées d'un stockage SSD NVMe super efficace, ces instances peuvent fournir jusqu'à 3,3 millions d'IOPS à un bloc de 4 Ko et jusqu'à 16 Go/seconde de débit séquentiel sur disque. Elles conviennent donc parfaitement à toute charge de travail nécessitant un débit élevé et une faible latence, notamment les bases de données relationnelles, les bases de données NoSQL, les moteurs de recherche, les entrepôts de données, les analyses en temps réel et les caches sur disque. Par rapport aux instances I2, les instances I3 offrent un stockage moins coûteux et plus dense, avec la possibilité de fournir beaucoup plus d'IOPS et de bande passante réseau par cœur de CPU.

Voici les tailles des instances et les spécifications associées :


Un autre pas en avant a été franchi en 2019 avec le lancement des instances I3en, qui ont doublé la capacité de stockage par dollar. Elles sont utilisées pour héberger des systèmes de fichiers distribués, des bases de données relationnelles et NoSQL, des caches en mémoire, des valeurs clés, des entrepôts de données et des clusters MapReduce.

Les instances I3en sont alimentées par des processeurs Intel Xeon Scalable (Skylake) personnalisés par AWS avec des performances turbo soutenues de 3,1 GHz pour tous les cœurs, jusqu'à 60 To de stockage NVMe rapide et jusqu'à 100 Gbps de bande passante réseau. Voici les spécifications :


Par rapport aux instances I3, les instances I3en offrent :

  • un coût par Go de stockage d'instance SSD jusqu'à 50 % inférieur ;
  • une densité de stockage (Go par vCPU) environ 2,6 fois supérieure ;
  • un rapport entre la bande passante du réseau et les vCPU jusqu'à 2,7 fois plus élevé.

Depuis lors, diverses instances NVMe, telles que I4I et IM4GN, ont été introduites. Cependant, il est étonnant de constater que les performances n'ont pas évolué ; sept ans après le lancement de l'I3, nous sommes toujours limités à 2 Go/s par SSD. Les instances I3 et I3en, bien que considérées comme vieillissantes, demeurent les meilleures options en termes de rendement par coût et de capacité SSD par coût, respectivement. Cette situation surprend certains observateurs, étant donné l'explosion des capacités de bande passante des disques SSD et les baisses de coûts observées sur le marché des produits de base.

À ce stade, l'écart de performance entre les disques SSD de pointe et ceux proposés par les principaux fournisseurs de cloud, en particulier en termes de débit de lecture, de débit d'écriture et d'IOPS, est proche d'un ordre de grandeur. (Les instances NVMe les plus performantes d'Azure sont à peine plus rapides que celles d'AWS).

Pour de nombreux observateurs, la perplexité face à cette stagnation dans le domaine du cloud est accentuée par les importantes avancées constatées dans d'autres secteurs. Par exemple, entre 2017 et 2023, la bande passante du réseau EC2 a connu une croissance fulgurante, passant de 10 Gbit/s (c4) à 200 Gbit/s (c7gn). Désormais, il devient complexe de spéculer sur les raisons pour lesquelles les fournisseurs de services cloud n'ont pas réussi à rattraper leur retard en ce qui concerne le stockage.

La performance des ssd ne se retrouve-t-elle pas dans le cloud

Le constat selon lequel les disques SSD sont devenus extrêmement rapides, mais que cette rapidité ne semble pas se refléter de manière équivalente dans le domaine du Cloud, soulève des interrogations pertinentes. Cette observation met en évidence un écart significatif entre les performances des disques SSD locaux et celles des solutions de stockage dans le Cloud, en particulier chez des fournisseurs majeurs tels qu'AWS.

L'évolution rapide des disques SSD, illustrée par le passage à des normes comme NVMe et PCIe 5.0, a entraîné une augmentation exponentielle des débits et des IOPS. Cependant, le fait que les performances des instances de stockage dans le Cloud, notamment chez AWS, ne suivent pas la même trajectoire est une situation qui mérite d'être scrutée de près.

Les théories avancées par des analystes pour expliquer cette stagnation, telles que l'intention supposée de limiter la vitesse d'écriture pour éviter les défaillances ou la crainte de perturber la structure des coûts, soulèvent des préoccupations importantes sur la priorité accordée à l'innovation et à l'optimisation des performances dans les services Cloud.


Une hypothèse avance que EC2 limite délibérément la vitesse d'écriture à 1 GB/s pour prévenir les défaillances fréquentes des périphériques, compte tenu de la limitation du nombre total d'écritures par SSD. Cependant, cela ne justifie pas la restriction de la bande passante en lecture à 2 Go/s. Une deuxième possibilité suggère qu'il n'existe pas une demande suffisante pour un stockage plus rapide, étant donné que très peu de systèmes de stockage peuvent réellement exploiter des dizaines de Go/s de bande passante d'E/S. Parallèlement, tant que les dispositifs de stockage rapides ne sont pas largement disponibles, il n'y a aucune incitation à optimiser les systèmes existants.

La troisième théorie avance que si EC2 lançait un stockage d'instance NVMe rapide et économique, cela perturberait la structure des coûts de ses autres services de stockage, en particulier EBS. Il s'agit d'un dilemme classique de l'innovateur, bien que l'on puisse espérer qu'un fournisseur de cloud plus petit pourrait faire ce pas pour obtenir un avantage concurrentiel. Dans l'ensemble, aucune de ces trois théories ne semble entièrement convaincante, laissant des questions en suspens quant aux raisons de la stagnation dans les performances du stockage cloud.

Sources : AWS (1, 2), Kioxia, Samsung

Et vous ?

Quel est votre avis sur le sujet ?

Quels sont les principaux obstacles techniques ou structurels dans les infrastructures de stockage cloud qui semblent entraver l'exploitation optimale des avancées des normes NVMe et PCIe dans les disques SSD ?

Dans quelle mesure la limitation de la vitesse d'écriture à 1 Go/s est-elle réellement justifiée du point de vue technique, et existe-t-il des alternatives qui pourraient offrir de meilleures performances sans compromettre la fiabilité ?

Quelles sont les principales raisons pour lesquelles les performances des disques SSD dans le Cloud ne semblent pas suivre la même trajectoire d'amélioration que celles des disques locaux ?

Voir aussi :

84 % des responsables informatiques souhaitent qu'une grande partie de leur stockage demeure dans le cloud et 94 % admettent que les couts de stockage cloud ne cessent cependant de grimper

Les SSD seraient plus fiables sur le long terme que les disques durs, d'après une étude de fiabilité sur 5 ans de Backblaze

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de weed
Membre chevronné https://www.developpez.com
Le 22/02/2024 à 0:21
Est ce que l'avantage de la performance en local va t-elle freiner l'adoption du cloud ?

Est ce que les DSI des grands groupes vont remettre à gérer une partie de leur infrastructure ? Je ne pense pas que ce soit sufisant.
0  0