Le stockage quantique est essentiel à l'approche du Q-Day. Découvrez comment les fournisseurs sécurisent les données avec la cryptographie post-quantique avant qu'il ne soit trop tard.
Alors que le « Q-Day » annoncé approche – le moment où les ordinateurs quantiques pourront casser le chiffrement à clé publique largement utilisé – les organisations gouvernementales, financières, cloud et informatiques d’entreprise s’empressent de renforcer leur infrastructure. Bien que les estimations varient, la NSA et le NIST prévoient que le « Q-Day » pourrait arriver dès 2033, obligeant les entreprises à repenser leur approche de la sécurité cryptographique. La menace la plus immédiate n’est pas seulement le déchiffrement futur, mais aussi la stratégie « récolter maintenant, déchiffrer plus tard » (HNDL) déjà utilisée par les cybercriminels et les acteurs étatiques. Les données sensibles volées aujourd’hui sous un chiffrement RSA-2048 ou ECC pourraient être déchiffrées une fois que les ordinateurs quantiques auront atteint une échelle suffisante, exposant tout, des transactions financières aux secrets gouvernementaux.
En réponse à cela, les gouvernements, les fournisseurs de cloud et les fournisseurs de matériel se tournent rapidement vers un chiffrement sécurisé par les technologies quantiques, en mettant en œuvre de nouveaux algorithmes approuvés par le NIST et en mettant à jour leurs architectures de sécurité. Cette transition ne se limite pas à la mise à niveau du chiffrement : elle nécessite une agilité cryptographique, garantissant que les appareils de stockage, les serveurs et les protocoles réseau peuvent échanger de manière transparente des algorithmes cryptographiques à mesure que de nouvelles menaces apparaissent. Bien que les méthodes de chiffrement symétrique et de hachage telles que AES-256 et SHA-512 restent plus résistantes, elles sont elles aussi sensibles aux attaques quantiques, ce qui accélère le besoin de normes cryptographiques post-quantiques (PQC).
Grâce aux avancées réalisées par IBM, Google, AWS et Microsoft dans le domaine de la correction des erreurs et de la mise à l’échelle des qubits, la course à la cryptographie quantique avance plus vite que prévu. La puce Willow de Google a récemment effectué un calcul qui prendrait 10 septilliards d’années au supercalculateur le plus rapide du monde, et avec IBM et AWS qui développent des solutions cloud sécurisées contre les attaques quantiques, le passage à la cryptographie post-quantique (PQC) n’est plus une théorie. Les entreprises qui ne parviennent pas à s’adapter risquent des violations de conformité, des violations massives de données et des atteintes à leur réputation, ce qui fait de la sécurité quantique une priorité absolue pour toute entreprise stockant des données sensibles à long terme.
Photographie d'un ordinateur quantique générée par l'IA
Pourquoi la sécurité quantique est-elle essentielle ?
Ces derniers mois, Amazon, Google, Microsoft et d'autres ont fait des progrès dans le domaine de l'informatique quantique. Google a annoncé que c'est nouveau Puce quantique Willow a apporté des améliorations massives par rapport à tout autre ordinateur quantique connu du public. Même si la puce Willow de Google n'a que 105 qubits, et Puce Heron R2 d'IBM Bien qu'il y en ait 156, ils restent de sérieux concurrents. Willow se distingue par son taux d'erreur extrêmement faible par rapport aux offres actuelles. Le taux d'erreur du Heron R2 2Q d'IBM est de 0.371 %, et son taux d'erreur de lecture est de 1.475 %, tandis que le taux d'erreur du Willow 2Q de Google est de 0.14 % (+/- 0.05 %) avec un taux d'erreur de lecture de 0.67 % (+/- 0.51 %). Même s'il existe des ordinateurs quantiques plus grands, comme le Condor d'IBM avec 1,121 1,225 qubits et le système de 2 3 qubits de deuxième génération d'Atom Computing, Heron et Willow sont nettement plus rapides en raison des taux d'erreur plus faibles. Pour mettre cela en perspective, le Heron R5 d'IBM serait environ XNUMX à XNUMX fois plus rapide que sa puce Condor.
La vitesse de Willow et Heron R2 représente une amélioration significative de la technologie de l'informatique quantique, car ils peuvent fonctionner beaucoup plus rapidement que d'autres puces dotées d'un nombre de qubits plus élevé. Étant donné que les ordinateurs quantiques ont déjà une vitesse de calcul bien supérieure à celle de la technologie informatique classique, la vitesse accrue des nouvelles puces permet de combler l'écart avec Q-Day plus rapidement que prévu. La puce Willow de Google a effectué un calcul de référence en moins de 5 minutes, ce qui aurait pris aujourd'hui Supercalculateur ONRL Frontier 10 septilliards d'années pour être achevé. Les ordinateurs quantiques sont développés en catimini jusqu'à leur présentation, ce qui soulève des questions sur la prochaine version.
À l’heure actuelle, le « jour Q » se produirait dans les années 2030, lorsque les ordinateurs quantiques seraient capables de casser le chiffrement à clé publique de 2048 bits. Cela présente des risques considérables pour le stockage des données, car les ordinateurs quantiques atteindront le point où ils pourront casser ce chiffrement en quelques semaines ou quelques jours. En revanche, les superordinateurs classiques pourraient mettre des milliards d’années à le casser. Non seulement la technologie physique des ordinateurs quantiques est une préoccupation majeure, mais le logiciel suscite également des inquiétudes. La plupart des ordinateurs quantiques utilisent généralement l’algorithme de Shor, mais l’algorithme de Grover pourrait accélérer la vitesse de calcul et les attaques. Toute amélioration significative du calcul peut rapprocher le jour Q encore plus que prévu.
Actuellement, les attaques les plus risquées utilisent des attaques de type « récolter maintenant et déchiffrer plus tard ». Ces attaques sont courantes aujourd’hui, même si les ordinateurs quantiques n’ont pas encore atteint le point de déchiffrer les algorithmes actuels. Les attaquants voleront vos données chiffrées avec des algorithmes de chiffrement qui ne sont pas quantiques, puis, une fois la technologie disponible, ils les craqueront avec des ordinateurs quantiques. Cela signifie que si vous stockez des données qui ne sont pas quantiques, ces données sont vulnérables. Les principales données ciblées par ces attaques sont des types de données qui seront toujours utiles lorsque le déchiffrement deviendra une option. Les cibles typiques incluent les numéros de sécurité sociale, les noms, les dates de naissance et les adresses. D’autres types de données peuvent être des numéros de compte bancaire, des numéros d’identification fiscale et d’autres données d’identification financière ou personnelle. Cependant, des informations telles que les numéros de carte de crédit et de débit ont moins de chances de conserver leur valeur car ces numéros changent au fil du temps. Étant donné que les données actuelles, même avant le Q-Day, sont vulnérables, des mesures appropriées doivent être prises pour garantir que votre environnement est quantiquement sécurisé.
Combien de qubits faut-il pour briser le cryptage ?
Il n’existe pas de réponse unique au nombre de qubits nécessaires pour décrypter les méthodes cryptographiques. Le nombre de qubits requis peut varier en fonction de l’algorithme ciblé et de l’approche utilisée pour l’attaquer. Cependant, pour certains des schémas de chiffrement les plus utilisés aujourd’hui, les chercheurs se réfèrent souvent à des estimations basées sur l’algorithme de Shor, conçu pour factoriser efficacement de grands nombres et calculer des logarithmes discrets, opérations qui sous-tendent la sécurité de nombreux systèmes cryptographiques à clé publique.
Par exemple, pour déchiffrer RSA-2048, une norme de chiffrement courante, il faudrait plusieurs milliers de qubits logiques. Le nombre exact varie en fonction de l'efficacité des algorithmes quantiques et des méthodes de correction d'erreurs utilisés, mais les estimations se situent généralement entre 2,000 10,000 et XNUMX XNUMX qubits logiques. Pour les méthodes de chiffrement symétriques comme AES, une attaque par force brute quantique complète nécessiterait également de nombreux qubits logiques, bien que généralement moins que ce qui est nécessaire pour RSA, car le chiffrement symétrique repose sur des principes différents.
En bref, le nombre de qubits requis n’est pas une valeur fixe mais plutôt une plage qui dépend de l’algorithme de chiffrement, de l’algorithme quantique utilisé pour le casser, et des spécificités du matériel quantique et des techniques de correction d’erreurs employées.
Les principaux acteurs de la course à l'informatique quantique
Amazon AWS
Amazon Web Services (AWS) a présenté Ocelot, une puce informatique quantique innovante conçue pour surmonter l’un des obstacles les plus importants de l’informatique quantique : le coût prohibitif de la correction des erreurs. En intégrant dès le départ une nouvelle approche de suppression des erreurs, l’architecture Ocelot représente une avancée qui pourrait rapprocher l’informatique quantique pratique et tolérante aux pannes de la réalité. Bien que l’annonce d’Ocelot ne soit pas spécifique à la « sécurité quantique », il est essentiel de voir les avancées de l’informatique quantique.
Les ordinateurs quantiques sont sensibles à leur environnement. De légères perturbations, telles que des vibrations, des fluctuations de température ou même des rayons cosmiques, peuvent perturber les qubits et provoquer des erreurs de calcul. Historiquement, la correction d’erreurs quantiques consiste à encoder des informations quantiques sur plusieurs qubits, créant ainsi des qubits « logiques » qui détectent et corrigent les erreurs. Cependant, les approches actuelles de correction d’erreurs nécessitent d’énormes ressources, ce qui rend l’informatique quantique à grande échelle coûteuse et complexe.
Une nouvelle approche de la correction des erreurs quantiques
Développé par le Centre AWS pour l'informatique quantique de Caltech, Ocelot a été conçu dès le départ avec la correction des erreurs comme base. Cette approche s'écarte de la méthode traditionnelle de mise à niveau des architectures existantes pour gérer les erreurs. Au lieu de cela, Ocelot utilise des « qubits de chat », inspirés de l'expérience de pensée du chat de Schrödinger, qui suppriment de manière inhérente certaines erreurs. Cette résilience intégrée aux erreurs réduit considérablement les ressources nécessaires à la correction des erreurs, ce qui peut réduire les coûts jusqu'à 90 %.
Ocelot combine ces qubits cat avec des composants de correction d'erreur quantique supplémentaires sur une micropuce en silicium évolutive, en s'appuyant sur les techniques de fabrication de l'industrie de la microélectronique. Cette conception garantit que la puce peut être produite en plus grande quantité à moindre coût, ce qui permet de surmonter un obstacle majeur sur le chemin de l'adoption généralisée de l'informatique quantique.
Selon Oskar Painter, directeur du matériel quantique chez AWS, cette nouvelle approche pourrait accélérer le développement d’ordinateurs quantiques pratiques jusqu’à cinq ans. Ocelot ouvre la voie à l’application de l’informatique quantique à des problèmes complexes du monde réel en réduisant les besoins en ressources et en permettant des systèmes quantiques plus compacts et plus fiables. Il s’agit notamment de faire progresser la découverte de médicaments, de créer de nouveaux matériaux, d’optimiser les chaînes d’approvisionnement et d’améliorer les modèles de prévision financière.
Le prototype de puce Ocelot est constitué de deux micropuces en silicium intégrées, collées en une pile. Les éléments du circuit quantique sont constitués de fines couches de matériaux supraconducteurs, notamment de tantale, qui améliorent la qualité des oscillateurs de la puce, les composants essentiels responsables du maintien de la stabilité des états quantiques. Chaque puce ne mesure que 1 cm², mais abrite 14 composants essentiels : cinq qubits de données (qubits cat), cinq circuits tampons pour la stabilisation et quatre qubits de détection d'erreurs.
Une vision pour l'avenir
Bien qu’Ocelot soit encore en phase de prototype, AWS s’engage à poursuivre ses travaux de recherche et de développement. Painter souligne que le chemin vers l’informatique quantique tolérante aux pannes nécessitera une innovation continue et une collaboration avec la communauté universitaire. En repensant la pile quantique et en intégrant les nouvelles découvertes dans le processus d’ingénierie, AWS vise à construire une base solide pour la prochaine génération de technologies quantiques.
AWS a publié ses conclusions sur Ocelot dans un article de Nature évalué par des pairs et sur le site Web d'Amazon Science, fournissant des informations techniques plus approfondies sur l'architecture et les capacités de la puce. L'investissement d'AWS dans la recherche quantique fondamentale et les solutions évolutives contribuera à transformer le potentiel de l'informatique quantique en avancées concrètes à mesure que la recherche progresse.
Recherche Google (Willow)
En décembre 2024, Google Research a présenté Willow, une avancée dans la correction des erreurs quantiques qui pourrait accélérer considérablement le calendrier de mise en œuvre de l'informatique quantique. Bien que Google n'ait pas explicitement annoncé d'avancées cryptographiques post-quantiques, les améliorations de Willow en matière de suppression des erreurs et d'évolutivité en font une étape majeure vers des systèmes quantiques tolérants aux pannes.
L'un des défis de longue date de l'informatique quantique est la gestion des taux d'erreur, qui augmentent à mesure que des qubits sont ajoutés. Willow s'attaque à ce problème en démontrant une suppression exponentielle des erreurs : à mesure que le nombre de qubits augmente, le système devient nettement plus stable et fiable. Lors des tests, Willow a réalisé un calcul de référence en moins de cinq minutes, une tâche qui prendrait plus de 10 septilliards d'années au supercalculateur Frontier de l'ORNL, un nombre qui dépasse de loin l'âge de l'univers.
La principale avancée de Google réside dans son approche de correction d’erreurs quantiques évolutive. Chaque fois que le réseau de qubits codés est passé de 3×3 à 5×5 puis à 7×7, le taux d’erreurs codées a été réduit de moitié. Cela prouve qu’à mesure que des qubits supplémentaires sont ajoutés, le système ne se contente pas de croître, il devient également exponentiellement plus fiable. Il s’agit d’une étape importante dans la correction d’erreurs quantiques, un défi que les chercheurs poursuivent depuis près de trois décennies.
Bien que la conception actuelle de 105 qubits de Willow puisse sembler modeste par rapport au Condor de 1,121 XNUMX qubits d'IBM, son taux d'erreur considérablement plus faible et son architecture évolutive la positionnent comme un potentiel changeur de jeu dans la course aux armements de l'informatique quantique.
IBM
Les avancées d'IBM dans le domaine de l'informatique quantique et de l'intelligence artificielle placent l'entreprise à l'avant-garde de l'innovation technologique. En menant des efforts dans le domaine de la cryptographie post-quantique et en publiant des modèles d'IA de pointe, IBM continue de démontrer son engagement à façonner l'avenir des solutions d'entreprise intelligentes et sécurisées.
IBM s'est positionnée comme un leader dans le domaine de la cryptographie post-quantique, un domaine de recherche essentiel à l'évolution de l'informatique quantique. Les contributions importantes de l'entreprise aux normes cryptographiques sécurisées pour les systèmes quantiques comprennent le développement de plusieurs algorithmes qui ont été reconnus comme des références dans le domaine. Notamment, deux algorithmes IBM, ML-KEM (anciennement CRYSTALS-Kyber) et ML-DSA (anciennement CRYSTALS-Dilithium), ont été officiellement adoptés comme normes de cryptographie post-quantique en août 2024. Ces algorithmes ont été créés en collaboration avec des partenaires universitaires et industriels de premier plan, ce qui représente une étape cruciale vers des méthodes de chiffrement capables de résister aux attaques quantiques.
IBM a également joué un rôle clé dans une autre norme importante, SLH-DSA (anciennement SPHINCS+), qui a été co-développée par un chercheur actuellement chez IBM. L'algorithme FN-DSA (anciennement FALCON) de la société a également été sélectionné pour une future normalisation afin d'asseoir davantage son leadership. Ces réalisations soulignent les efforts continus d'IBM pour définir et affiner les outils cryptographiques permettant de sécuriser les données dans un monde post-quantique.
Au-delà du développement d’algorithmes, IBM a commencé à intégrer ces technologies quantiques à ses plateformes cloud. En proposant des solutions pratiques et évolutives que les environnements d’entreprise peuvent adopter, IBM souligne son engagement à aider les organisations à protéger leurs données contre les menaces quantiques. Cette approche globale (création de nouveaux algorithmes, établissement de normes industrielles et déploiement dans le monde réel) positionne IBM comme un partenaire de confiance pour les entreprises qui se préparent à un avenir post-quantique.
Granit 3.2
Parallèlement à ses efforts en matière d’informatique quantique, IBM fait également progresser l’IA avec la sortie de la famille de modèles Granite 3.2. Ces modèles d’IA vont de configurations plus petites de 2 milliards de paramètres à des options plus étendues de 8 milliards de paramètres, offrant une gamme polyvalente adaptée aux différents besoins des entreprises. Parmi ceux-ci figurent plusieurs modèles spécialisés conçus pour gérer des tâches distinctes :
- Modèles de langage visuel (MLV) : Capable de comprendre et de traiter des tâches qui combinent des données d'image et de texte, comme la lecture de documents.
- Instruire les modèles avec support de raisonnement : Cette fonctionnalité est optimisée pour les tâches de raisonnement et de suivi d'instructions plus complexes, permettant d'améliorer les performances sur les tests de performance.
- Modèles de gardiens : Les modèles axés sur la sécurité s’appuyant sur les itérations précédentes sont affinés pour offrir une gestion de contenu plus sûre et plus responsable.
Le portefeuille d'IBM comprend également des modèles de séries chronologiques (anciennement appelés TinyTimeMixers ou TTM) conçus pour analyser les données qui évoluent au fil du temps. Ces modèles peuvent prévoir les tendances à long terme, ce qui les rend utiles pour prédire les mouvements des marchés financiers, la demande de la chaîne d'approvisionnement ou la planification saisonnière des stocks.
Comme pour les avancées quantiques, les modèles d'IA d'IBM bénéficient d'une évaluation et d'un perfectionnement continus. La gamme Granite 3.2 a montré de solides performances, en particulier dans les tâches de raisonnement où les modèles peuvent rivaliser avec les concurrents de pointe (SOTA). Cependant, des questions subsistent concernant la transparence du processus de test. Les tests de référence actuels soulignent la force des modèles d'IBM, mais certaines techniques, telles que la mise à l'échelle des inférences, ont peut-être donné un avantage à Granite. Il est important de noter que ces techniques ne sont pas propres aux modèles d'IBM ; l'adoption par les concurrents pourrait surpasser Granite dans des tests similaires.
Il serait utile de clarifier la manière dont ces analyses comparatives ont été réalisées et de reconnaître que les techniques sous-jacentes peuvent être appliquées à différents modèles pour dresser un tableau plus juste du paysage concurrentiel. Cette transparence permet aux entreprises de comprendre pleinement les capacités et les limites des modèles Granite, ce qui leur permet de prendre des décisions éclairées lors de l’adoption de solutions d’IA.
En intégrant des normes cryptographiques et en développant des modèles d'IA avancés, IBM propose une suite complète de technologies conçues pour répondre aux besoins des entreprises modernes. Son approche de la cryptographie post-quantique ouvre la voie à un avenir sécurisé, tandis que la famille Granite 3.2 met en valeur le potentiel de l'IA pour transformer les opérations commerciales.
Microsoft
Microsoft a récemment annoncé la puce quantique Majorana 1. Elle est construite à partir d'un matériau révolutionnaire appelé topoconducteur et est la première puce quantique au monde alimentée par un cœur topologique. Cette puce peut atteindre un nouvel état de la matière qui pourrait raccourcir le délai de développement d'ordinateurs quantiques significatifs de plusieurs décennies à plusieurs années. Cette approche topologique permet de créer des systèmes quantiques capables d'évoluer jusqu'à un million de qubits sur une seule puce. Cette avancée nous permet de résoudre des problèmes que la puissance de calcul mondiale ne peut pas résoudre aujourd'hui.
Bien que Microsoft n’ait pas annoncé de solution de cryptographie post-quantique, elle a respecté les normes de sécurité. Elle est prête à proposer une solution hybride qui utilise l’informatique classique et quantique.
Quel est l’impact du manque de préparation ?
- Vulnérabilités de chiffrement:Une fois que les machines quantiques à grande échelle deviendront une réalité, les méthodes de cryptage classiques comme RSA et ECC pourraient être brisées plus rapidement.
- Algorithmes post-quantiques:Pour faire face à cette menace, les cryptographes et les fournisseurs de technologie développent de nouveaux algorithmes conçus pour résister aux attaques quantiques.
- Protection des données et conformité:Les secteurs qui manipulent des données sensibles (finance, santé, gouvernement) doivent garder une longueur d’avance sur les menaces quantiques pour respecter les normes réglementaires et protéger les informations des clients.
- Mises à jour matérielles et logicielles:La mise en œuvre de la cryptographie post-quantique nécessite des mises à jour de l’infrastructure existante, affectant tout, des serveurs et périphériques de stockage aux équipements réseau et aux outils de sécurité basés sur des logiciels.
- Stratégie à long terme:Une planification précoce aide les organisations à éviter les migrations précipitées, garantissant que les données restent sécurisées même si l’informatique quantique évolue plus rapidement.
Que signifie être à l’abri des dangers quantiques ?
Être sûr en matière de calcul quantique signifie s’assurer que l’ensemble de l’infrastructure informatique (serveurs, stockage, réseaux et applications) est protégé contre les attaques potentielles de calcul quantique. Cela implique de passer à des algorithmes de cryptographie post-quantique (PQC) approuvés par le NIST et conçus pour résister aux attaques des ordinateurs quantiques. Contrairement au chiffrement traditionnel, qui repose sur la factorisation des nombres entiers ou la cryptographie à courbe elliptique (ECC), le chiffrement sécurisé en matière de calcul quantique repose sur des réseaux structurés, des hachages sans état et des réseaux NTRU, qui sont beaucoup plus difficiles à déchiffrer pour les ordinateurs quantiques.
L’un des plus grands défis de cette transition est l’agilité cryptographique, c’est-à-dire la capacité à changer d’algorithme de chiffrement lorsque des vulnérabilités sont rapidement découvertes. De nombreuses méthodes cryptographiques actuelles sont profondément intégrées dans les micrologiciels, les logiciels et les puces de sécurité matérielles, ce qui rend cette transition complexe. Les organisations qui ne parviennent pas à adopter l’agilité cryptographique peuvent avoir du mal à mettre à jour leur posture de sécurité à mesure que les menaces quantiques émergent.
Depuis 2016, le NIST mène un effort de normalisation de la cryptographie post-quantique d'une durée de 8 ans, évaluant 69 algorithmes potentiels avant de sélectionner quatre finalistes :
- CRYSTALS-Kyber (FIPS 203) – Chiffrement à clé publique et échange de clés
- CRISTAUX-Dilithium (FIPS 204) – Signatures numériques
- SPHINCS+ (SLH-DSA, FIPS 205) – Signatures numériques basées sur le hachage
- FALCON – Un autre système de signature numérique (pas encore entièrement recommandé par le NIST)
Ces algorithmes constituent l’épine dorsale d’une sécurité résistante aux attaques quantiques, et le NIST travaille également sur des normes de secours pour garantir l’adaptabilité à mesure que l’informatique quantique progresse.
La transition vers une sécurité quantique pour les organisations qui exploitent des systèmes hérités peut nécessiter des solutions middleware créatives ou des cycles de renouvellement du matériel pour garantir la conformité à long terme. Cependant, les entreprises qui privilégient aujourd'hui l'agilité cryptographique seront mieux placées pour une migration en douceur lorsque la cryptographie post-quantique deviendra la nouvelle norme.
Approche du fournisseur en matière de stockage à sécurité quantique
Broadcom
Broadcom, une entreprise traditionnellement axée sur la connectivité réseau à haut débit et les technologies de déchargement, s'est fortement impliquée dans les implications de sécurité de l'informatique post-quantique. Bien qu'elle n'ait pas beaucoup fait connaître ses efforts de recherche quantique, les initiatives de Broadcom autour de la connectivité sécurisée sont importantes. En alignant ses produits sur les normes cryptographiques émergentes, Broadcom vise à garantir que son matériel réseau largement utilisé, comme les adaptateurs de marque Emulex, reste sécurisé contre les menaces futures. Cette approche discrète et méthodique reflète l'engagement plus large de Broadcom à fournir une infrastructure résiliente qui prend en charge les demandes évolutives des environnements d'entreprise et de centres de données. Au fil du temps, Broadcom pourrait tirer parti de sa position dans le secteur et de son portefeuille de matériel de confiance pour intégrer de manière plus visible des solutions de sécurité quantique, aidant ainsi ses clients à gérer la transition vers les normes post-quantiques.
Nous avons récemment couvert le nouveau produit de Broadcom Adaptateur de bus hôte Fibre Channel sécurisé Emulex (HBA), qui intègre les normes NIST de cryptographie post-quantique et Zero Trust. Ces nouveaux HBA déchargent le chiffrement du système hôte pour garantir l'absence d'effets négatifs sur les performances. Au cours de nos tests, les HBA Emulex ont fonctionné comme annoncé, avec une baisse de performances inférieure à 3 %.
Les HBA Emulex traitent toutes les données chiffrées en transit (EDIF) au niveau du matériel. Les HBA disposent de SoC à 8 cœurs, qui gèrent la charge de travail et dirigent les paquets de données via le moteur de déchargement du chiffrement. Étant donné que le chiffrement est déchargé, le processeur hôte n'est pas affecté par ces opérations de chiffrement.
Dell
Dell a progressivement posé les bases de la préparation post-quantique. En intégrant des capacités de chiffrement basées sur le matériel dans ses serveurs, ses baies de stockage et ses dispositifs de protection des données, Dell offre une base sécurisée pour les charges de travail des entreprises. Sa collaboration avec des partenaires du secteur et son adhésion aux normes émergentes de sécurité quantique reflètent une stratégie délibérée visant à aider les clients à pérenniser leurs infrastructures.
Bien que les initiatives de Dell liées au quantique ne soient pas aussi visibles publiquement que celles de certains de ses pairs, l'accent mis sur la résilience, la fiabilité et l'intégration transparente dans les environnements informatiques existants démontre un engagement fort envers ses clients. À l'approche de l'ère post-quantique, la combinaison de partenariats industriels et de solutions d'infrastructure solides de Dell offrira probablement aux entreprises un moyen simple de sécuriser leurs données et leurs opérations.
Dell est conscient que l'informatique quantique aura un impact considérable sur le paysage actuel de la sécurité, faisant de l'informatique quantique un outil puissant pour les attaquants. La cryptographie, fondamentale pour la sécurité des données et des systèmes, doit évoluer. Dell aidera les entreprises à faire la transition vers une sécurité quantique de la manière suivante :
- Participez à l'écosystème PQC : Nous offrons des ressources et une expertise étendues pour aider les entreprises à rester à la pointe des avancées en matière d'informatique quantique et de cryptographie post-quantique (PQC). Nos connaissances peuvent aider les entreprises à anticiper et à relever efficacement les défis futurs.
- Évaluer les postures de sécurité : Évaluez les données et les systèmes de votre environnement pour identifier les vulnérabilités potentielles des systèmes cryptographiques et vous préparer aux menaces futures.
- Investissez dans des solutions de sécurité quantique : Dell s'engage à fournir des solutions de pointe pour explorer et mettre en œuvre des stratégies PQC. Ils collaborent avec des experts du secteur pour garantir l'alignement avec les normes et technologies émergentes.
- Élaborez une feuille de route de transition : Élaborer et exécuter des plans de transition détaillés, intégrant une infrastructure résistante aux attaques quantiques avec des délais et des engagements de ressources clairs. Les consommateurs de technologies doivent se préparer dès maintenant pour 2035 afin d’adopter des systèmes résistants aux attaques quantiques.
- Favoriser la collaboration au sein de l’industrie : Participer activement aux forums de l'industrie tels que le Quantum Economic Development Consortium (QED-C) et les groupes de travail sur la cryptographie quantique et la cryptographie post-quantique ainsi qu'à d'autres partenariats pour partager des idées et des meilleures pratiques, favorisant ainsi des progrès collectifs en matière de sécurité quantique.
À l’approche de l’ère quantique, la résilience des entreprises dépend de leur capacité à anticiper et à s’adapter à l’évolution technologique à venir. Les clients Dell s’alignent sur la normalisation des algorithmes de cryptographie post-quantique. Les gouvernements imposent des systèmes résistants au quantique, avec des transitions importantes attendues entre 2030 et 2033. Bien que la mise en œuvre de la PQC puisse prendre quelques années, les organisations doivent adopter dès aujourd’hui les meilleures pratiques de sécurité pour faciliter la transition de demain. En adoptant la PQC et en se préparant avec Dell Technologies, les entreprises peuvent sécuriser leurs opérations, stimuler l’innovation et prospérer dans un monde alimenté par le quantique. Il est essentiel de faire preuve de prévoyance stratégique et d’utiliser des mesures proactives.
Cryptographie post-quantique : un impératif stratégique pour la résilience des entreprises
IBM
Deux des nouvelles normes PQC du NIST ont été développées par des experts en cryptographie d'IBM Research à Zurich, tandis que la troisième a été co-développée par un scientifique travaillant actuellement chez IBM Research. IBM s'est imposé comme un leader de la recherche PQC, motivé par son engagement en faveur d'un avenir sûr pour les systèmes quantiques grâce à son portefeuille de produits et services IBM Quantum Safe™. Pour information, IBM a travaillé sur une norme de chiffrement en 1970 qui a été adoptée par le prédécesseur du NIST, le National Bureau of Standards des États-Unis.
Nous avons récemment publié une critique de la Système Flash IBM 5300 qui aborde l'accent mis par IBM sur la pérennité de ses produits de stockage et tout ce qu'IBM prend en charge. Lisez notre critique du FlashSystem 5300.
Les modules FlashCore sont les éléments de base de toutes les baies de stockage NVMe FlashSystem. Prise en charge du module IBM FlashCore 4 (FCM4) :
- Cryptographie quantique sécurisée (QSC)
- Algorithmes cryptographiques asymétriques
- Signatures CRYSTALS-Dilithium pour l'authentification et la vérification du microprogramme
- CRYSTALS-Kyber pour le transport sécurisé des clés de déverrouillage PIN transmises par les contrôleurs IBM FLASHSYSTEMS aux FCM
- Données client cryptées dans la mémoire flash avec *XTS-AES-256
- Deux autres algorithmes envisagés par le NIST, FALCON et Sphincs+, ne sont pas actuellement utilisés dans FlashSystem.
Les équipes d'IBM Quantum Safe et d'IBM Research ont lancé plusieurs initiatives pour sécuriser la plateforme et le matériel informatiques quantiques d'IBM contre les cybermenaces potentielles de type « récolter maintenant, décrypter plus tard ». En outre, IBM noue des partenariats avec des communautés quantiques et open source pour protéger ses clients et garantir la sécurité quantique à l'échelle mondiale. Au cœur de ces efforts se trouve un plan global visant à intégrer des protocoles de sécurité quantiques dans l'ensemble du matériel, des logiciels et des services d'IBM, à commencer par la plateforme IBM Quantum.
La plateforme IBM Quantum, accessible via le kit de développement logiciel Qiskit, offre un accès basé sur le cloud aux ordinateurs quantiques à grande échelle d'IBM. Sa transition vers une sécurité quantique se fera en plusieurs phases, chaque étape étendant la cryptographie post-quantique à des couches de pile matérielle et logicielle supplémentaires. IBM a mis en œuvre la sécurité de la couche de transport (TLS) quantique sur la plateforme IBM Quantum. Cette mesure de sécurité, optimisée par le maillage de services Istio de l'outil IBM Quantum Safe Remediator™, garantit un chiffrement quantique à partir des postes de travail clients via le pare-feu d'IBM Cloud et dans les services cloud. Alors qu'IBM continue de prendre en charge les connexions héritées standard, les chercheurs et les développeurs pourront bientôt soumettre des tâches de calcul quantique entièrement via des protocoles quantiques sécurisés.
Avec l'aimable autorisation d'IBM du blog Responsible Quantum Computing.
L'engagement d'IBM en matière de sécurité quantique comprend également un portefeuille complet d'outils sous la marque IBM Quantum Safe. Ces outils comprennent IBM Quantum Safe Explorer™, IBM Quantum Safe Posture Management et IBM Quantum Safe Remediator. Chaque outil remplit un rôle distinct :
- IBM Quantum Safe Explorer aide les développeurs d'applications et les DSI à analyser les portefeuilles d'applications de leur organisation, à identifier les vulnérabilités cryptographiques et à générer des nomenclatures cryptographiques (CBOM) pour guider la mise en œuvre de la sécurité quantique.
- IBM Quantum Safe Posture Management fournit un inventaire complet des actifs cryptographiques d'une organisation, permettant des politiques cryptographiques personnalisées, des évaluations des risques et des analyses contextuelles des vulnérabilités.
- IBM Quantum Safe Remediator protège les données en transit en permettant des communications TLS sécurisées par des algorithmes quantiques. Il comprend également un harnais de test qui permet aux organisations de mesurer l'impact sur les performances des algorithmes post-quantiques avant d'effectuer des mises à jour à l'échelle du système.
IBM Quantum Safe Explorer et IBM Quantum Safe Remediator sont déjà disponibles, mais IBM Quantum Safe Posture Management est actuellement en préversion privée. IBM élargit son portefeuille Quantum Safe et s'efforce d'offrir une visibilité et un contrôle complets sur la sécurité cryptographique, permettant ainsi aux entreprises de passer en toute transparence à des systèmes à sécurité quantique.
Au-delà des efforts propriétaires d’IBM, des progrès significatifs ont été réalisés dans la communauté open source. Reconnaissant le rôle essentiel des logiciels open source (OSS) dans l’informatique mondiale, IBM a plaidé pour la création d’une communauté et d’une gouvernance autour des outils de cryptographie post-quantique. En collaboration avec la Linux Foundation et la communauté Open Quantum Safe, IBM a contribué à la création de la Post-Quantum Cryptography Alliance (PQCA) en 2023. Cette alliance favorise la coopération à l’échelle de l’industrie et l’avancement de la cryptographie post-quantique, soutenue par les contributions d’acteurs majeurs comme AWS, NVIDIA et l’Université de Waterloo.
Les contributions d'IBM à l'écosystème open source incluent :
- Open Quantum Safe : un projet fondateur permettant la cryptographie post-quantique sous Linux et d'autres environnements.
- Package de code post-quantique : implémentations logicielles à haute assurance d'algorithmes PQC conformes aux normes.
- Sonar Cryptography : un plugin SonarQube qui analyse les bases de code à la recherche d'actifs cryptographiques et génère des CBOM.
- Améliorations d'OpenSSL et de cURL : ajout de fonctionnalités de prise en charge d'algorithmes post-quantiques et d'observabilité.
- Contributions de HAProxy et Istio : amélioration de l'observabilité et configuration de courbes quantiques sécurisées pour des communications sécurisées.
- Intégration Python : activation de la configuration d'algorithmes quantiques sécurisés pour TLS au sein du fournisseur OpenSSLv3 de Python.
Ces contributions illustrent l’implication d’IBM dans l’avancement de la sécurité quantique open source, depuis le lancement de la boîte à outils Qiskit jusqu’à la conduite des efforts communautaires qui sécuriseront les logiciels open source à l’ère quantique.
À mesure que les ordinateurs quantiques progressent vers une utilité pratique, la menace potentielle de briser le chiffrement à clé publique devient plus pressante. Même s’il faudra peut-être des années avant que cela ne devienne une réalité, le risque de schémas de type « récolter maintenant, déchiffrer plus tard » exige une action immédiate. IBM a été à l’avant-garde du développement et du partage d’algorithmes de chiffrement post-quantique dans le cadre du concours du NIST. IBM continuera de diriger la Post-Quantum Cryptography Alliance, d’intégrer les commentaires du NIST et de guider la transition mondiale vers des méthodes sûres pour les systèmes quantiques.
Pour accompagner ses clients d'entreprise, IBM propose une suite complète d'outils et de services permettant une transformation sécurisée par le quantique. Ces ressources aident les organisations à remplacer la cryptographie à risque, à améliorer l'agilité cryptographique et à maintenir la visibilité sur les postures de cybersécurité.
IBM a créé un guide pour vous aider à déterminer les éléments nécessaires au déploiement de la cryptographie. Télécharger Mise en œuvre de la cryptographie Construction de matériaux pour commencer à mettre en œuvre des systèmes et des applications post-quantiques.
NetApp
NetApp a annoncé une solution appelé Chiffrement des données au repos compatible avec les technologies quantiques par NetAppCette solution utilise le cryptage AES-256 pour appliquer les recommandations actuelles de la NSA en matière de protection contre les attaques quantiques.
L'introduction par NetApp du chiffrement des données au repos compatible avec le quantum met en évidence l'approche de l'entreprise en matière de sécurité du stockage. En mettant en œuvre le chiffrement AES-256 conformément aux recommandations de la NSA, NetApp offre à ses clients une protection contre les risques potentiels posés par l'informatique quantique. Au-delà de la mise en œuvre technique, l'accent mis par NetApp sur l'agilité cryptographique, comme la capacité à s'adapter aux nouvelles normes de chiffrement, la distingue. Cette orientation garantit que les solutions de stockage de NetApp peuvent évoluer en même temps que les algorithmes quantiques sécurisés. En combinant cette agilité avec une solide réputation dans la gestion des données et les environnements de cloud hybride, NetApp se positionne comme un partenaire fiable pour les organisations qui se préparent à un monde post-quantique.
NetApp propose une solution de chiffrement intégrée et compatible avec les systèmes quantiques, conforme à la suite d'algorithmes de sécurité nationale commerciale, qui recommande AES-256 comme algorithme et longueur de clé préférés jusqu'à ce que des algorithmes de chiffrement résistants aux systèmes quantiques soient définis (voir NSA (consultez le site pour plus de détails). De plus, dans le cadre du programme Commercial Solutions for Classified, la NSA préconise une approche de cryptage en couches intégrant des couches logicielles et matérielles.
NetApp Volume Encryption (NVE), une fonctionnalité clé du logiciel de gestion des données NetApp ONTAP, fournit un chiffrement AES-140 validé FIPS 2-256 via un module cryptographique logiciel. NetApp Storage Encryption (NSE) utilise des disques à chiffrement automatique pour fournir un chiffrement AES-140 validé FIPS 2-256 pour les systèmes AFF all-flash et FAS hybrid-flash. Ces deux technologies de chiffrement distinctes peuvent être combinées
ensemble pour fournir une solution de cryptage native en couches qui offre une redondance de cryptage et une sécurité supplémentaire : si une couche est violée, la deuxième couche continue de sécuriser les données.
Beaucoup plus à venir
Bien que cet article mette en lumière les initiatives de sécurité quantique d'IBM, Dell, NetApp et Broadcom, d'autres grands fournisseurs de stockage et d'infrastructures ont également commencé à se préparer à l'ère post-quantique. HPE a intégré des capacités cryptographiques de sécurité quantique dans les produits réseau Alletra Storage MP et Aruba, conformément aux normes PQC du NIST. Pure Storage a reconnu la menace quantique et travaille à l'intégration de la sécurité post-quantique dans son architecture Evergreen, garantissant des mises à jour cryptographiques transparentes.
Western Digital et Seagate étudient des stratégies de protection des données résistantes aux attaques quantiques pour sécuriser les données d’archivage à long terme. Les fournisseurs de stockage cloud comme AWS, Google Cloud et Microsoft Azure ont commencé à déployer le protocole TLS post-quantique (PQTLS) pour les données chiffrées en transit, ce qui indique une évolution plus large du secteur vers des solutions de stockage et de mise en réseau à sécurité quantique. À mesure que l’informatique quantique continue d’évoluer, les entreprises doivent surveiller activement les feuilles de route des fournisseurs pour garantir la résilience cryptographique à long terme de leur infrastructure.
Se préparer à l’avenir quantique
L’informatique quantique représente l’un des plus grands défis en matière de cybersécurité. Il n’est pas envisageable d’attendre le jour J. Si le chiffrement asymétrique 2048 bits est brisé, les entreprises qui ne se sont pas adaptées verront leurs données les plus sensibles exposées, ce qui pourrait entraîner des conséquences financières, juridiques et réputationnelles considérables. Même si une faille de sécurité provoquée par l’informatique quantique ne mettra pas fin au monde, elle pourrait rapidement mettre fin à une entreprise.
La bonne nouvelle ? La sécurité quantique ne se réinvente pas du jour au lendemain : il s’agit d’une transition stratégique. Les entreprises qui mettent en œuvre l’agilité cryptographique aujourd’hui seront bien mieux placées pour faire face aux menaces futures, en s’assurant que les logiciels, le stockage et l’infrastructure pourront évoluer parallèlement aux normes post-quantiques. Les fournisseurs de cloud, les fournisseurs de stockage et les sociétés de sécurité intègrent déjà des algorithmes PQC approuvés par le NIST, mais les entreprises doivent activement sécuriser leurs propres données.
Si votre organisation n’a pas encore commencé à évaluer les risques quantiques, ceci devrait être un signal d’alarme. Recommandations PQC du NIST, les feuilles de route des fournisseurs et les stratégies de migration post-quantique. La transition vers une sécurité quantique est déjà en cours, et ceux qui agissent maintenant seront les mieux préparés pour l'avenir.
La menace de l’informatique quantique
S'engager avec StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS