Par ce que là, l'argument c'est "personne n'a jamais vu un ordinateur quantique"… Mais si on attend d'en voir un pour s'en protéger, c'est un peu tard, non ?
Disons que le gars qui a écrit le papier me semble connaître assez bien les 3 lois de Clarke, dont la fameuse 3eme loi qui dit que toute technologie suffisamment avancée est indiscernable de la magie, et ça marche assez bien avec tout ce qui est "quantique".
En pratique, les technos de chiffrement et de déchiffrement évoluent plus ou moins de concert, quantique ou pas, je suis pas sur que ça change grand chose, mais l'informatique quantique c'est abominablement complexe et de fait, ça parait magique pour le profane, et ça laisse cours a pas mal de fantasmes.
Potentiellement, il peut y avoir une avancée majeure du coté attaque qui mette en péril le coté défense. Historiquement, c'est assez bien illustré par l'histoire d'Enigma et de son déchiffrement. Et pour le coup, c'est plutôt une bonne chose que les nazis n'aient pas trop anticipé le truc hein.
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
«Le gars qui a écrit le papier» c'est Peter Gutman, un chercheur de haut niveau en cryptographie et sécurité informatique. Il est connu pour son humour.
Je partage la critique. Dans le monde de la cryptographie, des personnes ont travaillé pour avoir des méthodes de chiffrement plus difficiles à casser avant même que les générations précédentes ne soient cassées. Ce soucis d'être résistant aux attaques présentes et futures a toujours été existé.
Oui, mais avec quand même une grosse différence dans le cas du quantique : on passerait de dizaines, voire centaines d'années pour décrypter un message à quelques minutes ou heures. On n'est plus dans le même ordre de grandeur que l'amélioration progressive des performances des ordinateurs. De plus, la cryptographie post-quantique vise à rendre celle-ci hors d'atteinte de l'informatique quantique, quel que soit le nombre de qbits mis en œuvre, car il y a des algorithmes qui sont par nature inaccessibles à l'informatique quantique.
Bon, encore faut-il que la cryptographique post-quantique résiste aussi au moins quelques dizaines d'années au progrès des ordinateurs "classiques".
Posté par Big Pete .
Évalué à 5.
Dernière modification le 28 avril 2023 à 13:01.
Je ne pense pas que ce soit dans ce sens là qu'il faille interpréter la critique humoristique de Gutmann. (ce qu'on appelle une caricature) Disons qu'il appuie sur le fait qu'on aurait éventuellement tendance à fantasmer et à surévaluer un risque futur peut-être au détriment de risques eux bien actuels. Je suis pas forcément expert sécurité, mais vis à vis de ceux que je fréquente au quotidien au taf, les enjeux lié a l'informatique quantique c'est le cadet de leur soucis, si tu vois ce que je veux dire.
ça veut pas dire que le problème n'est pas intéressant et qu'il ne faudrait pas faire de recherche ni consacrés des moyens dans le domaine, hein.
Gutmann en prenant l'exemple des châteaux est assez malin. C'est justement des fortifications qui ont été rendues caduque par la généralisation des canons suite à la découverte de la poudre à canon
Et c'est une bonne illustration du principe que la connaissance de l'histoire est un bon moyen de comprendre le futur, ou l'art de regarder derrière pour mieux voir devant :)
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
Disons qu'il appuie sur le fait qu'on aurait éventuellement tendance à fantasmer et à surévaluer un risque futur peut-être au détriment de risques eux bien actuels.
En fait, la crypto post-quantique marche bien aussi dans le modèle standard. La résistance post-quantique, dans tous les schémas que je connais, en particulier ceux retenus par le NIST, est une propriété supplémentaire. Et s'il y a un coût, il est en terme de mémoire ou de calcul, en aucun cas en sécurité. Certains algos post-quantiques sont analysés depuis très longtemps, par exemple le schéma de McEliece date de 1978, la même année que RSA !
La résistance aux attaques quantiques est censés être une propriété supplémentaire, sauf si on se gourre. On a des algo qui ont été éprouvés, les remplacer par de nouveaux aussi robustes sur des attaques quantiques que classiques n'est apparemment pas si simple.
Oui, je connais le cas de SIKE. C'est bien pour identifier de nouvelles attaques qu'il y a les rounds de compétition du NIST : mettre le focus sur les algos proposés et encourager les cryptanalystes à attaquer les algos proposés… Et tu remarquera qu'être cassable par un ordinateur quantique élimine (sauf correction) de la compétition PQCrypto.
Ce que je voulais surtout dire c'est que les algos PQCrypto, pour la plupart, étaient déjà étudiés pour leur propriétés cryptographiques tout court. Ils avaient des inconvénients, comme la taille des clefs ou le coût de calcul, et donc on les étudiaient plus comme primitives cryptographiques et à leur amélioration qu'on ne travaillait à les rendre exploitable par le grand public.
Avec le lancement de la compétition, c'est ce travail de mise en forme pour une utilisation "grand public" qui est demandé à la communauté crypto. Et bien sûr un effort supplémentaire de cryptanalyse.
Et oui, ce n'est pas simple de remplacer des algos éprouvés, mais en même temps il faut se préparer aux attaques possibles, même relativement improbables. Et, je l'ai déjà dit, les algos proposés reposent sur des techniques qui sont dans l'oeuil mire de la communauté depuis vraiment longtemps :
- crypto fondée sur les fonctions de hachage (SPHINCS+) : 1979 (un an après RSA)
- crypto fondée sur les réseaux euclidiens (CRYSTALS - FALCON) : 1996
- crypto fondée sur les codes correcteurs (BIKE - Classical McEliece - HQC) : 1978 (même chose que RSA)
Reste la crypto fondée sur les isogénies (SIKE, cassé), j'ai eu plus de mal à trouver les références, mais le premier papier que j'ai trouvé proposant une utilisation en cryptographie date de 2006 (un Key-escrow system de E. Teske), et surtout de 2010. Bien plus jeune que les autres, donc.
Il ne fait aucun doute que la cryptographie actuelle sera "à poil" face aux ordinateurs quantiques car la décomposition en facteurs premiers est typiquement le truc pour lequel ils sont très efficaces. La question du "quand" n'est pas pertinente, sauf à être sûr que l'échéance se compte en dizaines d'années. En effet, il est très probable que la NSA (et consorts) conservent les documents et échanges interceptés même s'ils ne sont pas en mesure des décrypter aujourd'hui. Dans le tas, il y en aura bien sûr qui n'auront plus aucun intérêt dans 10 ans mais il y en aura aussi beaucoup d'autres qui seront toujours "sensibles". Il est donc pertinent d'essayer dès que possible de rendre les nouveaux documents et échanges résistants à cette éventualité.
Ça ne m'étonnerait donc pas que certains s'emploient à retarder la transition vers une cryptographie post-quantique. Certes, personne n'est en mesure aujourd'hui de dire quand on aura des ordinateurs quantiques opérationnels pour cette tâche. Mais à l'inverse, personne n'est en mesure aujourd'hui d'affirmer que ça n'arrivera que dans 20 ou 30 ans.
Mouais; autant c'est déja un bel exploit d'être capable de se protéger des attaques contemporaines, autant c'est quand même un beau fantasme d'imaginer de se protéger contre des attaques qui n'existent pas encore. Il ne faut pas se leurrer, aucune technologie de chiffrement ne peut garantir de tenir dans le temps.
D'ailleurs, je ne crois pas que dans l'histoire on puisse citer un moyen de chiffrement qui a résisté au temps.
Ça n'empêche pas que la recherche dans ce domaine doit être encouragée, elle peut notamment permettre de ne pas se retrouver démuni dans le cas de la découverte de failles sur les technologies contemporaines. Mais je pense qu'il est très raisonnable de tabler sur le fait que dans 10 ans, quoi que tu fasses, la NSA sera capable de déchiffrer ce que tu fais aujourd'hui. Tu prends beaucoup moins de risques en partant de ce principe et en agissant de manière à ce que les documents ne soient plus valorisables dans 10 ans plutôt que de chiffrer avec un algorithme tout juste issu de la recherche, et pour lequel on puisse trouver une faille 0-day après-demain.
aucune technologie de chiffrement ne peut garantir de tenir dans le temps
Tu t'avance un peu; le one-time-pad va être vraiment difficile à décrypter; la clé fait la longueur du message; et c'est un bête xor, la clé étant généré aléatoirement (pour peu qu'elle le soit vraiment, et non via un générateur pseudo aléatoire), tu n'as aucune possibilité de savoir quel est le message.
C'est ce mécanisme qui est utilisé pour les message vraiment sensibles, les clés étant échangée avant le message, généralement par un moyen physique.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Certes. Tu peux aussi distribuer des enveloppes numérotées de 1 à 100, et au moment voulu tu annonces en clair "Enveloppe 74", qui contient "Débarquement en Normandie le 6 juin".
C'est ce mécanisme qui est utilisé pour les message vraiment sensibles, les clés étant échangée avant le message, généralement par un moyen physique.
On sait quelle méthode utilisent les services secrets, par exemple?
historiquement, le masque jetable a été utilisé pour les communication via le téléphone rouge
Je n'ai pas d'autre exemple en tête. il est théoriquement inviolable si toute les conditions de sa mise en oeuvre sont respectées, ce qui n'est pas forcément simple. En gros, de ce que j'en comprend, il permet en pratique de transférer la sécurité du message intégralement à la sécurité des clés (génération, transmission, conservation).
Sinon, non on ne sait pas ce qu'utilise les services secrets.
Parce que c'est secret …
Et il faut se dire que si on pense savoir ce que fait un service secret, c'est peut-être ce que le service secret voudrait qu'on pense qu'il utilise mais pas ce qu'il utilise vraiment.
Ce n'est pas pour rien qu'ils deviennent parano dans ce métier à force. D'ailleurs, je trouve assez louche que tu poses cette question …
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
plutôt que de chiffrer avec un algorithme tout juste issu de la recherche, et pour lequel on puisse trouver une faille 0-day après-demain.
C'est évident que les cryptographes du monde entier ont décidé d'utiliser des principes tout nouveaux pour standardiser la crypto post-quantique du futur… Ou alors ils se sont basés sur la recherche de ces 20-40 dernières années et ont construit les standards sur l'état de l'art. AES était bien plus un nouvel algo lors de sa standardisation que ne le sont les algos post-quantiques, au moins parmi ceux retenus en round 3 et 4.
Mais je pense qu'il est très raisonnable de tabler sur le fait que dans 10 ans, quoi que tu fasses, la NSA sera capable de déchiffrer ce que tu fais aujourd'hui.
Des agences de sécurité proposent pourtant des recommandations de taille de clef pour des durée de conservations de 10 ans, 20 ans et plus, notamment pour le secret défense…
Posté par mahikeulbody .
Évalué à 4.
Dernière modification le 28 avril 2023 à 16:52.
Mais je pense qu'il est très raisonnable de tabler sur le fait que dans 10 ans, quoi que tu fasses, la NSA sera capable de déchiffrer ce que tu fais aujourd'hui.
A moins de trouver une hypothétique faille dans un système cryptographique, la NSA est impuissante à décrypter les messages et elle le sera encore dans 10 ans ou même 20 car en supposant un doublement de la puissance des ordinateurs tous les 18 mois, ça ne suffira pas pour passer de milliers d'années à quelques heures.
Alors qu'avec un ordinateur quantique, quand il en existera un opérationnel, on va passer à quelques minutes d'un coup. En revanche, il sera toujours (même 10 ans plus tard) incapable de décrypter de la cryptographie post-quantique tout bêtement parce qu'il s'agit d'algorithmes que l'informatique quantique ne sait pas résoudre par nature (ça se démontre formellement [il faudrait que je retrouve la source]). Après, on peut aussi imaginer des attaques hybrides, combinant "conventionnel" et "quantique" mais j'imagine que les concepteurs de cryptologie post-quantique sont conscients de ça et que leurs algorithmes ne sont pas "sécables" de cette manière.
D'ailleurs, je ne crois pas que dans l'histoire on puisse citer un moyen de chiffrement qui a résisté au temps.
Ça dépend de ce que tu entends par "au temps". Le chiffre de Vigenère a était utilisé pendant plusieurs siècles (il me semble que les premières usages connus sont au 13ème siècle et il a était cassé au XIXème), comme d'autres l'ont dis one-pad n'est pas encore cassé (pas sans attaque préalable sur la source d'entropie en tout cas) et on a quelques textes qui nous reste aujourd'hui parfaitement indéchiffrable du genre des messages du Zodiac (qui ont tenu au moins 60 ans) mais il y en a d'autres.
Il ne fait aucun doute que la cryptographie actuelle sera "à poil" face aux ordinateurs quantiques car la décomposition en facteurs premiers est typiquement le truc pour lequel ils sont très efficaces.
Ça fait 18 ans que la NSA pousse à utiliser des méthodes alternatives avec la Suite B puis la CNSA.
J'ai buggé sur ce truc, je pensais au départ qu'il avait inventé le mot, puis je me suis dit que c'était forcément une réf … donc si vous cherchez, vous aussi, c'est par là : Heffalump
Faut faire gaffe avec l'humour de physicien quand même. Si on ne comprend pas la blague, ça ne veut pas forcément dire que ce n'est pas drôle. Donc dans le doute, il vaut mieux rire avec les autres, on sait jamais.
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
# Du coup on devrait attendre ?
Posté par aiolos . Évalué à 3.
Par ce que là, l'argument c'est "personne n'a jamais vu un ordinateur quantique"… Mais si on attend d'en voir un pour s'en protéger, c'est un peu tard, non ?
[^] # Re: Du coup on devrait attendre ?
Posté par Big Pete . Évalué à 2.
Disons que le gars qui a écrit le papier me semble connaître assez bien les 3 lois de Clarke, dont la fameuse 3eme loi qui dit que toute technologie suffisamment avancée est indiscernable de la magie, et ça marche assez bien avec tout ce qui est "quantique".
En pratique, les technos de chiffrement et de déchiffrement évoluent plus ou moins de concert, quantique ou pas, je suis pas sur que ça change grand chose, mais l'informatique quantique c'est abominablement complexe et de fait, ça parait magique pour le profane, et ça laisse cours a pas mal de fantasmes.
Potentiellement, il peut y avoir une avancée majeure du coté attaque qui mette en péril le coté défense. Historiquement, c'est assez bien illustré par l'histoire d'Enigma et de son déchiffrement. Et pour le coup, c'est plutôt une bonne chose que les nazis n'aient pas trop anticipé le truc hein.
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
[^] # Re: Du coup on devrait attendre ?
Posté par orfenor . Évalué à 5.
«Le gars qui a écrit le papier» c'est Peter Gutman, un chercheur de haut niveau en cryptographie et sécurité informatique. Il est connu pour son humour.
[^] # Re: Du coup on devrait attendre ?
Posté par Big Pete . Évalué à 7. Dernière modification le 28 avril 2023 à 12:35.
Du coup, j'ai du déchiffrer son nom. Tu a du utiliser un n de Schrödiger à la fin : Peter Gutmann
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
[^] # Re: Du coup on devrait attendre ?
Posté par nico4nicolas . Évalué à 3.
Je partage la critique. Dans le monde de la cryptographie, des personnes ont travaillé pour avoir des méthodes de chiffrement plus difficiles à casser avant même que les générations précédentes ne soient cassées. Ce soucis d'être résistant aux attaques présentes et futures a toujours été existé.
[^] # Re: Du coup on devrait attendre ?
Posté par mahikeulbody . Évalué à 3.
Oui, mais avec quand même une grosse différence dans le cas du quantique : on passerait de dizaines, voire centaines d'années pour décrypter un message à quelques minutes ou heures. On n'est plus dans le même ordre de grandeur que l'amélioration progressive des performances des ordinateurs. De plus, la cryptographie post-quantique vise à rendre celle-ci hors d'atteinte de l'informatique quantique, quel que soit le nombre de qbits mis en œuvre, car il y a des algorithmes qui sont par nature inaccessibles à l'informatique quantique.
Bon, encore faut-il que la cryptographique post-quantique résiste aussi au moins quelques dizaines d'années au progrès des ordinateurs "classiques".
[^] # Re: Du coup on devrait attendre ?
Posté par Big Pete . Évalué à 5. Dernière modification le 28 avril 2023 à 13:01.
Je ne pense pas que ce soit dans ce sens là qu'il faille interpréter la critique humoristique de Gutmann. (ce qu'on appelle une caricature) Disons qu'il appuie sur le fait qu'on aurait éventuellement tendance à fantasmer et à surévaluer un risque futur peut-être au détriment de risques eux bien actuels. Je suis pas forcément expert sécurité, mais vis à vis de ceux que je fréquente au quotidien au taf, les enjeux lié a l'informatique quantique c'est le cadet de leur soucis, si tu vois ce que je veux dire.
ça veut pas dire que le problème n'est pas intéressant et qu'il ne faudrait pas faire de recherche ni consacrés des moyens dans le domaine, hein.
Gutmann en prenant l'exemple des châteaux est assez malin. C'est justement des fortifications qui ont été rendues caduque par la généralisation des canons suite à la découverte de la poudre à canon
Et c'est une bonne illustration du principe que la connaissance de l'histoire est un bon moyen de comprendre le futur, ou l'art de regarder derrière pour mieux voir devant :)
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
[^] # Re: Du coup on devrait attendre ?
Posté par aiolos . Évalué à 5.
En fait, la crypto post-quantique marche bien aussi dans le modèle standard. La résistance post-quantique, dans tous les schémas que je connais, en particulier ceux retenus par le NIST, est une propriété supplémentaire. Et s'il y a un coût, il est en terme de mémoire ou de calcul, en aucun cas en sécurité. Certains algos post-quantiques sont analysés depuis très longtemps, par exemple le schéma de McEliece date de 1978, la même année que RSA !
[^] # Re: Du coup on devrait attendre ?
Posté par ted (site web personnel) . Évalué à 4.
La résistance aux attaques quantiques est censés être une propriété supplémentaire, sauf si on se gourre. On a des algo qui ont été éprouvés, les remplacer par de nouveaux aussi robustes sur des attaques quantiques que classiques n'est apparemment pas si simple.
Un LUG en Lorraine : https://enunclic-cappel.fr
[^] # Re: Du coup on devrait attendre ?
Posté par aiolos . Évalué à 3.
Oui, je connais le cas de SIKE. C'est bien pour identifier de nouvelles attaques qu'il y a les rounds de compétition du NIST : mettre le focus sur les algos proposés et encourager les cryptanalystes à attaquer les algos proposés… Et tu remarquera qu'être cassable par un ordinateur quantique élimine (sauf correction) de la compétition PQCrypto.
Ce que je voulais surtout dire c'est que les algos PQCrypto, pour la plupart, étaient déjà étudiés pour leur propriétés cryptographiques tout court. Ils avaient des inconvénients, comme la taille des clefs ou le coût de calcul, et donc on les étudiaient plus comme primitives cryptographiques et à leur amélioration qu'on ne travaillait à les rendre exploitable par le grand public.
Avec le lancement de la compétition, c'est ce travail de mise en forme pour une utilisation "grand public" qui est demandé à la communauté crypto. Et bien sûr un effort supplémentaire de cryptanalyse.
Et oui, ce n'est pas simple de remplacer des algos éprouvés, mais en même temps il faut se préparer aux attaques possibles, même relativement improbables. Et, je l'ai déjà dit, les algos proposés reposent sur des techniques qui sont dans l'oeuil mire de la communauté depuis vraiment longtemps :
- crypto fondée sur les fonctions de hachage (SPHINCS+) : 1979 (un an après RSA)
- crypto fondée sur les réseaux euclidiens (CRYSTALS - FALCON) : 1996
- crypto fondée sur les codes correcteurs (BIKE - Classical McEliece - HQC) : 1978 (même chose que RSA)
Reste la crypto fondée sur les isogénies (SIKE, cassé), j'ai eu plus de mal à trouver les références, mais le premier papier que j'ai trouvé proposant une utilisation en cryptographie date de 2006 (un Key-escrow system de E. Teske), et surtout de 2010. Bien plus jeune que les autres, donc.
# texte qui aurait pu être écrit par la NSA
Posté par mahikeulbody . Évalué à 5.
Il ne fait aucun doute que la cryptographie actuelle sera "à poil" face aux ordinateurs quantiques car la décomposition en facteurs premiers est typiquement le truc pour lequel ils sont très efficaces. La question du "quand" n'est pas pertinente, sauf à être sûr que l'échéance se compte en dizaines d'années. En effet, il est très probable que la NSA (et consorts) conservent les documents et échanges interceptés même s'ils ne sont pas en mesure des décrypter aujourd'hui. Dans le tas, il y en aura bien sûr qui n'auront plus aucun intérêt dans 10 ans mais il y en aura aussi beaucoup d'autres qui seront toujours "sensibles". Il est donc pertinent d'essayer dès que possible de rendre les nouveaux documents et échanges résistants à cette éventualité.
Ça ne m'étonnerait donc pas que certains s'emploient à retarder la transition vers une cryptographie post-quantique. Certes, personne n'est en mesure aujourd'hui de dire quand on aura des ordinateurs quantiques opérationnels pour cette tâche. Mais à l'inverse, personne n'est en mesure aujourd'hui d'affirmer que ça n'arrivera que dans 20 ou 30 ans.
[^] # Re: texte qui aurait pu être écrit par la NSA
Posté par arnaudus . Évalué à 4.
Mouais; autant c'est déja un bel exploit d'être capable de se protéger des attaques contemporaines, autant c'est quand même un beau fantasme d'imaginer de se protéger contre des attaques qui n'existent pas encore. Il ne faut pas se leurrer, aucune technologie de chiffrement ne peut garantir de tenir dans le temps.
D'ailleurs, je ne crois pas que dans l'histoire on puisse citer un moyen de chiffrement qui a résisté au temps.
Ça n'empêche pas que la recherche dans ce domaine doit être encouragée, elle peut notamment permettre de ne pas se retrouver démuni dans le cas de la découverte de failles sur les technologies contemporaines. Mais je pense qu'il est très raisonnable de tabler sur le fait que dans 10 ans, quoi que tu fasses, la NSA sera capable de déchiffrer ce que tu fais aujourd'hui. Tu prends beaucoup moins de risques en partant de ce principe et en agissant de manière à ce que les documents ne soient plus valorisables dans 10 ans plutôt que de chiffrer avec un algorithme tout juste issu de la recherche, et pour lequel on puisse trouver une faille 0-day après-demain.
[^] # Re: texte qui aurait pu être écrit par la NSA
Posté par fearan . Évalué à 4.
Tu t'avance un peu; le one-time-pad va être vraiment difficile à décrypter; la clé fait la longueur du message; et c'est un bête xor, la clé étant généré aléatoirement (pour peu qu'elle le soit vraiment, et non via un générateur pseudo aléatoire), tu n'as aucune possibilité de savoir quel est le message.
C'est ce mécanisme qui est utilisé pour les message vraiment sensibles, les clés étant échangée avant le message, généralement par un moyen physique.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: texte qui aurait pu être écrit par la NSA
Posté par arnaudus . Évalué à 4.
Certes. Tu peux aussi distribuer des enveloppes numérotées de 1 à 100, et au moment voulu tu annonces en clair "Enveloppe 74", qui contient "Débarquement en Normandie le 6 juin".
On sait quelle méthode utilisent les services secrets, par exemple?
[^] # Re: texte qui aurait pu être écrit par la NSA
Posté par Big Pete . Évalué à 10.
historiquement, le masque jetable a été utilisé pour les communication via le téléphone rouge
Je n'ai pas d'autre exemple en tête. il est théoriquement inviolable si toute les conditions de sa mise en oeuvre sont respectées, ce qui n'est pas forcément simple. En gros, de ce que j'en comprend, il permet en pratique de transférer la sécurité du message intégralement à la sécurité des clés (génération, transmission, conservation).
Sinon, non on ne sait pas ce qu'utilise les services secrets.
Parce que c'est secret …
Et il faut se dire que si on pense savoir ce que fait un service secret, c'est peut-être ce que le service secret voudrait qu'on pense qu'il utilise mais pas ce qu'il utilise vraiment.
Ce n'est pas pour rien qu'ils deviennent parano dans ce métier à force. D'ailleurs, je trouve assez louche que tu poses cette question …
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
[^] # Re: texte qui aurait pu être écrit par la NSA
Posté par aiolos . Évalué à 5.
C'est évident que les cryptographes du monde entier ont décidé d'utiliser des principes tout nouveaux pour standardiser la crypto post-quantique du futur… Ou alors ils se sont basés sur la recherche de ces 20-40 dernières années et ont construit les standards sur l'état de l'art. AES était bien plus un nouvel algo lors de sa standardisation que ne le sont les algos post-quantiques, au moins parmi ceux retenus en round 3 et 4.
Des agences de sécurité proposent pourtant des recommandations de taille de clef pour des durée de conservations de 10 ans, 20 ans et plus, notamment pour le secret défense…
[^] # Re: texte qui aurait pu être écrit par la NSA
Posté par mahikeulbody . Évalué à 4. Dernière modification le 28 avril 2023 à 16:52.
A moins de trouver une hypothétique faille dans un système cryptographique, la NSA est impuissante à décrypter les messages et elle le sera encore dans 10 ans ou même 20 car en supposant un doublement de la puissance des ordinateurs tous les 18 mois, ça ne suffira pas pour passer de milliers d'années à quelques heures.
Alors qu'avec un ordinateur quantique, quand il en existera un opérationnel, on va passer à quelques minutes d'un coup. En revanche, il sera toujours (même 10 ans plus tard) incapable de décrypter de la cryptographie post-quantique tout bêtement parce qu'il s'agit d'algorithmes que l'informatique quantique ne sait pas résoudre par nature (ça se démontre formellement [il faudrait que je retrouve la source]). Après, on peut aussi imaginer des attaques hybrides, combinant "conventionnel" et "quantique" mais j'imagine que les concepteurs de cryptologie post-quantique sont conscients de ça et que leurs algorithmes ne sont pas "sécables" de cette manière.
[^] # Re: texte qui aurait pu être écrit par la NSA
Posté par barmic 🦦 . Évalué à 3.
Ça dépend de ce que tu entends par "au temps". Le chiffre de Vigenère a était utilisé pendant plusieurs siècles (il me semble que les premières usages connus sont au 13ème siècle et il a était cassé au XIXème), comme d'autres l'ont dis one-pad n'est pas encore cassé (pas sans attaque préalable sur la source d'entropie en tout cas) et on a quelques textes qui nous reste aujourd'hui parfaitement indéchiffrable du genre des messages du Zodiac (qui ont tenu au moins 60 ans) mais il y en a d'autres.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: texte qui aurait pu être écrit par la NSA
Posté par barmic 🦦 . Évalué à 2.
Ça fait 18 ans que la NSA pousse à utiliser des méthodes alternatives avec la Suite B puis la CNSA.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: texte qui aurait pu être écrit par la NSA
Posté par aiolos . Évalué à 2.
Je ne vois pas en quoi la suite B ou la CNSA encourage à sortir de la factorisation ou du log discret (qui sont équivalents en terme de sécurité).
# Heffalump
Posté par Big Pete . Évalué à 8.
J'ai buggé sur ce truc, je pensais au départ qu'il avait inventé le mot, puis je me suis dit que c'était forcément une réf … donc si vous cherchez, vous aussi, c'est par là : Heffalump
ça m'a amené ici : https://www.hep.phy.cam.ac.uk/~lester/heffalon/
Faut faire gaffe avec l'humour de physicien quand même. Si on ne comprend pas la blague, ça ne veut pas forcément dire que ce n'est pas drôle. Donc dans le doute, il vaut mieux rire avec les autres, on sait jamais.
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.