Bonjournal,
J'allais ajouter un commentaire au journal de Martoni (https://linuxfr.org/users/martoni/journaux/iallucination-post-quantique) pour essayer d'apporter quelques éléments factuels sur l'état de la recherche en informatique quantique. Finalement, je me suis dit que c'était l'occasion de faire ma première "vraie" contribution à linuxfr.
Je bosse dan le domaine, dans un labo de recherche fondamentale. Je suis loin d'être LE spécialiste du domaine, avant tout car l'informatique quantique est suffisamment complexe pour regrouper des spécialités très variées. Donc tout ce que je vais avancer ici n'est que mon interprétation très partiale et partielle des avancées, assaisonnée d'interprétations diverses.
Pour faire plus bref que l'introduction et m'appuyer sur l'avis de divers collègues, la vision sur l'avenir de la techno va de « c'est top ce qu'on fait, mais ça ne marchera pas » jusqu'à « dans 10 ans c'est plié ». Je crois que ces deux extrêmes ont faux, mais ont le bon goût de montrer qu'effectivement, prévoir l'avenir c'est difficile.
Petit point de situation donc. Première difficulté, évoquée en commentaires du précédent journal, les qubits physiques ne sont pas "bons". Que veut dire "bon" et que veut dire "qubit physique" ?
Bon = on peut faire des opérations nettement plus vite que le temps de cohérence du qubit. Pour imager simplement, le temps de cohérence, c'est le temps caractéristique de la perte de l'information encodée sur un qubit.
Qubit physique = le système dont on se sert pour encoder un élément d'information. Il existe plusieurs technos qui se développent en parallèle (qubits supraconducteurs avec plein de sous catégories, atomes piégés, ions piégés, qubits de spin et j'en oublie certainement)
Donc, aujourd'hui, on n'a AUCUN BON qubit. On a des trucs vachement sympas, qu'on aurait difficilement cru possibles il y a 20 ans, mais rien que j'ai envie d'appeler BON [1]. Mais on a des trucs avec lesquels on peut travailler, tester tout un tas choses. C'est déjà pas mal. Au point qu'on donne un nom à l'Ère qui commence :le NISQ (noisy intermediate scale quantum). On a donc plusieurs voies de recherche : essayer de faire des meilleurs qubits, peaufiner ceux qu'on connaît déjà, utiliser ceux-ci pour essayer d'implémenter qqch d'utile [2].
Pour illustrer un peu ces 3 voies, je vais essayer de m'appuyer sur l'exemple de communications réseau. Pour transmettre des données, j'ai envie d'un moyen de communication sans pertes, sans défauts. C'est l'idéal. On cherche donc des nouvelles technos (on est passés de la paire cuivrée à la fibre par exemple). En pratique, on a toujours un peu de pertes, donc on essaye d'améliorer (je dis "la fibre", mais beaucoup de technos de fibres différentes existent, qui améliorent les capacités de transmission de génération en génération). Enfin, en attendant la fibre de demain (que ce soit de la fibre ou autre chose), on l'utilise. Comme il reste un peu de pertes, on met en place des protocoles par dessus pour repérer les erreurs, voir idéalement pouvoir directement les corriger à l'arrivée.
Le dernier point évoqué explique le passage qubit physique - qubit logique. En communication classique, on a tellement progressé qu'on fait un checksum et qu'on demande à répéter s'il y a eu un problème. Mais on a fait des trucs plus subtils, du genre l'alphabet radio, où tout un mot code une seule lettre à transmettre. C'est pareil en quantique, simplement les trucs plus subtils sont nettement plus subtils, mais le cœur reste une forme de redondance.
Au final, si on met un peu les chiffres, on n'a encore rien de très utile, mais on pourrait ne pas être loin si on parie que le peaufinage des qubits actuels continue au même rythme (on a en gros un truc qui ressemble à une loi de Moore) et 10 ans, semble un horizon TRÈS optimiste, mais pas impossible.
Me revient des commentaires du journal évoqué la question du pourquoi on fait ça : si on se place côté décideurs, c'est beaucoup je pense une question de ne pas être laissés derrière. En particulier, même si l'ordinateur quantique n'arrivait qu’après un long hiver (tout à fait possible, c'est une course entre la patience des financeurs et les difficultés de la recherche [3]), entre temps, les pays qui investissent développent tout un marché de l'instrumentation dite "abilitante" et l'expertise en lien qui va avec et il y a des positions stratégiques à prendre (pouvoir choisir quel pays aura droit à la techno qui fonctionne bien). En effet, l'ordi quantique a besoin de beaucoup de matériels de pointe pour avoir une chance de fonctionner et il y a un gros marché à prendre (stratégie économique) et à contrôler (intérêt stratégique : sans l'expertise ni la techno, plus difficile de déchiffrer les communications des autres).
Hors de ces considérations, je pense que la plupart des collègues bossent là dessus parce que ça nous permet de pousser les limites de ce qu'on peut faire avec la mécanique quantique, qui reste une science fascinante et déroutante. Et aussi parce que ça nous permettra de SIMULER des systèmes quantique, qu'on a du mal à simuler autrement (en gros, complexité exponentielle en la taille du système). C'est d'ailleurs de là qu'est venue l'idée originale des faire un ordinateur quantique.
Et le paragraphe sur l'IA et le quantique dans tout ça ? Il arrive ;)
Oui, des gens bossent sur mettre les deux ensemble. J'ai croisé ça de loin, je ne suis pas très au courant et ne vais pas trop m'étendre sur d'éventuels bénéfice. On est je crois loin de faire des QPU (quantum processing unit) suffisantes qui apporteraient un bénéfice à un NN de toute façon. Par contre, certaines étapes d'implémentation de calculs sur QPU a besoin de beaucoup de calculs classiques, effectués avec des latences faibles (pour la correction d'erreur quantique). C'est là en particulier que des réseaux de neurones semblent prometteurs.
J'ai sûrement oublié des points auxquels je voulais répondre, c'est un peu en vrac (pas trop le temps de relire), mais j'espère que ça pourra clarifier un peu la situation actuelle.
[1] pour l'anecdote, j'ai un super souvenir d'un très très bon physicien dire qu'on ne dépassera jamais 10 qubits supraconducteurs sur la autour de 2010 (il avait même quelques arguments).
[2] l'utilité est un terme qui fait aussi beaucoup débat ! on a longtemps attendu la suprématie quantique (= qu'on ordi quantique fasse qqch plus vite qu'on ordi classique), mais les preuves qu'on en a apportées ne servent tellement à rien en pratique (= on a trouvé un problème quelconque dont le plus grand intérêt était qu'on avait du mal à le résoudre classiquement) qu'on s'est dit qu'il faudrait plutôt voir comme critère que ça donne quelque chose d'utile au reste du monde.
[3] là dessus, voir du côté des ondes gravitationnelles : le projet européen a beaucoup galéré à la fin par manque de financement. On est d'ailleurs passés à 2 doigts de l'arrêt de son financement par le CNRS à quelques mois de la sortie des premiers résultats (par le projet des USA) après des décennies d'investissement.
# IA et Qubits
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 2 (+0/-0).
Mais si, justement : les Intelligences (A ou pas) ont besoin d'intégrer de l'aléatoire dans leur processus décisionnel pour pouvoir s'adapter à des contextes changeants. Intégrer quelques qubits pas trop performants (mais suffisamment pour éviter la psychose), serait donc pertinent.
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
# Côté algo crypto, on est déjà dedans à fond
Posté par Philippe F (site web personnel) . Évalué à 8 (+6/-0).
Même si la technologie est encore incertaine, le risque qu'elle fait peser sur la cryprographie est bien réel. Sachant que migrer d'un algo crypto à un autre dans une industrie prend environ une 20aine d'années (et encore, c'est optimiste), c'est bien maintenant que l'industrie de la cryptographie et de la sécurité doit s'en préoccuper.
Ma boite développe de la carte à a puce, et notamment des algo crypto. Pour nous, la nécessité de se prévoir des protections contre cela est indispensable
pour avoir quelque chose de nouveau à vendrepour ne pas se retrouver con si la techno se réalise.Une petite press release qui en parle plutôt pas mal: https://www.idemia.com/fr/perspective/anticiper-les-defis-de-securite-de-lere-post-quantique
[^] # Re: Côté algo crypto, on est déjà dedans à fond
Posté par meumeul . Évalué à 4 (+4/-0).
Dans cette ligne, le développement de la techno des QPU a poussé les développements côté algorithmes classiques et des algo de chiffrements dits "post-quantiques" ont été publiés. De ce que j'en ai compris, ils sont censés ne pas permette d'avantage quantique (= pas de gain exponentiel à utiliser un ordinateur quantique, même idéalement performant par rapport à un ordinateur classique).
Mais je suis bien incapable de commenter plus sur les dits algo…
[^] # Re: Côté algo crypto, on est déjà dedans à fond
Posté par Philippe F (site web personnel) . Évalué à 5 (+3/-0).
Ce qui est sûr, c'est qu'à l'heure actuelle, on ne peut pas encore faire entièrement confiance à la solidité des algos post-quantiques. D'où la nécessité de prévoir des systèmes de mises à jour dynamique dans nos système. Autant quand on parle de mettre à jour un téléphone ou un PC, c'est assez facile à engager. Quand on parle de mettre à jour sur le terrain un objet aussi sensible qu'une carte à puce, via une infrastructure non maitrisée au moment du déploiement, dans des industries qui fonctionnent encore avec les algo standardisées il y a 30 ans, le défi est autrement plus important.
Mes collègues s'amusent bien réellement. Question pertinente lors de leur dernière démo : on transfert un blob de code chiffré qui va mettre à jour les algos de la carte pour passer par exemple d'un algo classique type ECC à un algo post-quantique. Quel algo utiliser pour chiffrer le blob de la mise à jour de l'algo, tout en restant à l'état de l'art de la sécurité ?
[^] # Re: Côté algo crypto, on est déjà dedans à fond
Posté par Psychofox (Mastodon) . Évalué à 6 (+3/-0). Dernière modification le 16 octobre 2025 à 23:23.
L'important aussi c'est de garder que avec ou sans mise à jour ce qui est transmis et stocké aujourd'hui sur des réseaux et ressources publiques peut être sauvegarder ET décrypté dans 10, 15, 20ans.
Il faut donc garder ça en tête avant de s'amuser à stocker des trucs et des machins dans des stockages en ligne divers ou lorsqu'on utilise des messageries chiffrées.
[^] # Re: Côté algo crypto, on est déjà dedans à fond
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 3 (+1/-0).
Pourquoi chiffrer le blob ?
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: Côté algo crypto, on est déjà dedans à fond
Posté par Big Pete . Évalué à 4 (+2/-0).
C'est assez amusant à mettre en perspective quand on pense que l'informatique moderne est née avec Alan Turing et le cassage des codes secrets.
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
# deja des usages concrets ?
Posté par PLuG . Évalué à 1 (+0/-0).
Je reste dubitatif sur les usages en cours, mais certaines sociétés utilisent des émulateurs quantique pour développer des algorithmes spécifiques tirant bénéfice de cette nouvelle science. Par exemple qbit-soft.
Ils ont des projets en cours avec des clients bien réels, dans la lutte contre la fraude, dans l'identification d'images altérées, …
[^] # Re: deja des usages concrets ?
Posté par Faya . Évalué à 5 (+3/-0).
On est sûr que sont vraiment des projets utilisant des algos "quantiques" ? Ils présentent tellement de trucs, remplis de buzzwords, mais sans expliquer où se trouve le quantique dans tout ça, qu'on dirait du semi-fake. Genre cette boîte d'IA valorisée à plus d'un millard qui embauchait en fait 700 indiens pour répondre aux demandes.
Bon là ils disent "ambitionne" donc on est sur de l'hypothétique :
[^] # Re: deja des usages concrets ?
Posté par meumeul . Évalué à 3 (+2/-0).
Pour les usages concrets côté ordinateur quantique généraliste, je ne crois pas.
Côté chiffrement, oui, avec de la distribution de clef quantique. Il le semble que c'est déjà utilisé par des banques depuis bien 10-15 ans (en tout cas, des boites ont commencé à vendre du matériel).
Il faut aussi regarder diverses applications 'satellites' de ces technos. Par exemple, les SQUIDs permettent de faire de la magnétométrie super fine, utilisé pour faire des magnétoencephalogrammes résolus spatiallement. Le développement des manipulations des centres NV permettnet aussi de faire des très bon magnétomètres.
Commence à poindre aussi diverses applications métrologiques (un article récent sur de la mesure de forces [1]) utilisant des astuces/techniques de correction d'erreur quantique. Mais là on est sur de la preuve de principe, à voir si ce sera utilisé, même en labo de recherche ou de métrologie…
Et tout un tas de développements algorithmiques classiques, vraisemblablement poussés/accélérés par le développement du quantique [2].
[1] https://www.science.org/doi/10.1126/sciadv.adw9757
[2] je pense en particulier aux tensor networks et leur utilisation dans la simulation de systèmes quantiques.
[^] # Re: deja des usages concrets ?
Posté par BAud (site web personnel) . Évalué à 5 (+3/-0).
donc SQUID de l'anglais superconducting quantum interference device est un magnétomètre utilisé pour mesurer des champs magnétiques très faibles
et centre azote-lacune ou centre NV, est l'un des nombreux types de défauts ponctuels présents dans la structure cristalline du diamant
Pour le N autant je vois le lien avec l'azote (ok son symbole chimique), V* c'est pour ? Void ? et le lien avec les magnétomètres ? (mouais, la page wikipedia explique un peu… faut suivre quoi :D). Chui pas sûr que l'appareil tienne dans la poche tout de même :p
[^] # Re: deja des usages concrets ?
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 3 (+1/-0).
V pour vacancy (et non vendetta), lacune en bon françois. Il s'agit d'un défaut dans un réseau cristallin : un atome manque à l'appel.
Il me semble comprendre l'idée du commentaire précédent : la mode de l'informatique quantique attire des financements pour des développements qui auront des retombés dans bien d'autres domaines que celui des qbits, qu'on arrive ou pas à les rendre cohérents.
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: deja des usages concrets ?
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 8 (+5/-0).
Une citation de Edgar Dijkstra il me semble: "L'informatique est au sujet des ordinateurs, de la même façon que l'astronomie est au sujet des télescopes".
On peut donc très bien faire de l'informatique quantique théorique sans avoir encore de matériel capable d'exécuter les algorithmes. Et peut-être que les algorithmes ainsi découverts pourront être utilisés sans jamais avoir ce matériel sous la forme imaginée au départ. Peut-être qu'une simulation sur un ordinateur classique est suffisante. Peut-être qu'on va trouver une autre façon de réaliser une machine avec les propriétés nécessaires pour exécuter ces algorithmes.
[^] # Re: deja des usages concrets ?
Posté par meumeul . Évalué à 2 (+1/-0).
Tout pile !
[^] # Re: deja des usages concrets ?
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 2 (+0/-0).
Est-ce bien la cryptographie quantique que vous évoquez ici ?
Si c'est le cas, il faut tout de même souligner que ça n'a pas grand chose à voir (à part de reposer également sur la mécanique (quantique)) avec l'informatique quantique. Non ?
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: deja des usages concrets ?
Posté par meumeul . Évalué à 2 (+1/-0).
Ça sort effectivement du cadre informatique quantique. Mais ça reste dans la veine du quantique et qu'est-ce qu'on fait avec, cela me semble faire partie du même paysage.
[^] # Re: deja des usages concrets ?
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 2 (+0/-0).
La limite est effectivement assez délicate à tracer entre ce qui doit se voir affublé de l’épithète quantique et le reste…
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: deja des usages concrets ?
Posté par PLuG . Évalué à 3 (+2/-0).
Difficile de certifier quand on n'a pas vu. ce qui est expliqué, c'est que cette entreprise loue des capacités quantiques chez plusieurs fournisseurs pour faire tourner leurs algos "quantiques", qu'ils ont recruté beaucoup de très grosses pointures pour travailler sur ces algos, et qu'ils ont des clients qui expérimentent ces algorithmes sur des cas concrets.
J'ai pu discuter avec une personne de cette entreprise, et dans un salon avec un de leur clients.
Si j'ai bien compris, le modèle c'est que les data-scientistes du client mettent en forme les données (une grosse matrice de nombres) et que l'entreprise mouline cette matrice et donne un résultat qui peut être interprété par les data-scientistes.
C'est un business qui nécessite de traiter des données "anonymisées" (pas de signification dans la matrice de chiffres), donc pas de risque de sécurité sur les données traitées en externe. C'est aussi un moyen d'utiliser ces algorithmes quantiques sans devoir investir dans des machines dédiées.
J'avoue les limites me concernant sur ce sujet. Ce qui est certain c'est que le client que j'ai rencontré est satisfait :-)
# IA et quantique
Posté par Colin Pitrat (site web personnel) . Évalué à 3 (+1/-0).
Quand on parle d'IA (ou d'apprentissage machine) et d'informatique quantique ça ne se limite pas aux réseaux de neurones. La page wikipédia donne un assez bon aperçu de la vastitude du domaine: https://en.wikipedia.org/wiki/Quantum_machine_learning
# Je comprends mieux…
Posté par PhRæD . Évalué à 2 (+1/-0). Dernière modification le 16 octobre 2025 à 21:30.
… le marketing d’IBM qui annonce son futur z17 « quantum safe ». Comme on est pas près de voir des applications pratiques directes, ça n’est pas très difficile de vendre des produits « secure » anti attaque (même) quantique.
« Y a même des gens qui ont l’air vivant, mais ils sont morts depuis longtemps ! »
# Loi de Moore
Posté par abriotde (site web personnel, Mastodon) . Évalué à 2 (+1/-0).
Moi, de ce que je suis depuis plus de 10 ans, on dirait, que la loi de Moore frappe encore… évidemment ce n'est pas si simple qu'à l'époque de Gordon Moore, mais on a quand même une progression du même ordre quand on regarde les chiffres annoncés… Alors certes parfois il y a des choses un peu gonflés. En gros on est passés de 2 à plus de 100 QBits avec une progression assez exponentielle. Alors peut-être que demain on sera à 10 QBits, mais 10 plus puissant que les 100 d'hier.
Donc dire que dans 10 ans se sera plié est faux dans la mesure, ou l'on progresse toujours dans le silicium classique mais je vois mal comment dans 10-20 ans on ne pourrait pas avoir quelques chose de beaucoup plus puissant "utilisable". La question est surtout pour quelle utilité? Je verrai bien en IA (ou les problèmes d'approximations sont moins critique) mais a minima comme Google l'avait fait dans la simulation quantique (Il l'avait fait pour les calculs d'erreur de l'ordinateur quantique).
Le Q-Day, le jour ou l'ordinateur quantique remplacera le silicium et craquera tout les chiffrement, en un claquement de doigt est sans doute plus lointain (20-30 ans minimum)
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
[^] # Re: Loi de Moore
Posté par abriotde (site web personnel, Mastodon) . Évalué à 2 (+1/-0). Dernière modification le 19 octobre 2025 à 05:37.
Ton journal est top, ça mériterait une dépèche pour que tu détailles plus l'historique réel et les enjeux.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
[^] # Re: Loi de Moore
Posté par Pol' uX (site web personnel) . Évalué à 3 (+1/-0).
Peut être ce n'est pas la bonne unité à suivre alors. Comment on mesure la capacité de calcul d'un ordinateur quantique ?
Adhérer à l'April, ça vous tente ?
[^] # Re: Loi de Moore
Posté par mahikeulbody . Évalué à 6 (+4/-0).
De ce que j'ai compris, le nombre de QBits est la bonne unité. Je n'ai vu nulle part le concept qu'un QBit d'aujourd'hui pouvait être plus puissant qu'un QBit d'hier.
En revanche, il faut parler de QBits "utiles" car les annonces d'ordinateurs quantiques de x QBits omettent souvent de dire combien sont utilisés pour corriger les erreurs. Le % de QBits utiles dépend de la technologie utilisée et peut s'améliorer au fur et à mesure des avancées technologiques.
[^] # Re: Loi de Moore
Posté par abriotde (site web personnel, Mastodon) . Évalué à 1 (+0/-0).
Si quand même dans le cas de Google, il me semble que l'on a vu l'utilisation d'un ordinateur pour une calcul de correction d'erreur quantique qui ne correspond pas à celui d'un algo standard.
Et puis en plus comme en processeur silicium, il y a le nombre de porte réalisé, la fréquence, la durée de "récupération"…
Bref ce n'est pas que le nombre de QBits soit une mauvaise métrique, c'est qu'il peut y avoir d'autres paramètres qui comptent aussi.
La Vitesse maxi d'une voiture de course est intéressante, mais il y a aussi le 0 à 100, le 100 à 200, l'adhérence en virage…
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
# Fascinant
Posté par Luc-Skywalker . Évalué à 2 (+0/-0).
Merci pour ton journal.
C'est vraiment un domaine incroyable. On et loin du binaire de l’informatique habituelle ;)
Rien qu'imaginer manipuler des objets quantiques pour faire des calculs, c'est dingue.
Déjà, à la base c'est de la mécanique quantique qui est un domaine des sciences physiques carrément balèze. Ensuite, faut inventer et créer des algorithmes qui exploitent ces propriétés. Autant dire que je suis largué de ce point de vue.
Mais en ce qui me concerne, ce qui est encore plus mystérieux, c'est comment on arrive a le faire en pratique (avec de vrais QBit et pas des simulés).
"Si tous les cons volaient, il ferait nuit" F. Dard
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.