Bonjournal,
J'allais ajouter un commentaire au journal de Martoni (https://linuxfr.org/users/martoni/journaux/iallucination-post-quantique) pour essayer d'apporter quelques éléments factuels sur l'état de la recherche en informatique quantique. Finalement, je me suis dit que c'était l'occasion de faire ma première "vraie" contribution à linuxfr.
Je bosse dan le domaine, dans un labo de recherche fondamentale. Je suis loin d'être LE spécialiste du domaine, avant tout car l'informatique quantique est suffisamment complexe pour regrouper des spécialités très variées. Donc tout ce que je vais avancer ici n'est que mon interprétation très partiale et partielle des avancées, assaisonnée d'interprétations diverses.
Pour faire plus bref que l'introduction et m'appuyer sur l'avis de divers collègues, la vision sur l'avenir de la techno va de « c'est top ce qu'on fait, mais ça ne marchera pas » jusqu'à « dans 10 ans c'est plié ». Je crois que ces deux extrêmes ont faux, mais ont le bon goût de montrer qu'effectivement, prévoir l'avenir c'est difficile.
Petit point de situation donc. Première difficulté, évoquée en commentaires du précédent journal, les qubits physiques ne sont pas "bons". Que veut dire "bon" et que veut dire "qubit physique" ?
Bon = on peut faire des opérations nettement plus vite que le temps de cohérence du qubit. Pour imager simplement, le temps de cohérence, c'est le temps caractéristique de la perte de l'information encodée sur un qubit.
Qubit physique = le système dont on se sert pour encoder un élément d'information. Il existe plusieurs technos qui se développent en parallèle (qubits supraconducteurs avec plein de sous catégories, atomes piégés, ions piégés, qubits de spin et j'en oublie certainement)
Donc, aujourd'hui, on n'a AUCUN BON qubit. On a des trucs vachement sympas, qu'on aurait difficilement cru possibles il y a 20 ans, mais rien que j'ai envie d'appeler BON [1]. Mais on a des trucs avec lesquels on peut travailler, tester tout un tas choses. C'est déjà pas mal. Au point qu'on donne un nom à l'Ère qui commence :le NISQ (noisy intermediate scale quantum). On a donc plusieurs voies de recherche : essayer de faire des meilleurs qubits, peaufiner ceux qu'on connaît déjà, utiliser ceux-ci pour essayer d'implémenter qqch d'utile [2].
Pour illustrer un peu ces 3 voies, je vais essayer de m'appuyer sur l'exemple de communications réseau. Pour transmettre des données, j'ai envie d'un moyen de communication sans pertes, sans défauts. C'est l'idéal. On cherche donc des nouvelles technos (on est passés de la paire cuivrée à la fibre par exemple). En pratique, on a toujours un peu de pertes, donc on essaye d'améliorer (je dis "la fibre", mais beaucoup de technos de fibres différentes existent, qui améliorent les capacités de transmission de génération en génération). Enfin, en attendant la fibre de demain (que ce soit de la fibre ou autre chose), on l'utilise. Comme il reste un peu de pertes, on met en place des protocoles par dessus pour repérer les erreurs, voir idéalement pouvoir directement les corriger à l'arrivée.
Le dernier point évoqué explique le passage qubit physique - qubit logique. En communication classique, on a tellement progressé qu'on fait un checksum et qu'on demande à répéter s'il y a eu un problème. Mais on a fait des trucs plus subtils, du genre l'alphabet radio, où tout un mot code une seule lettre à transmettre. C'est pareil en quantique, simplement les trucs plus subtils sont nettement plus subtils, mais le cœur reste une forme de redondance.
Au final, si on met un peu les chiffres, on n'a encore rien de très utile, mais on pourrait ne pas être loin si on parie que le peaufinage des qubits actuels continue au même rythme (on a en gros un truc qui ressemble à une loi de Moore) et 10 ans, semble un horizon TRÈS optimiste, mais pas impossible.
Me revient des commentaires du journal évoqué la question du pourquoi on fait ça : si on se place côté décideurs, c'est beaucoup je pense une question de ne pas être laissés derrière. En particulier, même si l'ordinateur quantique n'arrivait qu’après un long hiver (tout à fait possible, c'est une course entre la patience des financeurs et les difficultés de la recherche [3]), entre temps, les pays qui investissent développent tout un marché de l'instrumentation dite "abilitante" et l'expertise en lien qui va avec et il y a des positions stratégiques à prendre (pouvoir choisir quel pays aura droit à la techno qui fonctionne bien). En effet, l'ordi quantique a besoin de beaucoup de matériels de pointe pour avoir une chance de fonctionner et il y a un gros marché à prendre (stratégie économique) et à contrôler (intérêt stratégique : sans l'expertise ni la techno, plus difficile de déchiffrer les communications des autres).
Hors de ces considérations, je pense que la plupart des collègues bossent là dessus parce que ça nous permet de pousser les limites de ce qu'on peut faire avec la mécanique quantique, qui reste une science fascinante et déroutante. Et aussi parce que ça nous permettra de SIMULER des systèmes quantique, qu'on a du mal à simuler autrement (en gros, complexité exponentielle en la taille du système). C'est d'ailleurs de là qu'est venue l'idée originale des faire un ordinateur quantique.
Et le paragraphe sur l'IA et le quantique dans tout ça ? Il arrive ;)
Oui, des gens bossent sur mettre les deux ensemble. J'ai croisé ça de loin, je ne suis pas très au courant et ne vais pas trop m'étendre sur d'éventuels bénéfice. On est je crois loin de faire des QPU (quantum processing unit) suffisantes qui apporteraient un bénéfice à un NN de toute façon. Par contre, certaines étapes d'implémentation de calculs sur QPU a besoin de beaucoup de calculs classiques, effectués avec des latences faibles (pour la correction d'erreur quantique). C'est là en particulier que des réseaux de neurones semblent prometteurs.
J'ai sûrement oublié des points auxquels je voulais répondre, c'est un peu en vrac (pas trop le temps de relire), mais j'espère que ça pourra clarifier un peu la situation actuelle.
[1] pour l'anecdote, j'ai un super souvenir d'un très très bon physicien dire qu'on ne dépassera jamais 10 qubits supraconducteurs sur la autour de 2010 (il avait même quelques arguments).
[2] l'utilité est un terme qui fait aussi beaucoup débat ! on a longtemps attendu la suprématie quantique (= qu'on ordi quantique fasse qqch plus vite qu'on ordi classique), mais les preuves qu'on en a apportées ne servent tellement à rien en pratique (= on a trouvé un problème quelconque dont le plus grand intérêt était qu'on avait du mal à le résoudre classiquement) qu'on s'est dit qu'il faudrait plutôt voir comme critère que ça donne quelque chose d'utile au reste du monde.
[3] là dessus, voir du côté des ondes gravitationnelles : le projet européen a beaucoup galéré à la fin par manque de financement. On est d'ailleurs passés à 2 doigts de l'arrêt de son financement par le CNRS à quelques mois de la sortie des premiers résultats (par le projet des USA) après des décennies d'investissement.
# IA et Qubits
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 2 (+0/-0).
Mais si, justement : les Intelligences (A ou pas) ont besoin d'intégrer de l'aléatoire dans leur processus décisionnel pour pouvoir s'adapter à des contextes changeants. Intégrer quelques qubits pas trop performants (mais suffisamment pour éviter la psychose), serait donc pertinent.
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
# Côté algo crypto, on est déjà dedans à fond
Posté par Philippe F (site web personnel) . Évalué à 3 (+1/-0).
Même si la technologie est encore incertaine, le risque qu'elle fait peser sur la cryprographie est bien réel. Sachant que migrer d'un algo crypto à un autre dans une industrie prend environ une 20aine d'années (et encore, c'est optimiste), c'est bien maintenant que l'industrie de la cryptographie et de la sécurité doit s'en préoccuper.
Ma boite développe de la carte à a puce, et notamment des algo crypto. Pour nous, la nécessité de se prévoir des protections contre cela est indispensable
pour avoir quelque chose de nouveau à vendrepour ne pas se retrouver con si la techno se réalise.Une petite press release qui en parle plutôt pas mal: https://www.idemia.com/fr/perspective/anticiper-les-defis-de-securite-de-lere-post-quantique
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.