Journal [Quantique] La ligne des 49 qubits

Posté par  . Licence CC By‑SA.
Étiquettes :
24
27
mai
2017

Salutations,

Je ne pense pas avoir lu un journal ou une dépêche sur le sujet (si c’est pas le cas, je m’excuse), donc je vais le partager avec vous et faire quelques liens supplémentaires en rapport.

http://spectrum.ieee.org/computing/hardware/google-plans-to-demonstrate-the-supremacy-of-quantum-computing

Cet article souligne l’importance que donne Google à l’ordinateur quantique en cherchant à démontrer qu’il est bien au‐dessus des performances des meilleurs supercalculateurs.
Pour cela, Google veut mettre en place une puce de 49 qubits pour parvenir à ses fins.

Une des premières entreprises dans le domaine des ordinateurs quantiques, D-Wave, avait pourtant annoncé en 2011 un processeur à 128 qubits, et en 2016 annonçait une prochaine génération à 2 000 qubits. Toutefois, ces processeurs ont été spécifiquement conçus pour un type d’algorithme : le recuit simulé quantique. Une des raisons de l’enthousiasme modéré sur ce type de technologie ?

La démonstration de Google, quant à elle, serait mise en application sur l’algorithme de Shor, qui permet de factoriser très rapidement de grands nombres (en ce basant notamment sur la transformée de Fourier quantique), et donc en lien avec une des composantes fondamentales de la cryptographie moderne.
C’est aussi cette démonstration qui permettra à Google d’éviter une controverse sur les capacités des ordinateurs quantiques.

Pourquoi ce chiffre de 49 qubits ? Eh bien, en lien avec la simulation obtenue de 45 qubits via un supercalculateur de 29 pétaFLOPS, du nom de Cori. Ce nombre de 49 dépasserait donc les limites d’un supercalculateur conventionnel.

Concernant la correction d’erreurs dont l’article parle, il s’agit des capacités de l’ordinateur en quantique universelle, comme on peut le voir sur l’illustration disponible chez IBM, où l’on ne parle pas vraiment d’ordinateur en quantique universelle de 49 qubits, mais plutôt d’ordinateur quantique analogique. En effet, l’estimation actuelle est de l’ordre de 100 millions de qubits pour être considérée comme de la quantique universelle.

D’ailleurs, chez IBM, on en est plutôt à parler d’ordinateur quantique à 50 qubits.

Et pour en savoir plus sur les ordinateurs quantiques développés par IBM : http://research.ibm.com/ibm-q/.

  • # Commentaire supprimé

    Posté par  . Évalué à 9. Dernière modification le 27 mai 2017 à 17:10.

    Ce commentaire a été supprimé par l’équipe de modération.

    • [^] # Re: Peut-être même à 6 chiffres !

      Posté par  . Évalué à 1.

      et encore, pour le moment, les processeurs ont été développés spécifiquement pour un type d'algo. Peut-être du ressort des universels, mais il faudrait valider qu'ils s'appliquent sans souci à un gros panel de cas…

    • [^] # Re: Peut-être même à 6 chiffres !

      Posté par  (Mastodon) . Évalué à -2.

      En plus, même en admettant que les ordinateurs quantiques peuvent factoriser des grands nombres, comme on ne sait pas bien quelle est la complexité de la factorisation mais que ce n'est sans doute pas NP, ça veut dire qu'on sait résoudre des problèmes pas si difficile que ça et que ça ne permettra pas encore de résoudre les problèmes les plus difficiles. Donc, beaucoup de brouzoufs pour pas grand chose au final. Mais bon, faut bien faire vivre les physiciens.

      • [^] # Re: Peut-être même à 6 chiffres !

        Posté par  . Évalué à 10. Dernière modification le 28 mai 2017 à 15:35.

        Donc, beaucoup de brouzoufs pour pas grand chose au final.

        C'est de la recherche. C'est toujours "pour pas grand chose" jusqu'à ce qu'il en sorte quelque chose qui changera le monde. Mais on ne sait pas d'avance ce qui en sortira ! Sinon on ne chercherait pas …
        [EDIT] Et oui parfois il n'en sort rien du tout ou rien de commercialisable ou rien de grandiose, mais encore une fois si c'était prévisible on ne rechercherait pas.

      • [^] # Re: Peut-être même à 6 chiffres !

        Posté par  . Évalué à 6. Dernière modification le 29 mai 2017 à 09:16.

        comme on ne sait pas bien quelle est la complexité de la factorisation mais que ce n'est sans doute pas NP

        La factorisation est dans NP. On sait également qu'il est co-NP. Par contre, il n'est pas (co-)NP-difficile.

        ça ne permettra pas encore de résoudre les problèmes les plus difficiles

        On sait déjà que les problèmes NP-complets restent difficile même en quantique ; c'est pour ça que les cryptosystèmes post-quantiques se basent sur des sous-ensembles de problèmes NP-complets (on cherche des classes dont toutes les instances sont difficiles, là où NP-complet ne garantie que l' existence des telles instances).

        De plus, en tant qu'avancée scientifique, si on a un ordinateur capable de factoriser de grands nombres, on casse toute la cryptographie actuelle (y compris celle basée sur les courbes elliptiques). Donc, même si il ne fait que ça, ça a déjà un impact énorme.

        • [^] # Re: Peut-être même à 6 chiffres !

          Posté par  . Évalué à 2.

          On sait déjà que les problèmes NP-complets restent difficile même en quantique

          Pour être plus exact, on n'en sait rien. Ça a l'air d'être le cas, mais pas de preuve pour l'instant. Et pour cause, le montrer reviendrait à montrer que P est différent de NP. En fait, même en supposant que P est différent de NP, la question reste ouverte.
          La seule chose que l'on peut dire c'est qu'à l'heure actuelle on a un algorithme quantique efficace pour la factorisation et aucun algorithme classique efficace.

      • [^] # Re: Peut-être même à 6 chiffres !

        Posté par  . Évalué à 2.

        Donc, beaucoup de brouzoufs pour pas grand chose au final.

        Bah oui, pas grand chose, juste péter toutes les bases de la sécurité des algos de chiffrage.

        Par contre, c'est vrai que s'il faut un proc quantique à l'architecture spécifique pour résoudre un type de problème, ça ne va pas révolutionner l'informatique grand public. À moins d'imaginer que les PC du futur embarquent un proc pour multiplier des matrices, un proc pour factoriser des grands nombres, etc., les premières applications risquent d'être un peu spécifiques…

    • [^] # Re: Peut-être même à 6 chiffres !

      Posté par  (site web personnel) . Évalué à 4.

      Ça devrait augmenter exponentiellement avec le nombre de qubits en fait…

      D'ailleurs, sur stackoverflow on peut trouver une question qui dit qu'il faudrait 4096 qubits pour casser RSA-2048 par exemple.

      Le nombre de qubits va-t-il doubler dans le temps en suivant une loi de Moore?

  • # Au senat

    Posté par  . Évalué à 1.

    article en complément, notamment sur la partie quantique à partir du point V:
    https://www.senat.fr/rap/r02-138/r02-1384.html

  • # Loi de Rose ?

    Posté par  . Évalué à 1.

    c'est plus la loi de Moore qui s'appliquerait à la quantique…
    http://www.internetactu.net/2013/04/03/vers-un-business-de-linformatique-quantique/

  • # Algorithme de Shor

    Posté par  . Évalué à 10.

    Pas d'algorithme de Shor pour cette machine. L'idée ici c'est de produire un état quantique "compliqué" dont on ne peut pas calculer l'évolution facilement avec un ordinateur classique.

    Pourquoi pas d'algorithme de Shor, me direz-vous ? Eh ben simplement parce que la fiabilité n'est pas au rendez-vous. On sait très bien faire des qubits qui, pris isolément, sont fiables. Mais en mécanique quantique, le tout n'est pas trivialement l'ensemble des parties. C'est quelque chose de plus complexe (d'où la difficulté de simuler classiquement, notamment). Et dès que vous cherchez à faire des portes qui font des opérations intéressantes sur 2 qubits, eh bien patatra, la fidélité en prend un sacré coup. S'il y a 2 qubits et 4 portes c'est pas bien grave, mais à 49 qubits et des dizaines de portes, c'est catastrophique très très vite.
    Le claim de google est que l'on peut avoir un système qui devient chaotique (vulgairement parlant, ça se met à faire n'importe quoi) mais de manière non classique. Et là, vous voyez tout de suite que ça va être un peu compliqué à démontrer :)

    Bref, rien à voir avec un ordinateur. C'est une puce spécialisée qui génère un chaos dont on espère avoir des propriétés suffisamment quantiques pour qu'on ne puisse pas en prédire facilement le comportement.

    • [^] # Re: Algorithme de Shor

      Posté par  . Évalué à 6.

      Et quelle utilisation pourrait être faite de ce chaos ? Générer des valeurs aléatoires ? Autre chose ?

      • [^] # Re: Algorithme de Shor

        Posté par  . Évalué à 4.

        Le but il me semble est de prouver la suprématie quantique, qui reste aujourd’hui plus une conjecture.

      • [^] # Re: Algorithme de Shor

        Posté par  . Évalué à 2.

        Pour générer des valeurs aléatoires, il n'y a fort heureusement pas besoin d'une puce aussi compliquée. En fait, avoir un seul qubit suffit (il faut travailler plus pour certifier quantiquement que les bits générés sont aléatoires, mais c'est une autre histoire !)
        En vrai, pour l'aléatoire il vaut mieux utiliser d'autres systèmes que ces puces là, qui doivent être refroidies à très basses températures, etc. En général les gens utilisent plutôt des photons infrarouges pour cela.

        L'idée là, c'est de générer un état quantique compliqué, qui est difficile à simuler classiquement. Il s'agit de montrer expérimentalement la supériorité du monde quantique d'un point de vue calculatoire (ce qui théoriquement est le cas si on suppose que la mécanique quantique est vraie et que ce que l'on pense sur les classes de complexité est juste, même si mathématiquement on n'a aucune preuve du dernier point). En fait, il faut le voir comme un test de la mécanique quantique, d'un point de vue "théorie du calcul" (encore une fois, sous réserve que les hypothèses de théorie de complexité soient justes).

    • [^] # Re: Algorithme de Shor

      Posté par  . Évalué à 7.

      Du coup c'est un générateur de nombres aléatoires qui coûte super cher ?

      • [^] # Re: Algorithme de Shor

        Posté par  . Évalué à 10.

        Ouai mais il est super aléatoire.

        • [^] # Re: Algorithme de Shor

          Posté par  . Évalué à 8.

          Je crois que c'est la fiabilité qui est super aléatoire

          Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

      • [^] # Re: Algorithme de Shor

        Posté par  . Évalué à 3.

        C'est surtout les chats qui coûtent cher.
        C'est que ca en bouffe du wiskas un chat. Pis après y'a la spa qui cherche des noises.

        Linuxfr, le portail francais du logiciel libre et du neo nazisme.

        • [^] # Re: Algorithme de Shor

          Posté par  . Évalué à 6.

          Alors que le chat pourrait bouger son cul plutôt que de passer son temps à grimper aux rideaux, jouer au baby foot et fumer des pétards.

  • # D-Wave quantique ou pas?

    Posté par  . Évalué à 8.

    Un des première entreprise dans le domaine des ordinateurs quantiques, D-Wave, avait pourtant annoncé en 2011 un processeur à 128 qubits, et en 2016 annonçait une prochaine génération à 2000 qubits. Toutefois, ces processeurs ont été spécifiquement conçus pour un type d'algorithme : le recuit simulé quantique. Une des raisons de l'enthousiasme modéré sur ce type de technologie ?

    Il faut faire attention avec les annonces publicitaires de D-wave. Pour l'instant, il n'a pas été établi de manière claire que les simulateurs D-wave bénéficient d'un quelconque effet d'accélération quantique des simulations.

    Plus précisément, lorsque D-Wave annonce un simulateur disposant de 2000 qbits, il ne faut pas entendre 2000 qbits quantiquement intriqués, ce qui est normalement la norme lorsqu'on parle de qbits. Sans l'intrication quantique, l'effet exponentiel de l'augmentation de qbits disparaît. En d'autres mots, il y a une différence majeure entre 2000 qbits parfaitement intriqués et 2000 * 1 qbit sans intrication, ou même avec 1000 * 2 pairs de qbits intriqués. Il y a donc un continuum de niveau d'intrication des qbits, et la possibilité d'accélération quantique de l'algorithme de recuit simulé dépend de ce niveau d'intrication.

    Le problème de D-Wave est que personne ne sait avec cette certitude où leur simulateur se situe sur cette échelle: certainement pas au niveau d'une intrication parfaite (l'architecture même des simulateurs rend cette possibilité improbable) ni sans doute complètement décohérent.

    • [^] # Re: D-Wave quantique ou pas?

      Posté par  . Évalué à 3.

      Oui, et c'est pour çà que j'ai terminé la phrase avec cette question. Même si Wikipedia n'en donne pas toute la teneur, on en a tout de même une idée. Et une des raisons également pour que je cite les liens de chez IBM.

  • # Je ne comprends toujours pas comment ça fonctionne

    Posté par  (site web personnel) . Évalué à 4.

    Je vais poser une question basique, mais il y a toujours quelque chose qui m'échappe dans le fonctionnement des ordinateurs quantiques. On a donc une série de qbits qui ont simultanément deux états, et donc si on en a n on peut simuler 2n états.

    Mais maintenant, comment est-ce que c'est exploité ? Comment est-ce qu'on réduit 2n états au seul qui nous intéresse vraiment dans le résultat d'un calcul ? Comment on fait une observation ?

    J'ai lu et vu quelques articles et vidéos de vulgarisation à ce sujet, mais personne qui ne réponde à ces questions.

    • [^] # Re: Je ne comprends toujours pas comment ça fonctionne

      Posté par  . Évalué à 4.

      Je te suggère cette vidéo :

      https://www.youtube.com/watch?v=bayTbt_8aNc&t=2s

      NB. Les vidéos de cette personne sont remarquables.

    • [^] # Re: Je ne comprends toujours pas comment ça fonctionne

      Posté par  . Évalué à 7.

      J'ai peur qu'on s'approche de la limite de la vulgarisation (et l'informatique quantique n'est pas mon domaine de prédilection), mais essayons.

      La différence fondamentale entre mécanique quantique et mécanique classique, c'est que les n q-bits n'ont pas 2n états (ce qui est le cas avec la mécanique classique) mais vivent dans un espace vectoriel de dimension 2n. En terme moins mathématiques, le système quantique vit dans une superposition de tous les états classiques possibles. À chaque état classique est associé une amplitude de probabilité quantique. L'état du système quantique, aussi appelé fonction d'onde, correspond à la collection de ces amplitudes quantiques associés à chaque état.

      L'interprétation de cette amplitude de probabilité complexe est que le carré du module de l'amplitude de probabilité associé à un état classique correspond à la probabilité que le système se trouve dans cette état classique une fois mesuré. De fait, une mesure en mécanique quantique correspond à la projection d'une fonction d'onde quantique sur un état classique.

      Cependant, le fait que l'amplitude de probabilité est complexe est d'une importance primordiale puisqu'elle permet aux différents états d'interférer entre eux. Le but d'un ordinateur quantique va donc généralement de partir d'un état quantique facile à préparer puis d'appliquer une opération quantique qui va faire interférer de façon destructive presque tous les états classiques superposés sauf quelques états potentiellement intéressant. Pour l'algorithme de Schor, on utilise par exemple une transformée de Fourier quantique qui va exploiter le fait qu'une fonction presque périodique se comporte très différemment d'une fonction non-périodique sous l'action d'une transformée de Fourier. Une fois cette transformation effectuée, on réalise une mesure de l'état quantique obtenu (le comment de cette mesure est un "détail" expérimental que j'ai pas en tête directement). Avec cette mesure, on repasse dans le monde macroscopique où on aura mesuré un état classique parmi tous les états possibles. À partir de là, il faut généralement faire de la correction du résultat obtenu à partir du calculateur quantique: vérifier qu'on a bien récupéré un des états quantiques intéressant et pas un de ceux que l'on voulait éliminer, et si tel n'est pas le cas, relancer la partie quantique de l'algorithme.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.