Open Compute Summit 2017, alors c’était bien ?

Posté par  (site web personnel) . Édité par Davy Defaud, Benoît Sibaud et palm123. Modéré par claudex. Licence CC By‑SA.
Étiquettes :
36
25
mar.
2017
Matériel

Après divers dépêches et journaux sur l’open hardware, l’OCP toolchain, le logiciel FreeCAD ou le projet RuggedPOD, vejmarie nous résume sa visite à l’Open Compute Summit 2017, à Santa Clara. C’est parti pour des discussions sur les barrettes mémoire, les bus, les _sockets, les processeurs, etc.

Keynote

Me voilà de retour sur le vieux continent après quelque temps chez l’oncle Sam. J’ai eu la chance de participer une nouvelle fois cette année au Summit Open Compute 2017 qui se tenait, une fois n’est pas coutume, au centre de congrès de Santa Clara (les années précédentes on était en centre‐ville de San José, c’était, il faut être honnête, plus sympa). Dans tous les cas, ça reste loin, très loin, il faut aimer le matériel libre !

Le format du Summit n’a pas changé par rapport aux années précédentes, un jour et demi intense de discussions. Le format est assez classique, première demi‐journée axée sur les keynotes, puis séparation de l’assemblée sur trois thématiques, des conférences, des engineering workshops et un salon sur lequel les membres de la communauté et les différents fournisseurs présentent les nouveautés.

Le salon était un peu plus grand qu’à l’accoutumée et nous sommes arrivés tôt (décalage horaire oblige) pour éviter la foule au moment de l’enregistrement (environ 3 500 personnes) et découvrir les stands sans être trop acculés.

Entrée

Entrée 2

Le premier stand à l’entrée était celui de Microsoft, un gros contributeur OCP avec le projet Olympus et, placé juste à côté, on retrouvait le stand de Facebook avec un ensemble de nouveautés que je vais tâcher de vous décrire.

L’avantage du salon, c’est qu’il reste à échelle humaine, les personnes présentes sur les stands sont les ingénieurs qui participent aux projets et qui sont là pour présenter leurs designs sans aucun a priori, ni être dans l’optique de vous le vendre. On parle d’ingénieur à ingénieur et ce n’est pas trop désagréable. Attention toutefois, si vous vous rendez sur les stands des « constructeurs » (type QCT, Wywinn, etc.), là, vous aurez droit à du marketing, du vrai.

La première chose que nous avons notée, c’est une présence forte du stockage NVMe, Microsoft comme Facebook présentaient tous les deux des solutions à bas coût à base de sticks M2 qui se connectent sur une carte porteuse au format PCIe Gen3 à seize lignes permettant de bénéficier des performances de ces solutions à bas coût sans avoir à rechercher une nouvelle carte mère. Avec des débits soutenus de l’ordre de 8 Gio/s en entrée‐sortie, ces solutions donnent un sacré coup d’accélérateur aux serveurs d’ancienne génération et rendent la virtualisation bien plus intéressante.

NVMe

Microsoft exposait les premiers serveurs issus du projet Olympus, avec quelques nouveautés comme la prise en charge d’ARM sous Windows, pour son usage interne dans le cadre de ses offres Azure, la prise en charge de processeurs Cavium (48 cœurs) à deux emplacements processeur (sockets) et, bien entendu, des processeurs Intel Next Gen. Nous avons d’ailleurs assisté à un jeu surprenant où au début du salon et jusqu’à la fin du premier jour, les barrettes mémoires de tous ces serveurs (Intel Next Gen) étaient masquées sur l’ensemble des stands. Le lendemain matin en arrivant tôt, j’ai réussi à prendre une petite photo, mais n’ai pas trouvé ce qui justifiait une telle psychose. Alors, je la poste et, si vous trouvez, on peut en débattre !

Olympus
Olympus 2

Du côté de l’intelligence artificielle et du calcul sur processeur graphique, NVIDIA était le grand gagnant avec deux designs en architecture Pascal dévoilés. Un premier chez Microsoft et un second chez Facebook. Les deux designs supportent huit processeurs graphiques Pascal avec chacun 16 Gio de HBM v2. L’introduction de la mémoire HBM sur Pascal est un grand pas en avant dans l’augmentation de la bande passante mémoire du processeur graphique et la réduction de la latence et surtout dans la complexité des designs en découlant. Les processeurs graphiques sont interconnectés en utilisant les liens nVLink de NVIDIA, s’affranchissant ainsi de la lourdeur du PCIe. Le conditionnement du Pascal est assez massif et le nombre de transistors assez conséquent.

Pascal
Pascal 2

Tout le monde s’interrogeait toutefois sur la nécessité de faire deux conditionnements, un chez Microsoft et un chez Facebook, alors qu’OCP est un projet collaboratif. Y a comme un bogue, là.

Une petite photo du châssis Pascal présenté chez Facebook : PascalFB

L’autre innovation qui nous a beaucoup plu est probablement la plus simple présentée lors de ce salon, mais elle résout un problème important du projet Yosemite, à savoir la maintenabilité du système. Yosemite introduit en effet la prise en charge de plusieurs nœuds physiques dans un même châssis qui partagent chacun la même interface réseau 100 Gbit/s sur le bus PCIe, en poussant l’usage de SR-IOV et MR-IOV au maximum. Si un changement physique devait s’opérer sur un des nœuds, jusqu’à présent, les quatre nœuds devaient être arrêtés électriquement. Avec l’arrivée de Yosemite 2, ce problème disparaît. Le châssis étant munis de balais à la Scalextric qui restent en contact avec la source d’énergie pendant que le châssis est en sortie en frontal du rack.
Yosemite 2
Yosemite 21

Pour la première fois, la fondation OpenPOWER était présente. On retrouvait sur son stand l’introduction du serveur Zaius, probablement l’un des designs les plus ouverts du salon, avec la publication de l’ensemble des fichiers mécaniques, électriques et des microcodes (BIOS et gestion à distance).
OpenPOWER

Nous avons eu le plaisir d’échanger avec Aaron Sullivan de Rackspace, un des gros contributeurs au projet Bareleye et Zaius de la fondation OpenPOWER, tout comme avec les ingénieurs de Google impliqués dans le développement d’OpenBMC.

OpenPOWER

Une des forces de Bareleye et Zaius repose sur l’architecture POWER, dont la bande passante mémoire phénoménale et la gestion du multi‐fil d’exécution matériel (hardware multi‐threading) permet sur un serveur à deux emplacements processeur d’accueillir sans problème jusqu’à 192 fils d’exécution physiques.

Une nouvelle fois le salon a tenu ses promesses d’innovation. Nous regrettons toutefois, comme les années précédentes, de ne pas y voir un esprit de communauté plus grand, malgré le fait que cette année celui‐ci nous est apparu plus fort que les années précédentes. L’open hardware dans l’informatique est naissant, la tâche est immense mais les choses progressent, et c’est ce qui compte le plus. À l’année prochaine pour l’édition 2018 !

P.‐S. : Il y avait, bien entendu, d’autres nouveautés. J’ai essayé de présenter ici celles qui m’ont le plus marqué.
P.‐P.‐S. : Pour la première fois, j’ai croisé d’autres Français et ça fait plaisir !

Aller plus loin

  • # Et Risc?

    Posté par  (site web personnel) . Évalué à 1.

    Risc n'est pas les seule instructions libre? Pas de hardware sur architecture Risc?

    Mon projet libre: http://ultracopier-fr.first-world.info/, mon jeu libre: http://catchchallenger.first-world.info/

    • [^] # Re: Et Risc?

      Posté par  (site web personnel) . Évalué à 4.

      Il y a tres peu d'architecture ouverte en effet. x86 tout comme Power sont aujourd'hui fermee en un sens qu'il est impossible de concevoir un chip qui supporte ces jeux d'instructions sans avoir a negocier prealablement une licence.

      OCP tout comme un certains nombre de projet s'arretent aux systemes et ne decendent pas au niveau du chip. Alors oui, c'est un peu comme faire tourner les outils gnu par dessus un kernel proprietaire. Le truc c'est qu'il n'existe pas encore le linus torvald de l'open hardware, mais il y a quelques architectures prometteuse comme Risc-V, mais il y a encore pas mal de travail.

      En un sens c'est deja pas mal de voir des mouvements se creer et progresser.

      • [^] # Re: Et Risc?

        Posté par  . Évalué à 4.

        L'ouverture du jeu d'instruction ? Est-ce que ça serait vraiment utile ? Surtout sur des systèmes comme ça, non ? Les enjeux de performance / efficacité ne portent pas sur le jeu d'instructions.

        En tout cas, merci beaucoup pour la dépêche, qui sort de l'ordinaire et est compréhensible pour un sujet rarement évoqué. C'est super aussi d'avoir un retour en ayant vécu le salon sur place !

        • [^] # Re: Et Risc?

          Posté par  (site web personnel) . Évalué à 4.

          Le saint graal du libriste dans le materiel c'est d'avoir le composant numerique d'ouvert (le processeur, la carte graphique, les cartes reseaux etc …), le seul hic c'est que pour faire ca il faut que les stacks logicielles suivent (compilateurs, O/S) et c'est un boulot de titan de refaire une architecture (choix prix par Risc-V et je leur tire mon chapeau). Donc avoir acces a un jeux d'instructions existant ca aide ;) surtout avec l'integration croissante des fonctions au sein d'une meme puce. Il peut y avoir de l'innovation a tous les niveaux.

          Merci pour ton compliment sur la depeche.

    • [^] # Re: Et Risc?

      Posté par  . Évalué à 9.

      En fait, ce n'est pas techniquement le fait d'etre RISC qui pourrait rendre une architecture libre. C'est en fait son age. Une fois que les brevets qui la couvrent expirent. Ainsi, meme l'architecture x86, pre 1997 est aujourd'hui libre. Mais il faut dans ce cas, copie ce qu'on fesait dans les 90, sinon brevet ! Du coup, les architectures RISC sont plus interressante, car elles ont moins de goulot d'etranglement.

      Donc dans la liste des processeurs libre, avec code source, tu as aujourd'hui le LEON (dont l'architecture date de la fin des annees 80) et le J-Core (Un SH2 pour l'instant) qui date du milieu des annees 90. A la fin de l'annee, ce sera le tour du SH4 qui ne sera plus couvert en fin d'annee par les brevets. Ce qui est interressant comme difference, c'est que le SH est ce qu'on peut appeler un RISC de seconde generation. Du coup, il y a une vrai difference sur le jeu d'instruction entre l'un et l'autre. Celui est plus compact et se rapproche de la densite des x86 et ARM Thumb est actuellement inspire de ce jeu d'instruction. L'interet d'avoir un jeu d'instruction compact, c'est que une moindre consommation de bande passante memoire pour le code (donc plus pour les data, ce qui est quand meme ideal). C'est un des avantages des x86, mais les SH a la difference des x86 n'ont pas besoin d'un etage microcode extrement complique pour pouvoir executer leurs codes. J'attend que la societe derriere le J-Core sorte leur board de developpement pour faire un journal plus consequent sur le sujet. Mais globalement, c'est un projet tres interressant a mon avis.

      Mais ensuite, c'est aussi une question de tradeoff. Aujourd'hui pour designer un CPU completement libre, il faut pouvoir se payer un ASIC (Surun FPGA, on peut probablement atteindre les 100Mhz, grand maximum). Et clairement plus le process de gravure est fin et moderne, plus c'est couteux. Du coup, on peut difficilement imaginer acceder a plus que 250Mhz sans avoir des millions de dollars. De plus, il faut pouvoir ecouler des volumes important, de l'ordre de 20000 unites par batch. Donc on se retrouve dans un domaine plus IoT dans un premier temps. Du coup, cela veut dire que les processeurs sont optimises pour l'efficacite energetique et non les performances. Cela veut dire pas de branchement predictif, des petits caches et pas de multi instruction. Globalement, on ne va pas concurrencer un serveur x86 avec ca tout de suite.

      En parlant de brevets qui expirent, il y a un certain nombre de techno que l'on utilise tous les jours qui vont expirer dans les 10 prochaines annees. Une partie du standard 3G, le Wifi, AMD 64 bits, … Je n'ai encore vu personne assembler une telle liste, mais ce serait extremement interressant pour le materiel libre !

  • # Douane

    Posté par  . Évalué à 4.

    La grosse question est : «Comment s'est passé ton passage à la douane US ?».
    Comme on entend des choses les plus horrible les unes que les autres sur les pouvoir des douane US.

    PS : Oui, c'est un commentaire que j'aurais pu faire un vendredi …

    • [^] # Re: Douane

      Posté par  (site web personnel) . Évalué à 8.

      Normalement, en 20s environ. Bon apres soyons honnete j'ai un VISA de travail aux USA et fait partis de ces personnes qui ont fait le choix de resider en dehors des USA, donc j'y vais comment dire souvent (tous les mois), alors je connais le process. Maintenant y a un truc qui est vrai, c'est jamais pareil, ca peut me prendre 10s, comme 3h, ca depend du douanier. Quoiqu'il se passe en disant toujours la verite et en restant toujours calme, je n'ai jamais eu de probleme en 20 ans de voyage dans ce pays.

      • [^] # Re: Douane

        Posté par  . Évalué à 1.

        Ok, merci du retour.
        As tu senti un durcissement ces derniers temps ? T-ont ils demander tes mdp du tel/ordi/réseau sociaux ?
        C'est vrai que si tu es un habitué le "cout" du passage dois être moindre qu'un voyageur occasionnel.

        • [^] # Re: Douane

          Posté par  (site web personnel) . Évalué à 6.

          Rien vu. Ils m'ont rien demande de special, ni mot de pass ni quoique ce soit. Je "rentre" aux USA principalement en Californie et au Texas. L'honnetete, le calme et la detente sont les principales caracteristiques qui te permettront de passer un agreable sejour aux USA. Apres il y a toujours un aspect "borderline" sur l'intrepretation de ta presence aux USA (pro vs tourisme pour aller a une conference par exemple). J'ai fait le choix de demander un VISA de travail comme ca pas de soucis.

      • [^] # Re: Douane

        Posté par  . Évalué à 6.

        Ce que tu décris c'est habituel avec tous les douaniers. Il y a ceux qui se sont levés du pied gauche, ceux qui sont suspicieux, ceux qui sont sympa, … J'ai souvent passé les douane française, venant ou rentrant en Afrique. Et ma mère bien française avec ses enfants tout jeunes bien français aussi a déjà attendu plusieurs fois plusieurs heures en douane française que ces messieurs nous laissent repartir (passeport confisqué) à cause d'on ne sait quelle suspicion. D'autres fois, d'autres douanier ont fait les clowns pour nous distraires, nous ont appris à jouer aux dames pour faire passer le temps (grève de leurs collègues), … en Suisse un douanier qu'on connaissait très bien a du intervenir avant que les collègues jouent à démonter la voiture…
        Bref on hait des gorges chaudes des mesures de rétorsion aux États-Unis mais les soupçons et les abus de la douane ont toujours existé.

        "La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay

  • # Commentaire supprimé

    Posté par  . Évalué à 0. Dernière modification le 05 avril 2017 à 22:52.

    Ce commentaire a été supprimé par l’équipe de modération.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.