• # Date ?

    Posté par  . Évalué à 4.

    Ce n'est pas en 2024, c'est déjà maintenant, Intel 7 ne fait plus mention de nanomètre.

    « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

  • # Parce que Intel a perdu cette bataille

    Posté par  . Évalué à 10.

    L'article le mentionne mais Intel abandonne le terrain de la finesse de gravure parce qu'il est battu par AMD depuis quelques années.

    Intel n'arrive pas à maîtriser le 7nm (visiblement, il serait en passe d'y arriver puisque la prochaine génération de CPU Intel devrait être en 7nm) alors qu'AMD en est déjà à sa deuxième génération de CPU 7nm. Même Apple qui n'est pas un fondeur historique maîtrise le 5nm.

    D'ailleurs il peut aussi abandonner la bataille des coeurs/threads, là aussi AMD fait mieux (12c/24t pour le 5950X d'AMD contre 10c/20t pour le 11900 d'Intel) et en plus pour moins cher.

    Même les consoles de dernière génération utilisent des technos AMD (les Xbox Series X et les PS5 utilisent des APU AMD). Il me semble que c'était aussi le cas sur la génération précédente. Il n'y a que la Switch qui utilise une archi ARM.

    Mais je reconnais que la pirouette marketing est jolie. Par contre est-ce qu'on ne va pas perdre le consommateur lambda ? Ca fait des années qu'on a appris aux individus que un "i9" est "plus puissant" qu'un "i7" qui est plus puissant qu'un "i5" qui est plus puissant qu'un "i3". Et maintenant il va falloir expliquer qu'un "Intel 3" est plus récent qu'un "Intel 4" qui est plus récent qu'un "Intel 7"… Si les technophiles retrouveront vite leurs marques, je suis moins convaincu qu'on ne perde pas en route les moins technophiles.

    Au passage, l'article mentionne que la finesse de gravure n'est pas le seul élément à prendre en compte pour évaluer la puissance d'un processeur. C'est tout à fait vrai. Mais plus on tend vers des valeurs basses, plus on peut faire rentrer de transistors sur le silicium. Donc théoriquement plus on aura de puissance potentielle.

    Mais on peut aussi se servir de la finesse de gravure pour mieux maîtriser la chaleur dégagée. Plutôt que d'augmenter le nombre de transistors dans une finesse de gravure inférieure, on peut conserver le même nombre de transistors mais les espacer plus les uns des autres.

    S'il est certain que la finesse de gravure ne définit pas tout, il n'est pas inintéressant de la connaître sans nécessairement la mettre en avant pour autant.

    Souhaitons qu'au-delà du marketing, Intel arrivera à se relancer dans la course aux CPU et même qu'il nous étonnera avec son arrivée prochaine sur le marché des GPU.

    La majeure partie des morts l'était déjà de son vivant et le jour venu, ils n'ont pas senti la différence.

    • [^] # Re: Parce que Intel a perdu cette bataille

      Posté par  . Évalué à 6.

      L'article le mentionne mais Intel abandonne le terrain de la finesse de gravure parce qu'il est battu par AMD depuis quelques années.

      Pas par AMD, mais pas TSMC et Samsung. Mais comme dit dans l'article, le 10nm d'Intel est assez proche du 7nm de TSMC.

      Même les consoles de dernière génération utilisent des technos AMD (les Xbox Series X et les PS5 utilisent des APU AMD). Il me semble que c'était aussi le cas sur la génération précédente.

      Oui, mais, surtout pour la génération précédente, on peut penser que le coût et la taille des clients a énormément joué dans le choix d'AMD. Intel n'avait pas vraiment d'intérêt à vendre beaucoup de processeurs pas très cher, alors qu'AMD en avait vraiment besoin (c'est grâce aux consoles qu'ils sont redevenus rentables). Je pense aussi que les meilleures perfs GPU d'AMD par rapport à Intel a joué pour ce marché. Il faut quand même se rendre compte que c'est un gros marché, mais on parle d'un CPU et d'un GPU pas trop puissant qui n'a pas besoin d'être particulièrement économe en énergie. Ce n'est vraiment pas une techno de pointe.

      Mais plus on tend vers des valeurs basses, plus on peut faire rentrer de transistors sur le silicium. Donc théoriquement plus on aura de puissance potentielle.

      Mais justement, c'est le problème, tant qu'on reste proche, on peut avoir d'autre technique pour faire rentrer des transistors dans la même surface.

      Souhaitons qu'au-delà du marketing, Intel arrivera à se relancer dans la course aux CPU

      Oui, heureusement qu'AMD, Apple et les autre ont donné un coup de fouet, ils se reposaient bien sur leurs lauriers.

      son arrivée prochaine sur le marché des GPU.

      Les cartes sont déjà sorties, mais pas encore étonnantes.

      « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

      • [^] # Re: Parce que Intel a perdu cette bataille

        Posté par  . Évalué à 2.

        Pas par AMD, mais pas TSMC et Samsung.

        C'est vrai, autant être rigoureux. Merci.

        Oui, mais, surtout pour la génération précédente, on peut penser que le coût et la taille des clients a énormément joué dans le choix d'AMD. Intel n'avait pas vraiment d'intérêt à vendre beaucoup de processeurs pas très cher, alors qu'AMD en avait vraiment besoin (c'est grâce aux consoles qu'ils sont redevenus rentables). Je pense aussi que les meilleures perfs GPU d'AMD par rapport à Intel a joué pour ce marché. Il faut quand même se rendre compte que c'est un gros marché, mais on parle d'un CPU et d'un GPU pas trop puissant qui n'a pas besoin d'être particulièrement économe en énergie. Ce n'est vraiment pas une techno de pointe.

        Je partage le même point de vue. Mais tu m'apprends qu'AMD est devenu rentable grâce aux consoles.

        Les cartes sont déjà sorties, mais pas encore étonnantes.

        En effet, depuis fin Janvier visiblement. Je suis complètement passé à côté de l'information, merci.

        Bon visiblement c'est loin d'être au niveau. J'avais placé quelques espoirs en eux pour qu'ils bousculent un peu le marché des GPU. Bon, manqué pour cette génération.

        La majeure partie des morts l'était déjà de son vivant et le jour venu, ils n'ont pas senti la différence.

        • [^] # Re: Parce que Intel a perdu cette bataille

          Posté par  . Évalué à 4.

          C'est vrai, autant être rigoureux. Merci.

          C'est surtout que c'est parce qu'AMD s'est débarrassé de ses usines qu'ils ont pu concurrencer Intel. Global Foundry (ce que sont devenu les usines d'AMD) a arrêté la course au top niveau des fondeurs.

          Bon visiblement c'est loin d'être au niveau. J'avais placé quelques espoirs en eux pour qu'ils bousculent un peu le marché des GPU. Bon, manqué pour cette génération.

          J'ai l'impression que le but est plutôt uniquement de cibler le datacenter pour des cas où il vaut mieux beaucoup de GPU qu'un seul puissant (pour le même prix). Donc, je ne crois pas qu'ils vont concurrencer nVidia et AMD de si tôt (mais je serais ravi de me tromper).

          « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

        • [^] # Re: Parce que Intel a perdu cette bataille

          Posté par  (site web personnel) . Évalué à 10.

          Je partage le même point de vue. Mais tu m'apprends qu'AMD est devenu rentable grâce aux consoles.

          Pas seulement les consoles, par exemple Apple a lâché l’affaire avec Nvidia depuis un moment dékà, j’ai entendu dire que la Vega auraient été conçue pour la marché du Mac, par exemple.

          Initialement la première Xbox (2001) devait avoir une puce graphique ATI mais ATI a tenté le jackpot en gonflant ses prix mais a perdu son pari. Donc la Xbox a été livrée avec du Nvidia. Mais ça n’a été qu’une parenthèse.

          La stratégie d’AMD a été très efficace en rachetant ATI, le but de la stratégie appelée « Fusion » était de fournir une plateforme intégrant CPU et GPU de manière unifiée, et ça a marché.

          Petit récapitulatif (j’ai eu du mal à caractériser certains trucs, comme le Cell de la PS3 est un peu floue sur l’aspect 32 ou 64 bit, et le PowerPC de la Xbox 360 qui a des cœurs dérivés du PPE du Cell).

          Sortie Fabricant Console CPU GPU
          1993-11-23 Atari Jaguar Motorola 16/32-bit 68000 + Atari 32-bit RISC Jerry Atari 32-bit RISC Tom
          1994-11-22 Sega Saturn Hitachi 16/32-bit Super-H SH-2 Sega VDP1 + VDP2
          1994-12-03 Sony PlayStation Sony 32-bit MIPS I R3000 Sony Cop2
          1996-06-23 Nintendo Nintendo 64 NEC 64-bit MIPS VR4300 SGI RCP Reality Coprocessor
          1998-11-27 Sega Dreamcast Hitachi 32-bit RISC SH-4 Imagination Technologies PowerVR2
          2000-03-04 Sony PlayStation 2 Sony MIPS III 64-bit R5900 Emotion Engine Sony Graphic Synthesizer
          2001-11-15 Microsoft Xbox Intel 32-bit x86 Pentium 3 Coppermine 128 Nvidia Geforce 3 NV2A
          2001-09-14 Nintendo GameCube IBM 32-bit PowerPC G3 750CXe Gekko ATI Flipper
          2005-11-22 Microsoft Xbox 360 IBM ??-bit PowerPC Waternoose Xenon ATI Radeon X1800 C1 R500 Xenos
          2006-11-11 Sony PlayStation 3 IBM ??-bit Cell/BE PowerPC PPE + 7 SPE Nvidia/Sony RSX Reality Synthesizer
          2006-11-19 Nintendo Wii IBM 32-bit PowerPC G3 750CL Broadway ATI Hollywood
          2012-11-18 Nintendo Wii U IBM 32-bit PowerPC G3 750CL Espresso AMD Radeon R6000/R6700 Latte
          2013-11-15 Sony PlayStation 4 AMD 64-bit x86_64 Jaguar AMD Radeon GCN 2 Liverpool
          2013-11-22 Microsoft Xbox One AMD 64-bit x86_64 Jaguar AMD Radeon HD 7000 GCN 2 Durango
          2016-08-23 Microsoft Xbox One S AMD 64-bit x86_64 Jaguar AMD Radeon HD 7000 GCN 2 Edmonton
          2016-11-10 Sony PlayStation 4 Pro AMD 64-bit x86_64 Jaguar AMD Radeon Polaris GCN 4 Neo
          2017-03-03 Nintendo Switch ARM 64-bit ARMv8-A Cortex-A57 Nvidia Maxell
          2017-06 Microsoft Xbox One X AMD 64-bit x86_64 Jaguar Enhanced AMD Radeon Polaris GCN 4 Scorpio
          2020-11-10 Microsoft Xbox Series S/X AMD 64-bit x86_64 Zen 2 AMD Radeon RDNA 2
          2020-11-12 Sony PlayStation 5 AMD 64-bit x86_64 Zen 2 AMD Radeon RDNA 2
          2020-12-14 Atari VCS AMD 64-bit x86_64 Zen AMD Radeon GCN 5 RX Vega 3
          Futur Valve Steam Deck AMD 64-bit x86_64 Zen 2 AMD Radeon RDNA 2

          Je commence après les 16-bit comme la Super Nes et la Megadrive, c’est à dire quand on commence à avoir de la 3D.

          On voit 3 grandes tendances:

          • Beaucoup de trucs spécifiques et beaucoup de custom RISC (principalement du MIPS) en CPU et Custom en GPU, on voit du SGI et du PowerVR qui commencent à préfigurer les solutions futures (SGI est l’auteur d’IRIS GL qui servira de base à OpenGL). Se pointe en avant-garde la Xbox avec une solution x86/Nvidia qui aurait été parfaitement interchangeable avec du AMD/ATI.
          • L’arrivée en force des solutions à base de PowerPC côté CPU et du ATI/AMD côté GPU avec une exception Nvidia pour la PS3.
          • Le grand chelem des APU AMDs avec une exception ARM/Nvidia pour la Switc à cause de son aspect mobile.

          J’ai inclus les Nintendo Switch et futur Valve Deck parce qu’elles sont sensées être hybrides, être portables mais aussi utilisables comme console de salon avec des jeux de console de salon ou de PC avec des perfs de consoles de salon ou de PC, et donc qu’elles entrent en compétition directe avec les plate-formes de jeu sédentaire.

          Il faut donc considérer que sur le marché des consoles, Nvidia est une exception. La présence de Nvidia sur la première Xbox était à cause d’une erreur d’ATI dans sa négociation, mais ATI était le premier choix de Microsoft, ATI devait être à la fois être sur la Xbox de Microsoft et sur la GameCube de Nintendo, ils se sont consolés avec la GameCube. Je ne sais pas pourquoi la PS3 a eu une puce graphique Nvidia, mais c’est là encore une exception chez Sony, c’est la seule console de salon Sony ayant eu du Nvidia.

          La raison de la présence d’Nvidia dans la Nintendo Switch est que la Switch est aussi une console mobile et qu’il était plus simple pour Nvidia de prendre une plateforme Nvidia Tegra sur étagère, en d’autre terme, d’aller taper dans les technologies des téléphones portables qui étaient matures.

          Il faut noter qu’à partir de la PS 4 et la Xbox One en 2013, quand à la fois Sony et Microsoft basculent à du tout AMD à la fois côté CPU et côté GPU, c’est en utilisant un APU, c’est à dire précisément le fruit de la stratégie « Fusion » d’AMD. Une seule plateforme fournissant le CPU et le GPU. Sur ce marché, Intel n’était pas prêt, et ne l’est toujours pas, ils commencent à s’en rapprocher avec leur puce graphique Xe mais ne pourront pas entrer en compétition avec AMD avant quelques années encore, c’est à dire qu’AMD a 10 ans d’avance sur Intel, depuis presque 10 ans.

          Côté Nvidia, on comprend pourquoi Nvidia songe à acquérir ARM, pour pouvoir se positionner sur le marché ARM à la manière dont AMD se positionne sur le marché x86_64, et pouvoir transformer l’essai de la Switch.

          Et comme je le disais, Apple a lâché Nvidia, il semble que ce soit pour les même raisons que les consoles, ils auraient des exigences trop élevées. De ce que j’ai compris, Nvidia serait trop fermés pour Apple et les fabricants de console de jeu. Sachant qu’Apple et les consoles sont parmi les plate-formes les plus fermées, ça dit quelque chose. Et si Apple passe à ARM pour leur CPUs, ils ont le savoir faire pour concevoir leurs propre puces, et donc n’ont ni besoin d’Nvidia pour les CPUs, ni besoin d’Nvidia pour les GPUs (puisqu’ils sont satisfaits d’AMD).

          Aujourd’hui Nvidia vit dans deux bulles, qui sont de très sérieuses bulles, mais des bulles :

          • Le jeu sur PC, parce que le hardcode gamer est prêt à toutes les concessions et à payer le prix d’acquisition et d’entretien d’un dragster pour grapiller une frame de plus sur le voisin dans une course en départ arrêté en ligne droite. Sachant que pour les libristes que nous sommes, Nvidia n’hésite pas à promettre aux joueurs de ne pas ouvrir leur pilotes ni les firmware pour leur garantir une segmentation de marché à leur bénéfice (voir mon autre commentaire ici.
          • Le calcul sur GPU, que ce soit les super ordinateurs, ou dans la production audiovisuelle grâce à leur écosystème captif CUDA. Le problème d’AMD c’est moins le matériel que l’environnement logiciel, AMD a au moins 10 ans de retard sur Nvidia sur la maturité de la pile logicielle pour le calcul. Les fonctionnalités sont équivalentes, mais pas la maturité. Pour la production Audio-visuelle, ça a aussi trait à la maturité de la pile logicielle des fabricants, mais pour un logiciel comme Blender, le fait que Blender est principalement et d’abord conçu pour la plate-forme Nvidia tient plus à l’investissement d’Nvidia dans Blender qu’à autre chose.

          Le problème d’Nvidia c’est qu’ils pourraient bien être remplacés par AMD dans un successeur de la Switch. On le voit avec la prochaine Steam Deck: elle se place sur le même créneau et est à base d’AMD. Valve n’a pas le choix : ils doivent faire tourner plusieurs décades de jeux conçu pour l’archi PC, mais AMD développe des plateformes embarquées depuis un moment, et ils semblent avoir atteint la maturité nécessaire. Nvidia devrait s’inquiéter, il n’y a que la captivité des clients et leurs écosystèmes fermés qui maintiennent artificiellement leur domination dans les derniers secteurs où ils dominent.

          Bref, dès que l’on sort de la plateforme PC qui a une très forte inertie, Quand on veut faire du jeu vidéo Nvidia n’est pas un partenaire sérieux. Ça fait bizarre de le dire comme ça mais c’est vrai depuis presque 20 ans… En fait ce qui se passe avec Nvidia est très similaire à ce qui se passe avec Microsoft Windows : c’est l’inertie de la plateforme PC qui les maintiens sur ces marchés. Partout où cette inertie ne les protège pas, ils ont soit carrément perdu, soient ils se font dangereusement rattraper sur leurs propres terrains. Mais cette inertie est énorme donc faut s’attendre à voir une domination de Windows et de Nvidia dans les Steam Survey pendant longtemps encore, et cette inertie guidera donc les décisions des développeurs de Jeu PC pour longtemps encore.

          Il y a des choses comme ça qui semblent contre-intuitives:

          • Intel est le plus gros fournisseur de puces graphiques sur le PC de bureau, devant NVidia et AMD, puisque c’est simple, ils intègrent des puces graphiques avec pratiquement tous leurs CPUS, CPUs qui ont une présence écrasante dans le marché des PC de bureau, et ces GPUs intégrés sont suffisants pour la majorité des usages de bureau, excepté les niches du hardcore gamer et du producteur graphique.
          • Nvidia n’est pas une solution sérieuse pour le jeu vidéo, excepté la niche du hardcore gamer.

          Par exemple, pour un développeur de jeu vidéo sur console, parler de Ray Tracing c’est d’abord parler de la plate-former d’AMD, quand bien même Nvidia aurait de l’avance sur d’autres marchés. Si tu vises la PS4, les Xbox Series et la Switch, la Switch est le petit dernier. Si ton jeu n’est pas prévu pour une switch, Nvidia n’est même pas une option. Il n’y a d’ailleurs aucune console de jeu qui propose la génération actuelle de ray tracing d’Nvidia. La technologie Maxwell de la Switch date de 2014… 8 ans déjà. La switch est une niche à elle toute seule.

          ce commentaire est sous licence cc by 4 et précédentes

          • [^] # Re: Parce que Intel a perdu cette bataille

            Posté par  . Évalué à 3.

            La raison de la présence d’Nvidia dans la Nintendo Switch est que la Switch est aussi une console mobile et qu’il était plus simple pour Nvidia de prendre une plateforme Nvidia Tegra sur étagère,

            C'est surtout qu'à l'époque, c'était les seuls qui savaient faire un GPU mobile performant (c'est d'ailleurs peut-être encore le cas).

            « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

            • [^] # Re: Parce que Intel a perdu cette bataille

              Posté par  (site web personnel) . Évalué à 7.

              Tiens j’ai fait un gros lapsus:

              - qu’il était plus simple pour Nvidia de prendre une plateforme Nvidia Tegra sur étagère, 
              + qu’il était plus simple pour Nintendo de prendre une plateforme Nvidia Tegra sur étagère, 

              C'est surtout qu'à l'époque, c'était les seuls qui savaient faire un GPU mobile performant

              C’est plus ou moins sous-entendu dans « prendre une plateforme Nvidia Tegra sur étagère » en effet. Bref, Nintendo n’avait pas beaucoup de choix, à moins de se lancer dans un projet fou pour intégrer ceci ou cela pour tenter de rivaliser avec Tegra alors que Tegra existait déjà et qu’il suffisait de se servir…

              Le choix de Nintendo de Nvidia pour la Switch ne peut pas servir de référence pour des pronostics d’un successeur, excepté le fait de réduire les coûts de développement en choisissant une future plateforme Nvidia jugée suffisamment proche (Nvidia pourrait profiter du « pied dans la porte »), et Nintendo a déjà une grosse expérience avec ATI/AMD… et ont montré avec la Switch qu’ils savent passer de l’un à l’autre.

              (c'est d'ailleurs peut-être encore le cas).

              Samsung est en train d’intégrer des puces AMD RDNA 2 dans sa plateforme Exynos à destination des smartphones, il pourrait arriver sur le Galaxy S22.

              Historiquement ATI/AMD avait refilé ATI Imageon à Qualcomm, ce qui a donné Adreno (un anagramme de Radeon), mais on voit qu’AMD revient dans la course sur le mobile, et avec RDNA 2, ça veut dire la pointe du savoir faire d’AMD.

              Par contre je ne vois pas de signe de retour d’AMD sur la plateforme ARM (Opteron A-Series) donc ça laisse une place pour Nvidia sur ce créneau, à condition qu’ARM devienne populaire sur le marché des serveurs.

              ce commentaire est sous licence cc by 4 et précédentes

              • [^] # Re: Parce que Intel a perdu cette bataille

                Posté par  . Évalué à 4.

                Samsung est en train d’intégrer des puces AMD RDNA 2 dans sa plateforme Exynos à destination des smartphones, il pourrait arriver sur le Galaxy S22.

                Mais on n'a pas encore vu ce que ça donnait et AMD n'a pas encore fait ses preuves dans la basse consommation. Donc j'attends de voir.

                « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

                • [^] # Re: Parce que Intel a perdu cette bataille

                  Posté par  (site web personnel) . Évalué à 4.

                  Oui mais comme on l’a vu avec les consoles et les performances en jeu, ce qui compte n’est pas la performance brute (que ce soit en performance de calcul ou en économie d’énergie) mais que le produit soit intégré dans des produits vendus.

                  Même si la fourniture d’AMD était moins bonne qu’Nvidia et autres fournisseurs sur certains points techniques relatifs à la basse consommation mais suffisante pour pouvoir être préférée sur d’autres critères, c’est ce qui restera au final.

                  Donc oui, à voir jusqu’où cet essai d’AMD RDNA dans des téléphones va aller, mais même un « résultat moyen suffisamment acceptable » peut remporter un marché, et la « performance sur le marché » peut avoir le dernier mot, à suivre avec intérêt. Perso je suis pas très intéressé par les smartphones donc ça sera de loin. =)

                  ce commentaire est sous licence cc by 4 et précédentes

                  • [^] # Re: Parce que Intel a perdu cette bataille

                    Posté par  . Évalué à 4.

                    Sauf que le marché des smartphones n'est pas celui des consoles. Être mauvais en économie d'énergie est redibitoire. J'ai l'impression qu'il vaut mieux être mauvais en performance qu'en consommation.

                    « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

      • [^] # Re: Parce que Intel a perdu cette bataille

        Posté par  . Évalué à 4. Dernière modification le 28 juillet 2021 à 19:27.

        (12c/24t pour le 5950X d'AMD contre 10c/20t pour le 11900 d'Intel)

        J'ai écrit une connerie, c'est 16c/32t pour le 5950X. C'est le 5900X avec 12c/24t.

        La majeure partie des morts l'était déjà de son vivant et le jour venu, ils n'ont pas senti la différence.

    • [^] # Re: Parce que Intel a perdu cette bataille

      Posté par  . Évalué à 8.

      Souhaitons qu'au-delà du marketing, Intel arrivera à se relancer dans la course aux CPU et même qu'il nous étonnera avec son arrivée prochaine sur le marché des GPU.

      C'est rigolo de se moquer du marketing en utilisant des arguments marketing…
      Déjà parce que le 7nm de TSMC ne mesure pas la même chose que le 7nm intel. Ensuite parce que c'est un chiffre dont on se fout. Il n'est pas complètement hors-sol, mais faut se rappeler que ce n'est qu'un moyen d'avoir de la performance ou de la basse consommation tout comme peu l'être des changements dans l'architecture du CPU. Choisir de mettre en avant cette valeur plutôt qu'autre chose est un choix purement marketing qui a eu lieu quand après avoir plafonné sur la fréquence puis rapidement sur le nombre de cœur, ils avaient besoin d'un "truc" à donner pour se représenter une évolution (comme le nombre de bits des consoles 8/16/32/64).

      Je ne dis pas ça pour remettre en question ton avis sur intel, mais pour mettre en évidence que cette histoire de finesse de gravure (qui est bien plus complexe qu'une mesure comme ça) est avant tout marketing.

      https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

      • [^] # Re: Parce que Intel a perdu cette bataille

        Posté par  (site web personnel) . Évalué à 2.

        Nonobstant ou à cause du côté outrageusement commercial de la communication sur la finesse de gravure, on pourrait s'étonner de trouver assez peu de personnes, même sur les sites de passionnés d'informatiques, pour recalculer des chiffres plus réalistes à partir des densités de transistors. Ça aurait au moins un caractère informatif partiel quant aux évolutions des technologies de gravure des puces.

        « IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace

        • [^] # Re: Parce que Intel a perdu cette bataille

          Posté par  . Évalué à 5.

          Plus que la presse spécialisée qui recrache les discours commerciaux ? L'important ce qui t'es utile c'est :

          • la performance mesurée
          • la chauffe/consommation si tu monte ta machine

          Détailler des bouts de spécifications ne fait que flatter l'égo du client un peu intéressé (moteur 16 soupapes, injection getho-blaster,…).

          L'important c'est qu'au lieu de se transformer en zombie (« moi je suis team intel #pentiumM »), il faut s'arrêter, se demander ce qu'on va faire et trouver des benchmarks correspondants. Il y en a pleins.

          S'attacher à des mesures de densité de transistors, finesse de gravure ou autre c'est intéressant pour des gens du domaine, qui s'intéressent à l'évolution technique pas à l'utilisateur final.

          Tu ne compare pas les logiciels en fonction du nombre de ligne de code et tu ne crée pas une mesure de ligne de code "équivalent C" pour palier en fait que le nombre de ligne de code en C, python et haskell ne peut pas être comparé.

          https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

  • # Magic marketing

    Posté par  . Évalué à 3.

    C'est quoi cette histoire de "10nm en fait équivalent au 7nm" ?
    Tiens, la prochaine fois qu'on me demande ma taille, je dirait "1m70 mais en fait équivalent à 1m80".

    • [^] # Re: Magic marketing

      Posté par  (site web personnel) . Évalué à 5.

      Car c'est une mesure parmi d'autres qui ne permet pas d'avoir une vision d'ensemble du processeur.

      Par exemple si ton transistor est plus petit que le concurrent mais que les autres composants qui l'accompagnent (car un transistor n'est jamais seul), sont plus gros, ta densité de transistors dans le processeur sera peut être équivalent malgré une taille de résistance plus petite.

      Puis avec les technologies au niveau du transistors qui diffèrent, deux transistors de même taille peuvent avoir des consommations électriques (et dégagement de chaleur) qui diffèrent. Ce qui complique là encore la comparaison frontale.

      La taille du transistor avait l'avantage de comparer facilement deux fondeurs car à une époque pas si lointaine une taille plus basse = moins de conso électrique par transistor, moins de chaleur dégagée par transistor, et plus grand nombre de transistors sur une même surface. Aujourd'hui cette valeur seule entre les fondeurs n'a plus beaucoup d'intérêt, l'ordre de grandeur compte mais sur les petites différences il vaut mieux regarder les propriétés globales comme la densité en transistors de la puce et sa consommation réelle.

    • [^] # Re: Magic marketing

      Posté par  (Mastodon) . Évalué à 5. Dernière modification le 30 juillet 2021 à 11:54.

      En 7nm, TSMC et Samsung mettent respectivement 95 et 91 millions de transistor au mm².
      En 10nm Intel en met 100 millions.

      Donc oui, c'est équivalent.

      (exemple de source mais on en trouve bcp d'autres)

      En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.

    • [^] # Re: Magic marketing

      Posté par  . Évalué à 7.

      La question n'est pas la taille, mais ce qu'on en fait :p

      Tu as pas mal d'article qui en parlent même en français, je te met celui-là parce que je trouve que leur images permettent de bien comprendre : https://www.tomshardware.fr/le-7-nm-de-tsmc-compare-au-14-nm-dintel/

      Après il faut vraiment comprendre qu'évaluer la puissance des CPU par leur fréquence, leur finesse de gravure ou leur nombre de transistors (c'était surtout pour les GPU ça), c'est un peu comme évaluer les coureurs du 100m par la taille de leur jambes, la circonférence de leur cuisses ou leur VO2 max. C'est pas dénué de sens, mais ça reste très très très approximatif.

      https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

      • [^] # Re: Magic marketing

        Posté par  (site web personnel) . Évalué à 2.

        Ça ne donne pas d'informations très pertinentes sur l'individu, mais ça pourrait en donner sur la société, les technologies…
        Quand on aurait étudié l'évolution des pointures des sprinters de 1900 à 2100 et constaté qu'elles diminuent à partir d'une certaine époque, on en conclurait peut-être que les évolutions techniques auront rendu inutile les mécanismes de course s'appuyant sur l'attaque de la pointe du pied. De même si l'on devait constater des évolutions des masses moyennes au cours des siècles peut-être pourrait-on en déduire des informations quant aux évolutions des techniques médicales ou d'entraînement…

        « IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace

        • [^] # Re: Magic marketing

          Posté par  . Évalué à 3.

          C'est possible, mais il faut faire attention à savoir quels sont les biais que l'on inclue dans l'analyse parce que tous les paramètres ne sont pas indépendants les uns des autres. De plus ils permettent de donner une indication pas une vision globale.

          https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.