Journal The Cell : révolution en vue !

Posté par (page perso) .
Tags : aucun
0
21
jan.
2005
Des infos filtrent enfin sur l'architecture de la future puce d'IBM-Sony-Toshiba qui équipera la Playsation 3 et aussi des workstations IBM.
Cette puce c'est "The Cell".
Alors que la présentation technique détaillée officielle est pour février un type (Nicholas Blachford) a pris la peine de comprendre en profondeur les brevets déposés sur The Cell et vient de publier une (longue) analyse :

http://www.blachford.info/computer/Cells/Cell0.html(...)
http://www.blachford.info/computer/Cells/Cell1.html(...)
http://www.blachford.info/computer/Cells/Cell2.html(...)
http://www.blachford.info/computer/Cells/Cell3.html(...)
http://www.blachford.info/computer/Cells/Cell4.html(...)
http://www.blachford.info/computer/Cells/Cell5.html(...)

Il semble qu'il s'agisse d'un vrai monstre de puissance !

Quelques phrases de l'article :

The first Cell based desktop computer will be the fastest desktop computer in the industry by a very large margin. Even high end multi-core x86s will not get close.

The PC has always been able to beat competition by virtue of it's huge software base, but this base is not as strong as it once was. A lot of software now runs on Linux and this is not dependant on x86 processors or Microsoft.

Cell is going to turn the industry upside down, nobody has ever produced such a leap in performance in one go and certainly not at a low price.

To date the PC has defeated everything in it's path. No competitor, no matter how good has even got close to replacing it. If the Cell is placed into desktop computers it may be another victim of the PC. However, I think for a number of reasons that the Cell is not only the biggest threat the PC has ever faced, but also one which might actually have the capacity to defeat it.
  • # ???

    Posté par . Évalué à 7.

    The first Cell based desktop computer will be the fastest desktop computer in the industry by a very large margin. Even high end multi-core x86s will not get close.

    Depuis quand les x86 sont réputés pour être rapides ? avec toute la compatibilité qu'ils traînent... Si il veut des trucs puissants, qu'il compare avec un alpha, un G5...
    • [^] # Re: ???

      Posté par (page perso) . Évalué à 7.

      Ben il compare avec le desktop standard....avec le truc le plus répandu.
      En plus on est d'accord pour dire qu'un G5 est plus puissant mais la marge par rapport aux X86-64 est faible...très faible (à part sur les trucs vectoriels ou le G5 explose tous les X86).

      Visiblement ibm et sony veulent que le Cell se répande partout (embarqué+console de jeux+desktop+calcul scientifique...etc etc)....donc les prix vont baisser et la puce sera compétitive !
    • [^] # Re: ???

      Posté par . Évalué à 7.

      hum.. faut lire un peu l'article..

      http://www.blachford.info/computer/Cells/Cell_Arch.gif(...)

      A premiere vu le Cell est une architecture distribuée à base de risc. Vu qu'il y a ibm dedans, ils se pourrait que le risc en question soit un G5..
    • [^] # Re: ???

      Posté par . Évalué à 1.

      En nombre entier "pure", les derniers x86 sont effectivement les plus rapide du monde. Loin devant tout le reste. Même alpha, même Itanium 2.

      En nombre flottant, c'est les 2 autres cités qui sont les meilleurs.

      En calcul "vectoriel", je n'ai pas vu de bench mais le G5 avec son altivec doit aller un peu plus vite qu'un x86 même plus rapide. Mais cela ne concerne que la 3D et la compression video.

      De plus l'avance de l'altivec se réduit depuis la sortie du SSE3.

      "La première sécurité est la liberté"

      • [^] # Re: ???

        Posté par . Évalué à 5.

        "Loin devant tout le reste", c'est vide dit. l'avantage en perf sur les entiers d'un P4 3.6GHz, par exemple sur un Power5 1,9GHz n'est pas très important. Surtout quand on le met en regard de l'écart qu'il y a dans l'autre sens sur les calculs en flottant.
        En outre le P4 est essentiellement optimisé pour un exécuter très vite des opérations simples sur des entiers, étant donné qu'il y consacre une part importante de ses unités de calcul et qu'il tourne à une fréquence élevée.
        A ce niveau, on peut dire que c'est un choix, celui de pousser (ou pas) en priorité la capacité en calcul entier scalaire. ça serait probablement comparativement beaucoup plus facile pour IBM de doubler intel sur les entiers en concevant des processeurs qui ont davantage d'unités de calcul dédiés à ce type d'opération (vu qu'il y en a que deux pour l'instant) - et d'autant plus vu que le gap de fréquence à tendance à se réduire - que pour intel de porter son architecture x86 au niveau de l'itanium ou du Power5 sur les flottants.
        En outre en 3D, et également en image 2D fixe, car il y a pas que les images qui bougent dans la vie, les perspectives d'utilisation des unités vectorielles commencent à être fortement limités par les GPUs qui font vraiment beaucoup aujourd'hui.
        Il y a quand même des usages pour un certain nombre de traitements sonores et d'autres usages plus exotiques ; par exemple Motorola avait produit des exemples d'applications sur TCP/IP.
        Bref, le vectoriel ça a un champ d'application assez large, pour ceux qui ont le temps de mettre le nez dans l'optimisation.
    • [^] # Re: ???

      Posté par . Évalué à 9.

      Il compare en fait The Cell a du multiprocesseur x86. La plupart des gros serveurs versatiles (comprendre les superscalaires et les vectoriels ne comptent pas) sont en x86 ou en x86-64.

      A l'heure actuelle même un SGI en X-bar peine à remonter et à traiter autant d'informations par processeur qu'un Xeon sur une architecture PCI-Express.
      En traitement mathématique pur (ie si la remonté de données n'est pas problématiques) l'Athlon 64 est quasiment imbattable au niveau mips/$.

      Si il veut des trucs puissants, qu'il compare avec un alpha, un G5...

      Alpha est mort, les sparcs s'orientent beaucoup plus vers de l'embarqués que vers du haut de game et ont beaucoup de mal à monter en fréquence (probablement parceque personne n'essaye vraiment.)

      En ce qui concerne le G5, il a de bonnes capacités DSP, mais en perfs pures il a du mal. A fréquence équivalente un G5 peine a égaler un Pentium 4 non xeon et pleure devant un Athlon (même non 64). Et les Pentium comme les Athlons existent dans des fréquences bien supérieures à celles de G5 pour des coups nettement moindre.

      Un coup d'oeuil à spec.org suffit à s'en assurer.
      • [^] # Re: ???

        Posté par . Évalué à 0.

        spec.org ? où exactement ?
      • [^] # Re: ???

        Posté par . Évalué à 2.

        un G5 peine a égaler un Pentium 4 non xeon

        T'es vraiment sûr ?

        Alpha est mort

        Alpha est mort je sais et je regrette beaucoup...
        • [^] # Re: ???

          Posté par . Évalué à 2.

          Je répond aux deux messages d'un coup.

          En performances pure (CPU2000 test CINT et CFP) faites uen recherche avec comme argument : processor matches 'powerpc 970'
          et ensuite avec processor matches 'pentium'.
          http://www.spec.org/cgi-bin/osgresults?conf=cpu2000(...)
          Regardez tout ce qui dépasse 2000 Mhz.

          le gros bipro JS20 d'IBM avec deux processeurs monocore à 2200Mhz a les résultats suivants :
          entier : 1040/986
          flotant : 1241/1178

          a comparer avec un Pentium 4C à 2,40Ghz en entier (1071/1039)
          et un Pentium 4E à 2,8Ghz en flotant (1328/1326)

          Le JS2000 étant avantagé légèrement par le fait que ces deux cores sont complets contrairement au pseudo core hyper threading, mais les résultats sont à peu prés valables (comme tout benchmark ca pemret de se faire uen idée sur un point très précis, ici la capacité à faire tourner le spec test)

          En système monocore x2 on a un léger gain de perf vis à vis d'un bicore G5 comme celui des Macs pour cause de bus doublé. Mais rien de transcendant.
          Bien qu'Apple fasse partie du spec consortium, aucun bicore G5 n'est testé officiellement, d'ou la nécessité de se rabattre sur le monocore IBM.

          De facon générale on peut dire qu'en perf pure un Pentium4E 5% plus rapide qu'un G5 l ebat à plate couture en entier et a à peu près les même perfs en flottant.
          • [^] # Re: ???

            Posté par (page perso) . Évalué à 3.

            sachant que les Pentium executent du code compilé par le compilo Intel hyper-optimisé-de-la-mort-qui-tue alors que pour les PPC c'est du GCC classique........
            • [^] # Re: ???

              Posté par . Évalué à 4.

              IBM poste en général des benchs compilés avec ses propres compilo PPC proprio (xlc et fortran), qui optimisent fort bien.
              • [^] # Re: ???

                Posté par (page perso) . Évalué à 3.

                Et optimiser de l'ultra risc multicore est beaucoup plus facile (avec un algo d'allocation chromatique) à optimiser que du cisc x86 à la sauce intel.

                Sur x86 t'as toujours 4 registres, sur g5, 32.

                « Il n’y a pas de choix démocratiques contre les Traités européens » - Jean-Claude Junker

          • [^] # Re: ???

            Posté par . Évalué à 2.

            le ppc970 n'est pas un bi-core, et les G5 d'apple sont des machines bi-processeurs parfaitement classiques (tout comme les bi-opterons et les bi-xeons qui sont vendus sur le même segment d'ailleurs).
            Les bi-cores chez IBM sont les Power4 et Power5 qui sont utilisés dans leur gammes de serveurs chers (mais puissants).
            Le bi-core sur le segment des processeurs desktop et petits serveurs, c'est pas encore en magasin.
          • [^] # Re: ???

            Posté par . Évalué à 5.

            « De facon générale on peut dire qu'en perf pure un Pentium4E 5% plus rapide qu'un G5 l ebat à plate couture en entier et a à peu près les même perfs en flottant. »

            Euh, désolé, mais je n'en ai franchement pas l'impression, et pourtant je me base sur exactement les même benchmarks que toi.

            En entier :
            - le PPC (1 seul!) à 2.2 GHz fait du 1040 (soit 1134 à 2.4)
            - le Pentium4C avec HT à 2.4 GHz fait du 1071

            En flottant :
            - le PPC x 2 à 2.2 GHz fait du 1241 (soit 1579 à 2.8)
            - le Pentium 4E avec HT à 2.8 GHz fait du 1328

            Même en considérant l'HT comme équivalant à un monocore, le PPC bat le Pentium en entier, et il le bat encore en flottant si on considère cette fois ci l'HT comme du biproc... (bon ok pour le coup des flottants c'est plus difficile de se prononcer... forcement c'est un peu comme comparer de la choucroute avec du whisky).

            Et d'ailleurs si on va chercher ailleurs sur le net, et bien on peut constater que... ben que rien du tout vu que tout le monde sort des benchmarks dans tout les sens pour promouvoir les machines qu'ils veulent vendre ou se rassurer de celle qu'ils viennent d'acheter...

            Bref on est pas d'avoir un avis objectif sur la question, alors les affirmations « à plate couture »... sortons les benchmarks d'Apple pendant qu'on y est :^)
            • [^] # Re: ???

              Posté par (page perso) . Évalué à 3.

              l'avantage des benchs Apple c'est que tout est compilé avec GCC....c'est le bon sens non ?

              Alors que les scores SPEC ne reflètent rien d'autre que le couple compilo/CPU.

              PS : sinon les benchs apple sont quand mêmes biens partiaux on est d'accord.
              • [^] # Re: ???

                Posté par . Évalué à 1.

                l'avantage des benchs Apple c'est que tout est compilé avec GCC....c'est le bon sens non ?

                Non, GCC ne supporte pas toutes les optimisations de tous les processeurs; ils favorise donc certains processeurs par rapport à d'autres.
                Je pense que le couple meilleur compilateur du vendeur/puce du fabriquant est un bien meilleur indicateur en performance pure.

                Kha
                • [^] # Re: ???

                  Posté par (page perso) . Évalué à 8.

                  Pour nous autres utilisateurs de système GNU, le seul test valable c'est les trucs compilés avec GCC puisque quasiment tout ce que nous utilisont est compilé avec GCC.

                  Rien à foutre que le processeur shmurtz soit le meilleur processeur du monde quand on utilise le compilateur shmurtz, si au final le processeur est une vraie bouze chez moi sous pretexte que je n'utilise pas un compilateur proprio...
                  • [^] # Re: ???

                    Posté par . Évalué à 1.

                    C'est le problème des benchs : il faut définir clairement au départ ce qu'on est censé tester.
                    Bon pour en revenir au sujet, on peut espérer que le SDK standard de la PS3 sera livré avec autre chose que GCC.
                    • [^] # Re: ???

                      Posté par (page perso) . Évalué à 2.

                      Je préférerais plutôt que sony investisse et contribue à gcc...
            • [^] # Re: ???

              Posté par . Évalué à 1.

              Pardon, je n'avais pas vu que le second pro avait été désactivé pour les tests en entier. Par contre les performances ne sont pas forcément croissantes linéairement.
              Bon en ce qui concerne le rapport bi-core/HT il est clair que l'on peut difficilement parler de match équitable, ne seait-ce que pour des raisons de bus et de complétude du second core.

              Ceci étant il est vrai aussi que les archis privilégiées par IBM pour le calcul lourd sont surtout les POWER (4,4+,5). Donc on peut penser qu'éventuellement le JS20 n'a pas des bus aussi performants que ce qu'IBM peut faire, ceci étant la carte mère Intel est une carte workstation etc.

              Le Pentium 4E est légèrement plus puissant en calculs purs que le 4C, ceci est valable aussi pour les entiers (5% de boost de performance à peu près).

              Par exemple en entier :
              2.80C 1204 1166
              2.80E 1269 1219

              En ce qui concerne ma remarque c'était juste pour donner un équivalent, elle n'aurait pas été là si j'avais mieux lu le spec et que j'avasi vu le second CPU désactivé sur les tests en entier.
            • [^] # Re: ???

              Posté par . Évalué à 4.

              On va pas le repeter 50 fois, c'est débile de comparer des procs à vitesse équivalente !!!

              Chacun à fait son choix d'archi.
              L'un optimise son IPC, l'autre décide de permettre une montée en fréq façile.
              On peut disserter de ce qui parait le mieux théoriquement mais pas dans un test pratique.

              Il faut comparer par gamme de prix ou par cible.

              C'est comme faire des tests de reprise en 5ieme à 2000 tr/min entre un TD et une essence classique... mais c'est supair ?!
          • [^] # Re: ???

            Posté par (page perso) . Évalué à 2.

            Lis mieux. Les résultats entiers du 970, c'est marqué " 1 core, 1 chip, 1 core/chip" à droite...
      • [^] # Re: ???

        Posté par . Évalué à 2.

        Je suis assez d'accord avec toi. Sparc est controllé par SUN qui n'a plus trop les moyen de suivre. A prioris, il se sont jetter sur une nouvelle archi : multi-core et smt à fond. Avec des processeurs simples, non out-of-order (qui ont une taille exponentiel avec le nombre d'unité de calcul à utiliser) et sans doute assez pipeliné pour gagner en perf et le smt mangera les cycles inoccupé. Je pense aussi qu'il viseront une consomation raisonnable.
        On parle de 4 core 4x smt sois 16 proceurs logiques sur une puce.

        Dans la vie destok, aucun outil ne sait tirer parti de 16 processeurs (pas encore tout du moins). Par contre, tout ce qui est serveur l'utilise très bien.

        En fait, le cell c'est un "G6" avec 8 DSP SIMD sous control.

        Quelques part, cela ressemble au architecture next qui était composé d'un 68xxx et d'un DSP vu comme une ressource par l'OS.

        "La première sécurité est la liberté"

  • # pas seulement

    Posté par . Évalué à 2.

    The PC has always been able to beat competition by virtue of it's huge software base

    Aussi par la quantité de matériel disponible, qui réduit les coûts. Pour les consoles sur ce "The Cell", ce n'est pas un problème, car elles se vendront comme des petits pains. Pour les stations de travail IBM, je suis déjà plus sceptique... ça risque d'être cher, très très cher...
  • # Hyyyyppe!!!

    Posté par . Évalué à 8.

    Rien de telles que quelques petites rumeurs sur la surpuissance du Cell pour faire monter le hype avant l'annonce officielle de la prochaine console de Sony. Si ça se trouve, il sera réellement surpuissant. On espère juste qu'il sauront faire en sorte d'attirer les développeurs dans ce cas là. Mais je pense que c'est juste pour faire monter la pression et paniquer MS.
    • [^] # Re: Hyyyyppe!!!

      Posté par (page perso) . Évalué à 10.

      Mais je pense que c'est juste pour faire monter la pression et paniquer MS.

      Bof.....MS ils s'en foutent car ils ont eu l'intelligence de choisir IBM et l'archi PPC pour la XBox 2 ;-)
      Ce sera le combat au sommet : Ladies and Gentleman ! A ma droite le PPC un peu modifié pour la XBox 2 et à ma gauche le PPC très modifié pour la Playstation 3 !

      Ca indique l'estime dans laquelle est tenu le X86......
      • [^] # Re: Hyyyyppe!!!

        Posté par . Évalué à 3.

        Pour ce genre de marché je crois que cela prouve plus la qualité d'IBM/Toshiba en tant que fournisseur qu'autre chose. Il ne faut pas se faire d'illusion il y a dut y avoir une bataille de titan pour savoir qui aurait un telle marché, vous imaginez pour un fondeur un marché aussi gros que la PS3 ou la Xbox2 ? Des processeurs que l'on peut amortir sur 4-5 ans sans changer de ligne de production ? Alors qu'il faut sortir de nouveaux model tous les 6 mois pour le marché des PC.

        Si Intel avait proposé des processeurs moins puissant mais avec de meilleurs garantie quand a l'approvisionnement et aux prix, il y a de forte chance pour que toutes ces consoles tournes sur du Intel. Mais MS a sut se fâcher avec tous ses fournisseurs et a eux beaucoup de problème d'approvisionnement avec sa X-Box ( Nvidia est d'ailleur passé chers Sony apres seulement 2 ans de contra avec MS ).

        L'alliance Sony Toshiba IBM c'est une alliance tous bénef avec échange de technologie énorme marché et tous le tralala ... Pour MS le choix du PPC est juste une résignation.
  • # monstre...

    Posté par . Évalué à 7.

    Je trouve le texte franchement exagérer. Les cell ressemble plus à d'énorme DSP qu'à des cpu généraliste. Il faut encore que les calculs puissent s'enchainer facilement, sans devoir sortir de la puce. Cela ressemble finalement beaucoup au archi des GPU actuelle.

    Leur puissance de calcul en pointe est énorme certe. Mais beaucoup d'application sont limités par la mémoire. On peut augmenter la bande passante mémoire en augmentant la taille du bus. Mais la latence reste la même. Dans un compresseur video, les pattern d'acces à la mémoire sont assez aléatoires et ne doive pas du tout aimer un bus très large (plus exactement, cela remplit le cache mais la pénalité de départ est toujours aussi grande).

    A voir de toute façon.

    "La première sécurité est la liberté"

  • # un article un peu fantasmatique.

    Posté par . Évalué à 8.

    Il y a qq partie interressantes, mais le gros de l'article est quand même bien fantasmatique, on a un peu l'impression que le gars déduit la plupart de ses infos.
    Ces affirmations ne sont pas très ettayées de bons arguments. Il dit que , c'est sur, the cell va battre le x86 (ok, tout le monde sait que le x86, c'est une archi pourri), mais ne le prouve pas vraiment, je ne sais pas, avec des estimations de mips, ou autre.

    Le deuxieme endroit ou le bas pourrait blesser est le software. J'avais cru comprendre que la playstation 2 était aussi assez puissante à l'époque, mais très compliquée à programmer.
    Une archi distribuée comme il le décrit est quasi-entièrement basée sur le software.J'espere pour la P3 qu'ils ont aux moins 2 fois plus d'ingé software que d'ingés hardware chez sony. Si ils sortent un bon sdk en même temps que le chip, ca peut en effet tout péter..
    Bon, en même temps, l'interet du software c'est qu'on peut continuer à développer apres la sortie de la console, donc ca permet de faire un console de plus en plus puissante. et d'augmenter la durée de vie.
    • [^] # Re: un article un peu fantasmatique.

      Posté par . Évalué à 5.

      Si la moitié de ce que ce gars dit se vérifie, du point de vue du matos, ça va être très puissant. Par contre, il et on ne sait pas ce que compte faire Sony pour le software. Microsoft connait très bien ce domaine, et leur stratégie pour péréniser leur plateforme Windows est d'en faire la plate forme de développement la plus attrayante possible de façon à avoir un maximum de dévelloppeurs dessus et donc un maximum de logiciels tournant sous Windows (et donc de vendre plein de licenses). Pour les jeux, ils font la même chose et leur XNA permettrait de ne quasiment rien changer au code d'un jeu pour le porter sur leur prochaine XBox ou PC, ce qui sera assez motivant pour pas mal de développeurs.
      Donc effectivement, Sony a tout intérêt à proposer une tuerie en SDK ou ça va mal se goupiller pour eux.
      • [^] # Re: un article un peu fantasmatique.

        Posté par . Évalué à 2.

        Le truc est que Sony a les moyens de faire du matos un peu moins attrayant pour les devs car ils ont la main mise sur le marche.
        Quand ils ont sorti la p2, les clients l'ont achete les yeux fermes, meme si pleins de gens disait que c'etait super chiant a programmer et que donc il ny aurait pas de jeux.
        Resultat: un gros parc de P2 vendu malgre le nombre et la qualite decevante des jeux au debut. Les developpeurs sont bien obliges de s'y mettre, et donc maintenant la P2 a maintenant pas mal de jeux de bonne qualite.

        Pour ce qui est de la portabilite des jeux, je souhaite bon courage a ceux qui voudront faire un moteur 3d multiplateforme qui exploite les caracteristiques de chaque consoles..
    • [^] # Ah oui, un autre truc

      Posté par . Évalué à 3.

      Quid de la consomation ?

      Parceque mettre 1 G5(PU) + 8 DSP(APU) dans un meme CPU, on mets 4 CPU de ce type dans la P3, et on cadance le tout a 2.8 Ghz, il va falloir construire des centrales nucleaire a cote des zonesresidencielles..
  • # Jennifer Lopez dans ta tete !!!

    Posté par . Évalué à 2.

    Un console, ca sert surtout a faire du pognon et a penetrer un marche de masse (pour vendre 90% de jeux daubiques a license de films), donc moins c'est cher a produire, plus on peut en vendre. mieux c'est.

    Si les GF6800 Ultra et X850 coutent 600$, c'est qu'il y a une raison, et on me fera jamais avaler qu'une console de jeu sera un jour rellement puissante.

    (le machin dans lequel on fout quelques dizaines de Mo de ram pour economiser des sous, et qui sort du 800*600 tout flou)

    Vu l'operation marketing qu'est la PS2.... le fameux emotion engine... ca peut pas mieux commencer pour la PS3...
    • [^] # Re: Jennifer Lopez dans ta tete !!!

      Posté par (page perso) . Évalué à 3.

      Si les GF6800 Ultra et X850 coutent 600$, c'est qu'il y a une raison

      la rapacité indécrotable des vendeurs de GPU ?
      faut voir aussi que les prix baissent vite (du fait des quantités vendues) qu'ils peuvent faire du dumping (car ils se gavent sur les jeux) que les 600$ évoqués c'est le prix qu'est prêt à payer le gamer fou qui exige le dernier cri.
      faut pas oublier aussi que lors de la sortie les consoles sont super-couteuses et qu'elles ne baissent que progressivement.

      maintenant on est d'accord sur le fait qu'ils vont vouloir faire monter la sauce etc etc (cf emotion engine et autres).
      ce que je trouve quand même TRES interessant c'est le fait qu'IBM va sortir The Cell dans des worksations....c'est quand même le signe que c'est une puce pas banale non ?
    • [^] # Re: Jennifer Lopez dans ta tete !!!

      Posté par . Évalué à 4.

      les 500¤ pour le top c'est pour faire réver les lecteurs de teste. Le marché en volume commence à 250¤. Je suis d'accord c'est le prix d'une console.

      Sauf que sony/nintendo/ms ne gagne pas d'argent sur leur console. Je suis même sur qu'il en perde. Ils regagnent sur les licences de jeu.

      La durée de vie d'une console était de 5 ans. Quand elle sorte, elles sont plus puissante que les PC ce qui change l'année suivante. Une carte graphique ne vit que 6 mois avec un changement d'architecture tous les 18 mois.

      "La première sécurité est la liberté"

      • [^] # Re: Jennifer Lopez dans ta tete !!!

        Posté par . Évalué à 2.

        "Quand elle sorte, elles sont plus puissante que les PC ce qui change l'année suivante. Une carte graphique ne vit que 6 mois avec un changement d'architecture tous les 18 mois."
        Moi je dirais que quand elles sont annoncées, elles sont annoncées comme plus puissantes, parceque des 3 consoles actuelles la plus puissante est la Xbox, qui n'est qu'un pIII 733 avec un chipset nv2, hors même à ca sortie elle été déjà dépassée par les PC.
        En effet la Xbox est apparue en novembre 2001 alors, il y a avait déjà des Athlon XP et des PIV....
        • [^] # Re: Jennifer Lopez dans ta tete !!!

          Posté par . Évalué à 6.

          Faut voir aussi qu'une console est une plateforme uniforme qui ne sert qu'au jeu, pas de truc qui tourne en arrière plan, et surtout les devs sont sûr du matos qu'aura le joueur, alors que sur PC pas mal de boites doivent faire des jeux pour ceux qui ont encore une a deux génération de retard niveau carte graphique et cie, sans compter que la diversité du matos ne leur permet pas d'optimisé à fond.
    • [^] # Re: Jennifer Lopez dans ta tete !!!

      Posté par . Évalué à 9.

      Si les GF6800 Ultra et X850 coutent 600$, c'est qu'il y a une raison

      Il y a en a une : Il y a des neuneus friqués de 15 ans qui bavent là dessus et qui sont prêts à jeter tout le fric qu'ils ont eu à noel dans un machin hors de prix qui sera dépassé dans un an et vendu même pas au quart de son prix lorsque les heux les exploiteront à peu près. Acheter du haut de gamme ne sert à rien. On ne gagne pas grand chose en performance par rapport au milieu de gamme et on paye la nouveauté et le côté hype. Mieux vaut changer plus souvent et acheter à chaque fois du milieu de gamme, bien éprouvé et abordable.

      Heureusement qu'il y a des gogos, c'est ce qui fait tourner l'économie.
    • [^] # Re: Jennifer Lopez dans ta tete !!!

      Posté par . Évalué à 3.

      les cartes à 600$ sont les mêmes que les cartes à 300$ avec une fréquence un peu plus élevée pour le GPU et la mémoire. Donc ce prix n'est absolument pas représentatif.
      En outre, il y a un surcout lié au fait que ça soit une carte, et que c'est un produit diffusé en petite quantité sur une période brêve. Ajoute à cela qu'il faut une grande quantité de mémoire pour pouvoir gérer des sorties en 1600x1200 voir plus pour ceux qui ont des écrans LCD de bourgeois alors qu'un console de nouvelle génération sortira au maximum au format TVHD. Au final est aisé de voir qu'un résultat équivalent avec une puce soudée sur la carte une perspective de diffusion de plusieurs millions d'exemplaires sur la durée de vie du produit est faisable pour une fraction de tes 600$. Et ça d'ailleurs ce qui va se passer pour ces nouvelles consoles.
    • [^] # Re: Jennifer Lopez dans ta tete !!!

      Posté par . Évalué à 2.

      Si les dernières cartes vidéos super haut de gamme coûtent dans les 500-600¤, c'est aussi et surtout parce que les deux constructeurs ne sont pas foutus d'en produire en capacité satisfaisante. Du coup, le peu qu'il y a se vendent encore plus cher que les prix recommandés à cause du marchand qui en profite pour augmenter sa marge. Sans oublier qu'ils ont tendance à y mettre de la mémoire très performante et très chère il suffit de voir la GeForce 6800 GT d'Asus avec seulement 128MO de mémoire DDR1 à 100-150¤ de moins que les "normales" à 256MO DDR3.

      Question performances, c'est généralement trop cher pour ce que ça peut apporter par rapport à des modèles légérement inférieurs (genre 100-150¤ de plus pour à peine 10% de perf en plus le vent dans le dos en descente). Néanmoins, acheter du haut de gamme n'est pas forcément une idiotie quand on voit que le milieu de gamme actuel (GF6600 et Ati X700 ou 9800 Pro) est justement environ au niveau du haut de gamme de la génération précédante d'il y a un an un an et demi. Bref, tu gagnes environ un an de durée de vie de la carte. Sachant que le prix d'un milieu de gamme tourne autour des 200-250¤, c'est pas forcément un mauvais calcul de prendre directement le haut de gamme à 400-500¤ (évidement, à la sortie de la carte...).
      J'avais fais ça en 2000 et m'étais payé une GeForce haut de gamme qui m'a duré plus de trois ans.
      • [^] # Re: Jennifer Lopez dans ta tete !!!

        Posté par (page perso) . Évalué à 3.

        le problème de ton argument c'est qu'il vaut aussi bien pour l'option contraire: prendre du milieu de gamme (c'est ce que je fais) pour avoir plus de fric à mettre dans son graveu^W^W^W dans les jeux parce que les éditeurs sont pas fous: pour avoir un marché suffisant, les jeux tournent très bien sur du matériel qui a 2-3 ans d'age.
        De toute façon on s'on fout, sous Linux on a pas droit aux dernier cris de la 3D, alors...

        "La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay

  • # Théorie de stratégie

    Posté par . Évalué à 3.

    Il peut être intéressant de rappeler cet article qui tire des plans possibles sur la comète IBM :

    http://www.onversity.com/cgi-bin/progarti/art_aff.cgi?Eudo=bgteob&a(...)

    en essayant de recoller les morceaux : le cell, la revente de la section PC, l'engagement dans linux, ...

    Vos avis là-dessus ?
    • [^] # Re: Théorie de stratégie

      Posté par . Évalué à -4.

      Du Nostradamus comme ce journal...

      Un article sur les chuper ordi du top500:

      http://www.x86-secret.com/popups/articleswindow.php?id=116(...)

      Et arretons de cracher sur les x86, théoriquement c'est peut-être du caca sur silicium, dans les faits, c'est une excellente archi bien équilibré et surtout avec un support software énorme.
      • [^] # Re: Théorie de stratégie

        Posté par (page perso) . Évalué à 3.

        Du Nostradamus comme ce journal...

        Je te trouve un poil dur à l'encontre du mec qui s'est tapé de lire et de comprendre les brevets déposés par IBM et Sony.

        MAintenant si tu veux nous faire profiter de tes lumières voici l'URL du brevet :
        http://appft1.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HIT(...)
      • [^] # Re: Théorie de stratégie

        Posté par (page perso) . Évalué à 10.

        Et arretons de cracher sur les x86, théoriquement c'est peut-être du caca sur silicium, dans les faits, c'est une excellente archi bien équilibré et surtout avec un support software énorme.

        C'est aussi pourri dans la pratique que dans la théorie. Ça marche juste parce que A) c'est pas cher B) c'est là-dessus que Windows tourne C) la pourriture est compensée par l'augmentation insensée de la fréquence (et de la consommation, et de la chaleur, et du bruit des ventilos pour aller avec).

        J'ajouterai que la compatibilité ascendante qu'ils se traînent jusqu'au 8088 bloque complètement l'évolution de l'architecture, et je n'évoquerai même le système lamentable de BIOS qui n'a pas évolué depuis les années 80, parce que ça m'énerverait trop :)
        • [^] # Re: Théorie de stratégie

          Posté par (page perso) . Évalué à 2.

          J'ajouterai que la compatibilité ascendante qu'ils se traînent jusqu'au 8088 bloque complètement l'évolution de l'architecture, et je n'évoquerai même le système lamentable de BIOS qui n'a pas évolué depuis les années 80, parce que ça m'énerverait trop :)

          Justement la tu manque d infos:
          - Intel ET AMD ont decides tous les deux d arreter la compatibilite 8088 a parti de 2005. ( Désolé, pas d'URL)
          - intel arrete le BIOS en 2005 : l EFI http://www.intel.com/technology/efi/(...)

          Les telephones portables sont deja DRM http://www.presence-pc.com/news/SFR-prepare-le-telephone-baladeur-n(...) .... les majors ont donc DEJA commence a distribuer des zic DRM, des jeux JAVA proteges, alors je pense tres franchement que la migration des postes est pour tres bientot.

          WMP integre deja le DRM; il y a fort a parier que tout Longhorm sera protege. On nous a servi du P3 numerote, des telephones orange proteges, des Windows-XPs a activer ... reste plus qu a tout fusionner; si c est pas pour 2005, c est pour 2006.

          En plus tous les acteurs de la securite comme les banques reclament du TCPA ...

          Je dis pas que c est bon, je dis qu'il y a de la demande sur le marcher, donc que ce sera produit.

          DoubleHP as parle.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.