Journal Intel ce lance dans le GPU gamers' complient

Posté par  (site web personnel) .
Étiquettes : aucune
0
9
fév.
2007
D'ici à deux ans Intel devrait sortir des GPU à faire parlir la concurence (Nvidia/ATI), avec des cartes à 16coeurs qui si on en crois les propos sera 16x plus puissante que la plus puissante des cartes actuelle.

Au-dela du fait qu'un peu de concurence ne sera pas un mal, cela nous intéresse tout particulièrement par le fait que intel publie (pour l'instant) les spécifications de ses GPU. Alors, les unix libres plateforme priviligié des gamers pc d'ici deux ans ?

Bon je dis les unix libres, mais soyons bon joueur, il y a aussi ReactOS....

source:
http://www.pcinpact.com/actu/news/34531-Intel-GPU-3D-joueurs(...)
le troll "linux plateforme de gamers":
https://linuxfr.org/2007/02/08/22023.html
ReactOS :
http://www.reactos.org/fr/index.html
  • # Quand même...

    Posté par  . Évalué à 10.

    "Intel ce lance dans le GPU gamers' complient"

    Les carte graphiques, c'est bien. Ça accélère l'affichage. Dommage juste qu'aucune d'entre elles ne fasse de la vérification orthographique de l'affichage en même temps...

    Bon sinon, l'horizon reste de 2 ans. Où en seront ATI et Nvidia d'ici-là ? Mystère... Il y a déjà eu tellement d'annonces de ce genre (qui se souvient de Matrox, S3, Kyro... qui devaient tout chambouler ?). Et puis peut-être accepteront-ils de publier leurs specs d'ici là (dans mes rêves sans doute).
    • [^] # Re: Quand même...

      Posté par  . Évalué à 5.

      Je sais plus ou j'ai lu ça, mais il me semble que le projet d'Intel est de faire un GPU de RayTracing qui se prette très bien au modèle muti-coeur contrairement aux GPU Rasterizer actuels qui peinent à voir leurs performances augmenter en multicoeur...
      Le truc, c'est qu'il me semble que les APIs OpenGL et DirectX ne sont pas adaptées au RayTracing. D'ou l'emmergeance de projets comme OpenRT :
      http://www.openrt.de/

      Donc, si c'est vraiment le cas, est-ce que les developpeurs suivront? vu qu'il faudra utiliser une autre API pour profiter de ces GPU?
      • [^] # Re: Quand même...

        Posté par  . Évalué à 2.

        C'est une killer feature pour blender ça ;-)
        Le site d'OpenRT n'estplus mis à jour depuis 2003 cependant.
      • [^] # Re: Quand même...

        Posté par  . Évalué à 2.

        Une extension de la même API, ça marche aussi ?
      • [^] # Re: Quand même...

        Posté par  . Évalué à 3.

        Ah ouais, moi la boite qui me fait un chip qui fait de la radiosité en temps réel, j'achète !
        • [^] # Re: Quand même...

          Posté par  . Évalué à 2.

          Moi j'achette la boite qui me fait un chip qu'on peut programmer !
          • [^] # Re: Quand même...

            Posté par  . Évalué à 6.

            Alors achete le FPGA du projet open graphic ;)
      • [^] # Re: Quand même...

        Posté par  . Évalué à 1.

        Je doute que cela soit optimisee pour le raytracing, de plus les applications actuelles se pretent tres bien aux multi-coeur. NVidia avec sa 8800 le prouve, c'est un chipset avec plusieurs coeurs. D'ailleurs, les primitives des rasterizer actuelles se prettent bien a une repartion sur plusieurs coeurs (traitement de plusieurs primitives en parallele).

        Mon avis est donc que cela serat simplement comme la derniere generation de carte graphique (NVidia 8800, Intel GMA X3000, ATI R600) des unitees de calculs tres puissantes (un peux comme SSE, altivec ou consor) avec des fonctionnalites plus specifiques a la rasterization. Naturellement tout ca optimisee, avec des frequences de fonctionement ahurissante :)

        De plus la convergence du GPU et CPU supporte cette hypothese. Quand tu regardes le dernier GMA X3000 tu as l'impression de programmer des unitees altivec.

        Enfin avec les GPU actuel tu peux faire des rendues de type radiosity. Je pense donc que l'architecture actuelle n'a aucune raison de changer fondamentalement.

        http://dee.cz/rrb/
        • [^] # Re: Quand même...

          Posté par  . Évalué à 5.

          Je crois que tu confond multi-coeur avec une des capacités du Ge8800 qui permet de traiter plusieurs pixel en même temps.... en partie grâce à son pipeline et à plusieurs unités de traitement (type d'optimisations qu'on retrouve sur Pentium IV, qui n'est pas multi-coeur).
          Multi-coeur signifie multi-gpu embarqué sur un même support. Ils sont inter-connecté via un Bus de transport (exemple HyperTransport chez AMD)...
          Un type de multi-GPU serait plutôt le SLI de Nvidia, mais vu qu'ils ne sont pas gravés sur un même die, ce n'est pas du multi-coeur.
          L'augmentation de performance du SLI n'est pas très convainquante, on n'a pas un gain X2 en vitesse de traitement, contrairement au RayTraing qui lui gagnerait réellement X2 pour un double coeur... X16 pour un 16-coeur... dans la théorie bien sur.
          • [^] # Re: Quand même...

            Posté par  . Évalué à 1.

            Effectivement selon cette definition ce n'est pas multi-coeur, mais les multiple unites de traitement que l'on trouve dans la ge8800 (ou la X3000) me semble presque autonome, il parge le bus memoire et certains autres fonctions mais ils sont tous capable de realiser les
            memes operations. Probablement le terme multi unites seraient plus appropries.

            Dans tous les cas je ne pense qu'Intel est l'intention de demander a tout le monde de changer de type de rendu. Meme si les nouvelles architectures comme la ge8800 doivent certainement pouvoir accelerer aussi le rendu en raytracing.

            http://graphics.stanford.edu/papers/i3dkdtree/
  • # corrections danbs le titre

    Posté par  . Évalué à 4.

    2 fautes dans le titre, un peu d'attention quand même...

    Intel cse lance dans le GPU gamers' complieant

    cf la Leçon 2 pour la 1e faute : http://wiki.logicielslibres.info/wiki/published/Le%C3%A7on+2 .
  • # Spécifications des contrôleurs vidéo d'Intel

    Posté par  (site web personnel) . Évalué à 7.

    Est-ce que Intel publie réellement ses spécifications de chipsets graphiques au « grand public », c'est à dire téléchargeable par quiconque sur le net ?

    J'ai cherché un peu il y a quelques semaines, et je n'ai pas trouvé mon bonheur. Le mieux que j'ai c'est ça (j'ai cherché pour les 945GM) :
    http://www.intel.com/design/mobile/datashts/309219.htm
    http://www.intel.com/design/mobile/specupdt/309220.htm

    J'ai pas lu en détail, juste survolé, mais ça me semble bien incomplet pour écrire un pilote 3D !

    Il semble que ces spécifications ne soient accessibles qu'à quelques développeurs, comme ceux de Tungsten Graphics (qui développent les pilotes Intel), peut-être même sous NDA ?

    Quelqu'un a plus d'info quant à cette « légende » (?) des spécifications ouvertes de Intel ? Ai-je mal cherché ?

    Bon au moins on a des pilotes libres et sans code obfusqué...
  • # N'allons pas trop vite

    Posté par  . Évalué à 3.

    Personnellement, je pense que c'est aller un peu trop vite en besogne que de dire que d'ici à deux ans, Intel sera en mesure de concurrencer nVIDIA et Ati. Après, tout, le GMA X3000, là, c'est la première architecture unifiée et ça pourrait gérer DirectX 10, seulement, ça demanderait trop de temps et d'effort à Intel pour faire des drivers qui le fassent et tirent la quintessence de la puce pour que cela soit le cas. C'est bête, parce qu'apparemment, la puce avait de quoi avoir des performances plus qu'honorables en 3D.
    Bref, deux ans, ça me parait un peu court pour rattraper l'expérience d'Ati et de nVIDIA aussi bien en matière d'optimisation architecturale de la puce que de drivers. Par contre, je reste d'accord sur le fond du raisonnement, mais à plus long terme.
    • [^] # Re: N'allons pas trop vite

      Posté par  (site web personnel) . Évalué à 3.

      Il faut voir que dans le domaine du semi-conducteur, Intel est premier mondial, et très loin devant ses concurrents (en terme de part de marché). Donc ils sont peut-être pas leader du marché des GPU, mais si ils veulent y mettre les moyens, ils peuvent sans doute aller très vite.
      • [^] # Re: N'allons pas trop vite

        Posté par  . Évalué à 4.

        Détrompe-toi, Intel est déjà le leader du marché des GPU, assez loin devant ATI et NVidia d'ailleurs. Voir ce graphique par exemple : http://www.pcinpact.com/actu/news_popup.php?id=32528
        • [^] # Re: N'allons pas trop vite

          Posté par  (site web personnel) . Évalué à 3.

          Oui, en parts de marché, ils ont énormément, mais c'est sur les GPU bas de gamme sauf erreur de ma part (le genre carte graphique intégrée à la carte mère pour machine de bureau). Donc c'est vrai qu'il y a du chemin à faire pour concurrencer nvidia/ATI sur des machines de gamers.
          • [^] # Re: N'allons pas trop vite

            Posté par  . Évalué à 6.

            Si Intel est capable de nous pondre un chipset intégré capable de jouer au jeux récents en 1280x1024, avec des drivers libres, moi jachete plus de NVIDIA ou de ATI...
      • [^] # Re: N'allons pas trop vite

        Posté par  . Évalué à 4.

        Certes, mais même avec tous ses moyens, Microsoft a eu clairement les yeux plus gros que le ventre avec son Windows Vista. Et a mis plus de temps que prévu pour faire moins de choses que prévu. Assez logique en somme.
        Donc je pense toujours qu'il faudra certainement beaucoup plus que deux ans avant de voir Intel écraser la concurrence, qui ne devrait pas non plus rester sans réaction face à une telle menace. Bref, je pense que ce n'est pas gagné, même si comme Microsoft, Intel a tout à fait les moyens de ses ambitions.
    • [^] # Re: N'allons pas trop vite

      Posté par  . Évalué à 6.

      Bref, deux ans, ça me parait un peu court pour rattraper l'expérience d'Ati et de nVIDIA

      Intel est déjà en avance sur de nombreux points. En terme de finesse de gravure, ils sont loin devant et ils ont des capacités de production énormes. ATI et NVidia ont peut être une grande expérience en matière d'optimisation mais Intel a la possibilité de produire en grande quantité (réduction des coûts) des puces plus petites (donc moins chères) et embarquant un plus grand nombre de transistors. Bref d'un côté on réalise des prouesses pour tirer le maximum avec le peu qu'on a alors que de l'autre on peut se permettre de coller directement 10x plus de transistors pour moins cher et clore le débat tout de suite.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.