Journal Spécification de la carte open-graphics

Posté par  (site web personnel) .
Étiquettes : aucune
0
22
nov.
2004
Timothy Miller a fait paraitre sur la liste [Open-graphics] un résumé des spécifications de la carte :

http://open-graphics.duskglow.com/openspec.pdf(...)

Pour avoir plus d'informations sur le contenu du projet, c'est ici que cela se passe :
http://lists.duskglow.com/mailman/listinfo/open-graphics(...)

N'oubliez pas que cette carte basé sur un FPGA ne peut pas rivaliser en terme de puissance brut avec NVIDIA ou ATI. Le focus est plus dans un support "parfait" de la 2D et d'un support minimum de la 3D. Le tout avec une parfait intégration dans RenderX, Xorg, mesa, etc...
  • # trop bon

    Posté par  . Évalué à 4.

    c'est ou qu'on achete ? ;)
    N'empeche, j'ai hate
  • # excellent

    Posté par  . Évalué à 1.

    Et qui va payer les 30 000¤ annuels du logiciel de synthèse (version sans les optimiseurs), et les au moins 300 000¤ des gens qui vont l'utiliser ?

    Nan, parce que peut-être que filer 300 000 brouzouf à Nvidia pour avoir les specs serait plus rapide et avec un meilleur résultat ...
    • [^] # Re: excellent

      Posté par  . Évalué à 3.

      ben je crois que le gars il bosse dans une boite qui taf sur du fpga, et qu'il fait ca plus ou moins en accord avec ( ou pour ?) sa boite.
    • [^] # Re: excellent

      Posté par  (site web personnel) . Évalué à 6.

      la boite et le gars fabrique le hardware. Le type est spécialisé dans la 2D et demande donc conseil sur la 3D dans la mailing liste. Il est partie sur un renderer extrémement programmable. Donc, le boulot de la communauté sera de codé sur ce cpu.

      Le code verilog ne sera pas libre sauf si la boite abandonne le projet.

      "La première sécurité est la liberté"

    • [^] # Re: excellent

      Posté par  (site web personnel) . Évalué à 4.

      300 000 ? Tu veux dire 300 000 dizaines de milliers de brousoufs !
      Autant trouver quelqu'un qui puisse racheter nvidia...
  • # Pour en avoir vu

    Posté par  . Évalué à 3.

    les pre-serie nvidia sont souvent faites avec des fpga.
    donc je me demande si les performances de cette carte ne serait pas quand meme tres remarquable.
    • [^] # Re: Pour en avoir vu

      Posté par  (site web personnel) . Évalué à 4.

      si nvidia teste ses cartes avec des fpga cela n'est certainement pas au vitesse max (50Mhz maxi) et surtout le prix d'une telle carte serait de l'ordre de 2000¤...

      "La première sécurité est la liberté"

      • [^] # Re: Pour en avoir vu

        Posté par  . Évalué à 2.

        je serait curieux de savoir d'ou viennent les 50mhz annoncé ?
        je travaille par exemple avec le coeur microblaze de xilink sur un spartan III comme il veut l'utiliser et c'est deja un micro dont l'horloge systeme tourne a 66mhz.Le Fpga tourne prix piece a 15euro (boitier gga256) et par quantité de 1. (c'est a dire que par 1000 le prix descend largement en dessous de 10euro)
        Ce genre de fpga composant peut gerer une horloge de 326Mhz max donc un peut plus que 50mhz. Quand on sait que le bus memoire des dernieres carte est de 400mhz tu vois que le proto n'est pas si loin des performances final et permet pas mal de manip.
        datasheet du spartan 3.
        http://direct.xilinx.com/bvdocs/publications/ds099-1.pdf(...)
        • [^] # oups

          Posté par  . Évalué à 1.

          au lieu de (boitier gga256)
          lire (boitier bga256)
        • [^] # Re: Pour en avoir vu

          Posté par  (site web personnel) . Évalué à 2.

          326 Mhz, c'est la vitesse max genre pour aller d'une bascule à une autre sans rien faire.

          Le microblaze a été fait au petit oignon hyper optimisé pour l'archi spécifique des xillinx. Si tu décides de testers un truc optimisé asic tu n'auras pas les mêmes perf (en FPGA, mettre un not ou une porte à 4 entrée, c'est la même pénalité, ce qui n'est pas le cas en asic)

          Donc, vois les 66 Mhz comme un max pour un design optimisé xillinx.

          "La première sécurité est la liberté"

          • [^] # Re: Pour en avoir vu

            Posté par  . Évalué à 1.

            326 Mhz c'est la vitesse max que peut avoir le signal global_clock, le temps de transition des signaux depend du routing mais tourne en general beaucoup plus bas que ca (en nano seconde).
            le fonctionnement du microblaze a 66mhz vient simplement du temps d'execution de l'instruction la plus lente sur le fpga le plus lent de la famille. Pour en faire un core light en place de routage certaine option d'optimisation de processeur ne sont pas mise en place.
            je te conseille la lecture du
            http://direct.xilinx.com/bvdocs/appnotes/xapp529.pdf(...)
            qui explique cela plus en detail et notemment pourquoi et comment pousser le core a 150mhz et communiquez a 600mhz avec un device externe via les FSL.(ideal pour du transfert push avec de la ram destinez a l'affichage)
    • [^] # Re: Pour en avoir vu

      Posté par  . Évalué à 4.

      A ce qu'il me semble, ce n'est qu'une façon parmi d'autre de faire la puce et le package autour genre ce qu'on met par dessus comme bouts de plastique et autres petits détails, mais en aucun cas n'a une influence sur l'architecture donc les performances d'une carte vidéo.
  • # fcpu?

    Posté par  (site web personnel) . Évalué à 3.

    Ça serait pas un peu dans la ligné de f-cpu (http://www.f-cpu.org/(...) )?
    Je n'y connais pas grand chose dans ce domaine, mais j'ai un peu l'impression que c'est le genre de projet qui est intéressant pour les personnes vivant dans le milieu mais qui en pratique apporte pas beaucoup pour Mr Touslemonde.
    • [^] # Re: fcpu?

      Posté par  (site web personnel) . Évalué à 2.

      non cela n'a rien à voir.

      fcpu est développer en source libre par des bénévoles.

      Cette carte a des spec hardware ouvertes mais le code est fermé et est développé par une boite (techsource).

      "La première sécurité est la liberté"

      • [^] # Re: fcpu?

        Posté par  (site web personnel) . Évalué à 2.

        Bon, alors quelqu'un doit lancer un projet f-gpu.
      • [^] # Re: fcpu?

        Posté par  (site web personnel) . Évalué à 2.

        certe certe, mais dans le principe il y a quand même de fortes ressemblances... et au final, qui pourra en bénéficier?
        • [^] # Re: fcpu?

          Posté par  (site web personnel) . Évalué à 2.

          ben n'importe qui veut une carte video...

          Certe pas la plus puissante en 3D mais qui recherche plus la stabilité notement sous un système libre.

          "La première sécurité est la liberté"

          • [^] # Re: fcpu?

            Posté par  (site web personnel) . Évalué à 1.

            ouai... Mais j'imagine que cette carte n'aura pas les même canaux de distribution que les nvidia, que les prix ne seront pas aussi compétitif ... Mais effectivement, si au final on obtient de meilleurs perfs qu'avec une ATI + pilotes libres et que niveau prix ça le fait, alors ouai, sinon... :)
            • [^] # Re: fcpu?

              Posté par  . Évalué à 2.

              Le truc c'est que les cartes d'ATI qui ont des drivers libre sont maintenant un peu anciennes et sont recyclés en puces encore moins performantes que des constructeurs tiers foutent sur des carte ultra bas de gamme. J'ai acheter une radeon 9jecplusquoi (9150 jcrois) que jutilise meme pas tellement sa sortie analogique est immonde. (et en plus elle veut reserver 4 Go de RAM... => marche pas en dehors de frame buffer pour l'instant tellement elle bug) (jetais tellement desesperé que j'ai meme tenté les drivers proprio qui m'ont planté à la gueule tandis que les libres quittent proprement d'ailleurs)

              Si la on peut avoir quelque chose qui fonctionne bien, de qualité décente, avec des pilotes libres, ca me ferait bien plaisir.
              • [^] # Re: fcpu?

                Posté par  (site web personnel) . Évalué à 2.

                j'ai une 8500 (build by ATI) et j'en suis très content. Les pilotes libres marchent bien avec. Si tu sais que tu achètes du bas de gamme (cf ton texte), pourquoi est ce que tu t'étonnes d'avoir a sortie analogique est immonde.? Moi quand j'achète un truc pas chers, je me doute que ça sera un peu limite à certains endroits :)
                • [^] # Re: fcpu?

                  Posté par  . Évalué à 2.

                  Bah j'avais acheté ca pcq c'etait la seul qui restait possible d'acheter en dessous de 9200, ce qui impliquait (en theorie) des drivers libres.
  • # Quelques commentaires

    Posté par  . Évalué à 5.

    Je viens de regarder le PDF des specs, je trouve que c'est pas très ambitieux.

    - L'interface PCI et éventuellement AGP, je pense qu'en raison des temps de développement, il vaudrait mieux prévoir une carte à la nouvelle norme (PCI-Express il me semble), qui fonctionne en x1 et en x4, ou x8 ou x16, de toute façon je crois que ça s'adapte. L'idée du x1 est de pouvoir en mettre plusieurs dans une machine. Et le temps que la carte sorte, je ne sais pas quel sera encore la durée de vie du PCI et de l'AGP.

    - Avoir deux RAMDAC pour pouvoir faire des cartes avec deux sorties.

    - Prévoir des mécanismes pour pouvoir coupler plusieurs cartes en xinerama sans avoir à désactiver toutes les accélérations matérielles.

    - Si le FPGA dispose de quelques ports supplémentaire, y prévoir une interface 2x PS/2 afin de pouvoir faire un terminal X simplement en ajoutant une carte. Il y a un "general (user) I/O pads", ça serait cool de pouvoir télécharger un petit bout de code dans la carte pour pouvoir les transformer en cela (le PS/2 ne doit pas être un gros consommateur de ressources).

    J'imagine que dans toutes les cartes vidéo, il y a un MMU qui permet de voir sous la forme d'un bloc unique de mémoire, la mémoire correspondant à une fenêtre rectangulaire quelconque de la mémoire vidéo affichée.
    • [^] # Re: Quelques commentaires

      Posté par  (site web personnel) . Évalué à 4.

      je crois qu'il y a un soucis avec le port AGP, les signaux vont trop vite pour le fpga. Ils veulent commencer avec un PCI pour aller doucement. Mais c'est vrai que le coup des slots libres vaudrait le coup qu'il se penche même sur du AGP x1.

      2 RAMDAC est trop couteux, il pense faire une carte plus haut de gamme pour ça.

      3) c'est uniquement un pb de driver. La perte de perf vient dans les recopie des images entre carte.

      4)ce n'est pas un cpu !

      "La première sécurité est la liberté"

      • [^] # Re: Quelques commentaires

        Posté par  . Évalué à 2.

        4- Certe, un FPGA n'est pas un CPU, mais il permet d'implémenter un CPU, par exemple la FreeBox contient un FPGA qui d'après certains contient une implémentation de processeur...

        En implémentant un microcontroleur ultra-simple, ou deux dans le core, on doit être capable de gérer deux liaisons séries à 9600 (il me semble que c'est la norme PS/2) sans trop de soucis. En prime, si ce microcontroleur est reprogrammable, c'est la porte ouverte pour tous les bricoleurs. Il existe il me semble des implémentations libres sur certains sites.

        L'approche micro-controleur n'est pas forcément la plus simple, il est peut être plus simple de simplement coder des UARTS classiques.
        • [^] # Re: Quelques commentaires

          Posté par  (site web personnel) . Évalué à 2.

          oui m'enfin, dans ce cas, la carte graphique n'affiche plus rien. C'est un pas un microcontroleur qui saura gérer 1,5 milliard de pixel.

          "La première sécurité est la liberté"

    • [^] # Re: Quelques commentaires

      Posté par  . Évalué à 4.

      Si le FPGA dispose de quelques ports supplémentaire, y prévoir une interface 2x PS/2 afin de pouvoir faire un terminal X simplement en ajoutant une carte. Il y a un "general (user) I/O pads", ça serait cool de pouvoir télécharger un petit bout de code dans la carte pour pouvoir les transformer en cela (le PS/2 ne doit pas être un gros consommateur de ressources).

      Je ne sais pas si techniquement le port AGP peut s'occuper d'autres choses que de video. Ce n'est la plupart du temps pas le même chipset qui contrôle le port AGP et les entrées/sorties. Et mélanger une sortie hyper-rapide avec des entrées super-lents n'est peut-être pas super.


      Pourquoi ne pas mettre 2x 1 clavier et 1 souris USB et de dédier chaque paire à un écran? Une piste ici: http://cambuca.ldhs.cetuc.puc-rio.br/multiuser/(...)
    • [^] # Re: Quelques commentaires

      Posté par  . Évalué à 0.

      On est au 21e siècle, je propose que l'on oublie les ports PS/2. Faisons de l'USB. Par la même occasion, je propose que l'on oublie aussi le port parallèle. On garde quand même les ports série qui ont encore leur utilité, OK, mais alors avec des connecteurs RJ au lieu des DB. (Je me demande ce qu'attendent les fabricants de cartes mères pour faire table rase de tous ces connecteurs has been, ça m'énerve...)
      • [^] # Re: Quelques commentaires

        Posté par  . Évalué à 2.

        C'est pas "has been". Sans port // on ne peut pas faire un cpumetre à LED facilement [1] (Oui je sais, totalement inutile donc indispensable). Et puis il faudrai que je change mon imprimate. Et le coup des RJ pour le série, pour le moment je n'en ai pas vu beaucoup, et puis ça serai un coup à avoir 36 adaptateurs encore (sur les switchs, j'ai du DB9, sur mes serveurs, j'ai du DB9, pourquoi m'embêter avec du RJ ?).

        Honnetement, je pense que le prix de revient d'intégrer un port Série et un port // sur une carte mère aujourd'hui est tellement faible, que ça ne peut être qu'un plus. (Apple avait expérimenté dans cette voie avec le premier iMac, que de l'USB pour les périphériques, il fallait acheter plein d'adaptateurs USB--->ADB, USB--->Série, etc c'était bien le bordel ! Et ce que ça vaut l'USB(1|2) pour les moyents et gros débits...).

        Sinon je pense que ton idée est pas mauvaise dans le fond, qu'il faut évoluer parfois. Par exemple, ça serai cool que les constructeurs arretent de me donner les pilotes sur disquette, j'en ai plus même sur mon K6-233. Pour le PS/2 je suis d'accord également, maintenant pas mal de constructeurs livrent des périphériques USB avec adaptateur PS/2 au cas où. Et puis si tu ne veux pas utiliser, tu n'utilises pas :)

        [1] http://www.jackypc.com/index2.php3?rub=articles&num=98(...)
      • [^] # Re: Quelques commentaires

        Posté par  (site web personnel) . Évalué à 3.

        Non, c'est pas possible, l'usb ca SUX, je supporte pas ca.
        Pour dire vrai, il n'y a que depuis les cle usb et les apns que je commence à y voir une utilité et encore, les apns ca me pollue la vie plus qu'autre chose...
        En plus l'USB "c'est revolutionnaire, on peut monter plein de peripherique en serie dessus" sauf que y'a pas un frabiquant qui soit capable de foutre une prise femmelle sur son périphérique, moralité on se retrouve avec des port USB qui trainent partout voir un stock de port USB qui fait de même.
        Ca pue, ca sert a rien, je l'ai meme pas activé sur ma machine. Mon imprimante marche tres bien sans (par contre la fallut la trouver l'imprimante correcte pas trop chere qui supporte encore le port paralelle, merci HP).
        La cle USB, j'en ai pas, l'apn non plus, le baldeur mp3/ogg tjs pas, mon telephone se synchronisait via IR integré a la carte mere, le modem est sur port com pour le 56k et reseau pour l'adsl...
        • [^] # Re: Quelques commentaires

          Posté par  (site web personnel) . Évalué à 1.

          Tu voit pas l'interet des ports USB, et tu as branche ton imprimante en // .....
          Pfiuuu moi des que je peut liberer mon CPU je peut.
          Quand tu imprime de gros documents tu le voit l'interet de l'USB
          par rapport au //. La charge systeme avec le // est 10 a 30 fois
          plus importante que sur l'usb.

          M'enfin au niveau du port USB sur une carte graphique la par contre ....
    • [^] # Re: Quelques commentaires

      Posté par  . Évalué à 1.

      je crois sincerement que ce qu il faut ce n'est pas de l'ambition, mais plutot une petite base de travail, une carte simple.

      rappelle toi linux, dans le cas ou Linus c'etait imaginé qu il voulait faire un systeme d'exploitation complet, comme linux l'est actuellement, je ne pense pas qu il aurait commencé vu l'ampleur de la tache.

      pour toute nouvelle chose revolutionnaire qu'une personne veut apporter au noyau, il lui est repondu ok pas de probleme, plutot que d'en parler donne moi du code, meme simple.
  • # Rendering sur FPGA

    Posté par  (site web personnel) . Évalué à 3.

    Pour ceux qui croient qu'un FPGA, ça avance pas :

    http://graphics.cs.uni-sb.de/~jofis/SaarCOR/DynRT/DynRT.html(...)

    Sisi, c'est possible.

    Proverbe Alien : Sauvez la terre ? Mangez des humains !

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.