Projet Open Graphics : 1ère étape terminée

Posté par  . Modéré par Florent Zara.
Étiquettes : aucune
0
7
jan.
2007
Matériel
Le but du projet Open Graphics est de produire une carte vidéo ayant des capacités 3D étant "open source friendly".

La première étape était de produire une carte de développement basée sur une technologie FPGA. Celle-ci vient d'être terminée et est en cours de validation. Elle permettra aux développeurs de logiciel d'avoir les premières versions du GPU et à des développeurs de matériel d'améliorer le projet ou de créer d'autres projets. Elle devrait être mise en vente assez rapidement.

C'est la première étape avant la création du GPU sur un ASIC.

NdM : FPGA, c'est pour le test, la validation, la preuve du bon fonctionnement : ces puces sont chères, mais souples car programmables et surtout utilisées en petites quantités donc non-vendues. ASIC c'est pour la production en grande quantité à destination du marché, donc ces puces sont peu chères et réduisent la consommation électrique et la chaleur dégagée, mais elles sont figées (non-programmables). Le projet a été fondé par Timothy Miller, employé d'une société fabricant des cartes vidéo pour le médical ou le contrôle aérien (Techsource). Celui-ci a créé une société Traversal Tech pour réunir les fonds nécessaires au développement du produit OGC (open source card).

Timothy a pour but d'ouvrir au maximum son design. Il est limité seulement par la peur d'être rapidement copié et que son entreprise n'y survive pas. Un maximum de composants seront ouverts comme le contrôleur PCI ou le contrôleur mémoire. Seuls devraient être fermés les sources du core 3D lui-même.

L'Open Hardware Foundation a été créé pour protéger les intérêts des développeurs externes par rapport à tout événement qui pourrait arriver à Traversal Tech.

Pour valider le GPU et les pilotes, ainsi que la combinaison des deux, il a été décidé de créer une carte de développement (OGD1, open source developpement 1) suffisamment générique et peu chère pour qu'elle soit intéressante également pour faire des développements hardware annexes. Cela permet une validation du projet mais aussi une levée de fond.

Un modèle logiciel écrit en C existe déjà et sert de référence au matériel.

Dans un deuxième temps, une puce sera fondue, ce qui permettra par rapport à la version FPGA, de baisser les coûts (en production de masse), d'augmenter les performances et de faire baisser la consommation électrique.

Aller plus loin

  • # Content de voir que ce projet abouti

    Posté par  (site web personnel) . Évalué à 9.

    En effet il y a quelques temps j'avais émis un doute quand à la finalisation de ce projet mais aujourd'hui je me réjouis de son avancée :)

    Surtout que je pense qu'une fois validée le modèle FGPA les choses devraient s'accélérer.
    • [^] # Re: Content de voir que ce projet abouti

      Posté par  (site web personnel) . Évalué à 10.

      Oui mais bon, après il faut:
      - le fabriquer en série
      - que les quantités soient assez grandes (il va falloir en trouver des geeks libristes!) pour que le prix ne soit pas ridiculement élevé pour du matériel incroyablement plus lent que ce qui se fait du coté des deux géants actuels

      Personnellement, je serais assez intéressé par une carte aux drivers libres qui serait assez puissante pour répondre aux besoins relativement simples des bureaux 3d à venir. Si j'ai bien compris, actuellement il n'y a que des anciennes cartes ATI et les chipsets Intel pour portables qui ont des drivers 3d libres de manière stable. Ça fait peu.
      • [^] # Re: Content de voir que ce projet abouti

        Posté par  . Évalué à 6.

        Personnellement, je serais assez intéressé par une carte aux drivers libres qui serait assez puissante pour répondre aux besoins relativement simples des bureaux 3d à venir.


        Moi aussi par contre il y a un point qui m'inquiète un peu c'est le bus PCI. Sans chercher la performance absolu il faut bien mettre la carte graphique dans le PC, et d'ici que la carte soit disponible à la vente ce n'est pas évident que les PC du moment auront encore un port PCI. Il reste la mise à jour de machine plus ancienne mais je ne crois pas trop à ce marché, une machine qui a fonctionné pendent longtemps avec une autre carte graphique on ne fait plus de frais dessus on l'utilise jusqu'au bout, après on désosse ce qui peut encore servir et stockage dans un grenier/recyclage.

        J'ai du mal à voir le marché pour la carte si elle n'est pas adaptées au PC du moment. Le problème de performance me parait un moins crucial, du moment que le prix n'ai pas excessif et qu'elle ne consomme pas trop (refroidissement passif pour mes oreilles).
        • [^] # Re: Content de voir que ce projet abouti

          Posté par  . Évalué à 5.

          Moi aussi par contre il y a un point qui m'inquiète un peu c'est le bus PCI.
          Faut esperer que le design est assez generique pour pouvoir remplacer l'interface pci par pci-express.


          PS : font chier a changer de nouveau le bus dans les PC. Comme pour le passage ISA -> PCI, il y a plein de cartes (reseau, son, tv, ...) qu'il va falloir jetter alors qu'elle fonctionne aussi bien que les equivalents nouvelles generations.
          Pouvait pas nous pondre une interface compatible (Ils le font bien pour les processeurs x86)...
          • [^] # Re: Content de voir que ce projet abouti

            Posté par  . Évalué à 10.

            «Ils le font bien pour les processeurs x86»

            Ha bon ?

            /me s'en va brancher son Pentium II sur sa carte mère AM2.
          • [^] # Re: Content de voir que ce projet abouti

            Posté par  . Évalué à 6.

            L'ISA a été abandonné, et c'est tant mieux. Cet ancien bus est un cauchemar qui ne permet d'adresser qu'un unique méga-octet de mémoire, toutes les cartes doivent être configurées manuellement à l'aide de jumpers ou de programmes spécifiques pour ne pas se marcher dans les ports. Bref, on ne va pas loin.

            La norme PCI est bien plus universelle et pratique. D'une part il y a un protocole qui permet aux cartes de se présenter et de réserver des ressources; ce qui fait que l'on se pose très peu de questions lorsqu'on branche une carte, le BIOS ou son équivalent se charge de faire une distribution dynamique des ressources nécessaires. D'autre part, les connecteurs sont bien plus dense et évitent d'avoir des cartes de 2 km de long comme c'était le cas avec le VLB.

            En prime le PCI n'est pas limité au 8086 et ses descendants compatibles, cela permet d'utiliser les cartes sur les machines ayant une architecture différente.
            • [^] # Re: Content de voir que ce projet abouti

              Posté par  . Évalué à 2.

              oui mais la je parlais du passage pci -> pci express qui aurait pu etre compatible.

              PS : merci pour le rappel des avantages du pci sur l'isa bien que tu sembles oublier les fonctionnalité pnp qui permetait d'autoconfigurer les cartes pour eviter quelles se marchent dessus. C'est d'ailleurs toujours le meme mecanisme qui est utilisé pour configurer les periph interne du pc (port serie, //, ps2, HP, ...). Et puis le PCI ne marche parfois pas dans tous les cas ;)
            • [^] # Re: Content de voir que ce projet abouti

              Posté par  (site web personnel) . Évalué à 3.

              l'ISA est encore présent sur la plupart des PC actuels ... les interfaces COM, PS2, // fonctionnent encore sur bus ISA via un pont PCI - ISA ...

              Pas convaincu ? -> /sbin/lspci | grep ISA

              Adhérer à l'April, ça vous tente ?

              • [^] # Re: Content de voir que ce projet abouti

                Posté par  (site web personnel) . Évalué à 4.

                Oui, mais depuis que les connecteurs ISA ont disparu de la plupart des cartes mères, c'est plus difficile d'installer ces cartes !
                Un seul de ces connecteurs doit coûter plus cher que le silicium du pont.

                « J'ai pas Word, j'ai pas Windows, et j'ai pas la télé ! »

                • [^] # Re: Content de voir que ce projet abouti

                  Posté par  (site web personnel) . Évalué à 5.

                  Je confirme: dans l'industrie, il y a encore des machines qui fonctionnent avec des cartes ISA, et je te raconte pas le prix quand une machine tombe en panne et qu'il faut changer la carte mère. Dans ma boîte, il y a un parc important de machines qui utilisent une carte ISA, l'addition est salée.
                • [^] # Re: Content de voir que ce projet abouti

                  Posté par  (site web personnel) . Évalué à 3.

                  Ce constat n'est pas spécifique à l'ISA. De manière générale, la connectique des système électronique est chère, peu fiable et peu pérenne ...
                  Cela ne fait pas pour autant de l'ISA un mauvais bus. Il faut remettre les choses dans leur contexte : il y a 20 ans, la connectique de l'ISA était adaptée aux besoins et aux moyens des constructeurs de matériel informatique. Aujourd'hui, l'ISA n'est plus adapté aux PC pour d'évidentes raisons de limitations techniques, mais ce n'est pas en réalisant un mini-ISA que ça changerait le problème ;-)

                  Adhérer à l'April, ça vous tente ?

        • [^] # Re: Content de voir que ce projet abouti

          Posté par  . Évalué à 4.

          [...] However the project does not finish there, because we will need to move from the standard PCI interface onto other faster interfaces. [...]

          Donc le PCI n'est qu'une étape. Par other faster interfaces, ils doivent penser a AGP et pci-express.
          • [^] # Re: Content de voir que ce projet abouti

            Posté par  . Évalué à 5.

            Juste pour information, il existe des adaptateurs PCI-AGP : j'en ai un sous les yeux, qui m'a été fourni par la société Genesi (fabriqué par bPlan), pour la carte mère Efika (j'ai par curiosité verifié, il s'agit bien d'un vrai port PCI, que j'ai testé en faisant tourner la machine avec une carte graphique au même standard).Ca représente dans mon cas un petit bout de PCB garni d'une 60aine de composants en soudure en surface.
        • [^] # Pas de soucis avec le PCI

          Posté par  . Évalué à 8.

          Il n'y a pas de soucis avec le PCI, c'est une étape qui est en fait obligatoire.

          Le bus AGP est en perte de vitesse, il va bientôt avoir disparu. En plus, si je me souviens bien, c'est en fait un bus PCI avec quelques améliorations ce qui fait que l'adaptation de l'interface n'est probablement pas très compliquée. Le plus gros avantage de l'AGP est qu'il permet d'adresser la RAM de l'ordinateur en passant par le MMU pour aller chercher des textures, une chose qui tue les performances et dont il vaut mieux se passer.

          Le bus PCI Express est le bus que l'on trouve maintenant sur toute les cartes mères, et lui, est terriblement proche PCI. Le connecteur est différent; les données sont transmises en série par les couches basses; mais par contre, tout le fonctionnement de l'interface est exactement le même que le PCI. Il existe des circuits "ponts" qui sont vendu pour permettre la connexion rapide d'une puce PCI à un bus PCIe; si on a plus de temps, il suffit de modifier la partie interface de la puce, toute la logique peut être conservée.
      • [^] # Re: Content de voir que ce projet abouti

        Posté par  . Évalué à 5.

        Si j'ai bien compris, actuellement il n'y a que des anciennes cartes ATI et les chipsets Intel pour portables qui ont des drivers 3d libres de manière stable. Ça fait peu.

        Grâce au projet nouveau (http://nouveau.freedesktop.org/ ), on pourrait bien avoir un driver libre pour les cartes nVidia dans pas trop longtemps, ils visent l'automne 2007 pour avoir un driver utilisable (http://nouveau.freedesktop.org/wiki/NouveauCompanion_10 ).

        Voir aussi l'article « Nouveau: A First Look » :
        http://www.phoronix.com/scan.php?page=article&item=614&a(...)
        • [^] # Re: Content de voir que ce projet abouti

          Posté par  (site web personnel) . Évalué à 2.

          Tu veux dire un driver libre pour toutes les cartes NVidia, développé à partir des specs de ces carte... j'ai comme un doute (mais, ça m'intéresserait... pour celle qui est dans ma machine).
          C'est une bonne chose pour les utilisateurs de cartes NVidia, mais y'a quand même comme un grand écart entre le support libre du hardware fermé de NVidia et le projet Open Graphics de hardware documenté.

          Python 3 - Apprendre à programmer dans l'écosystème Python → https://www.dunod.com/EAN/9782100809141

          • [^] # Re: Content de voir que ce projet abouti

            Posté par  . Évalué à 3.

            Tu veux dire un driver libre pour toutes les cartes NVidia, développé à partir des specs de ces carte... j'ai comme un doute (mais, ça m'intéresserait... pour celle qui est dans ma machine).

            Comme indiqué dans l'article, oui, ils veulent faire un driver pour toutes les cartes nVidia, de la NV03 (Riva 128) à la G80 (GeForce 8800 GTX) en passant par les QUADROs et le SLI et en supportant les architectures 64 bits, x86 et PPC.

            Pas à partir des specs par contre, vu qu'elles ne sont pas disponibles, mais en faisant du reverse-engineering sur le pilote propriétaire.

            Ils s'attendent évidemment à ce que le driver aient des performances nettement inférieures au driver propriétaire, mais il devrait être suffisant pour un usage « desktop ».

            Pour l'instant le driver 2D semble à peu près stable et ils arrivent à afficher des triangles sur les cartes NV40+ (GeForce 6200/6600/6800). Plutôt encourageant...

            mais y'a quand même comme un grand écart entre le support libre du hardware fermé de NVidia et le projet Open Graphics de hardware documenté.

            Il y a un grand écart encore plus grand entre les performances annoncées par ce nouveau GPU et celui des cartes nVidia. Tout dépend de ce que l'on recherche...
            • [^] # Re: Content de voir que ce projet abouti

              Posté par  . Évalué à 2.

              Pas à partir des specs par contre, vu qu'elles ne sont pas disponibles, mais en faisant du reverse-engineering sur le pilote propriétaire.


              Pas d'après http://linuxfr.org/comments/791297.html#791297 :
              D'après les développeurs encore, tout est vraiment fait dans la légalité, il ne s'agit pas de désassembler les pilotes propriétaires mais de faire des appels OpenGL et de voir comment les registres de la carte réagissent après, et cela n'est pas interdit par la licence des pilotes propriétaires.
              • [^] # Re: Content de voir que ce projet abouti

                Posté par  (site web personnel) . Évalué à 5.

                Ca reste du reverse engineering sur les pilotes nvidia, vu qu'on annalyse la sortie du driver (les registres de la carte) en fonction des entrées au driver (l'appli OpenGL).
                • [^] # Re: Content de voir que ce projet abouti

                  Posté par  . Évalué à 1.

                  s'ils disent que NON, pourquoi les contredire ?

                  et le reverse engineering n'est pas forcément illégal.
                  • [^] # Re: Content de voir que ce projet abouti

                    Posté par  . Évalué à 6.

                    « REnouveau runs OpenGL tests and monitors changes in the video card registers. In order to use REnouveau you must also be using a recent NVIDIA closed-source display driver. Using REnouveau is considered "clean-room" reverse engineering and is not in violation of NVIDIA's license. »

                    Source : http://www.phoronix.com/scan.php?page=article&item=614&a(...)

                    C'est du reverse engineering sur le pilote propriétaire, même s'ils considèrent que c'est du « clean-room reverse engineering » et que ça n'enfreint pas la licence de nVidia.

                    Et effectivement, ils n'ont aucune connaissance du code du driver propriétaire, même pas par désassemblage mais ça reste du reverse engineering.
                • [^] # Re: Content de voir que ce projet abouti

                  Posté par  . Évalué à 4.

                  La définition donnée par wikipedia : http://fr.wikipedia.org/wiki/R%C3%A9tro-ing%C3%A9nierie

                  la boite noire n'étant pas ouverte (décompilation et analyse du code du driver) ils restent apparemment dans les termes de la licence.
                  D'ailleurs je pense que ça ne serait pas avantageux de regarder dans la boite. Du code décompilé ce n'est pas beau à voir !
  • # Pas vraiment libre

    Posté par  . Évalué à 4.


    Timothy a pour but d'ouvrir au maximum son design. Il est limité seulement par la peur d'être rapidement copié et que son entreprise n'y survive pas. Un maximum de composants seront ouverts comme le contrôleur PCI ou le contrôleur mémoire. Seuls devraient être fermés les sources du core 3D lui-même.

    C'est pas vraiment libre alors, en plus c'est la partie la plus intéressante qui est fermé.

    Ça sent le fork de la FSF ça !
    • [^] # Re: Pas vraiment libre

      Posté par  . Évalué à 4.

      Intéressante pour qui ? Pour les concurrents ou pour les programmeurs de drivers ?
      • [^] # Re: Pas vraiment libre

        Posté par  . Évalué à 10.

        Et un logiciel libre c'est intéressant pour qui ? les concurrents ou les contributeurs ?

        Avec ce raisonnement on en arrive a dire que le libre n'est pas applicable au hardware !
        • [^] # Re: Pas vraiment libre

          Posté par  . Évalué à 10.

          Dans la mesure ou contrairement au logiciel la copie, la mise au point et la réalisation on des couts matériel important la question reste posé. Dire de manière peremptoir que le libre peut s'appliquer sans problème au hardware n'a pas valeur démonstration.

          Puis c'est tous de même pas mal culotter d'aller critiquer une initiative on ne peut plus intéressante pour le libre sous prétexte qu'elle n'est pas 100% libre et bénite par a FSF. A croire qu'il faudrait mieux rester avec les cartes 100% proprios pour pouvoir continuer a se morfondre a propos des méchants constructeurs. Il y a une différence entre la compromission et le pragmatisme.

          Avouer qu'il serait stupide que la société périclite a cause de copie tawainnaises. Une fois qu'ils auront fermés leurs portes on pourra toujours se réjouir d'avoir les DSGL, mais cela nous fera une belle jambe si il n'y a plus personne pour les faire évoluer et prendre les risque de la commercialisation de nouvelle version.
          • [^] # Re: Pas vraiment libre

            Posté par  . Évalué à 1.

            Moi je ne critique pas, j'ai juste dit que ça sent le fork ! Y'a un barbu qui n'aime pas trop le presque libre :)

            Après oui la garantie que "les améliorations serons elle aussi diffusées sous licence libre" ne sont p-e pas suffisantes pour un fabriquant de materiel.
            • [^] # Re: Pas vraiment libre

              Posté par  . Évalué à 10.

              Non parce qu'il y a une composante économique supplémentaire pour le matériel. Compiler un logiciel ne coute presque rien, produire une carte à un cout. A ce jeu celui qui produit a moindre cout ( cad potentiellement celui qui ne fait que copier et n'a pas de cout de développement et de mise au point ) gagne. Donc si tu soutiens l'évolution du projet mais que de ce fait tu te retrouve a vendre des cartes plus chers que les simple copie de ton design tu vas droit dans le mur.

              Personnellement le semi_libre dans le cas présent ne m'inquiète pas franchement, le but premier est d'avoir une carte avec des drivers 100% et la semi divulgation du processeur ne remet pas cela en cause, puis qu'il n'est pas question de cacher ses spécifications aux développeur. Je ne pense pas qu'il ait tant de gens dans la communauté du libre qui soit en mesure de mener à bien un projet de réalisation hardware ( a titre d'exemple on peut citer le F-cpu ). De plus si l'on est un chouillia optimiste ( cela m'arrive de temps a autre ) on peut espérer que le core 3D deviennent libre une fois la prochaine génération développé ou si le projet dispose de base suffisamment solide.

              Apres les barbus gueulard, ne sont en géneral pas ceux qui se sont lancés dans la création d'entreprise comme Traversal Tech et qui on mit leurs argents dedans. Personnellement je trouverais cela du plus haut ridicule si ils descendaient l'initiative ou lieu de l'encourager. Mais bon il ne faut pas attendre grand chose des donneurs de leçons.
              • [^] # Re: Pas vraiment libre

                Posté par  (site web personnel) . Évalué à 9.

                On parle de quoi ? production en série ou développement initial ?

                Le coût de production du matériel est beaucoup plus important que celui du logiciel, c'est indéniable. Maintenant ce coût de production il est équivalent chez l'auteur initial et chez le copieur. Ce n'est pas ça qui peut justifier la différence avec la philosophie du libre dans le logiciel.

                Le coût de développement initial existe lui et pour le matériel et pour le logiciel. Dire comme dans ton premier paragraphe que le non libre est justifié pour pouvoir soutenir les coûts de développement initiaux, c'est s'exposer à une réponse identique de ceux qui font du logiciel non libre (et accessoirement ça sera tout à fait justifié de leur part).

                Certes les coûts de développement d'un hard et d'un soft ne sont pas à la même échelle mais les deux peuvent couler une boite s'ils ne sont pas couverts.


                Attention, qu'on ne se trompe pas, je ne suis pas en train de râler parce que tout n'est pas magnifiquement libre partout. Je comprend tout à fait ce qu'il se passe ici et si déjà on a du matos qui va vers le "toutes les interfaces sont ouvertes" ça sera un énorme pas en avant.

                Je tiens juste à remettre les choses dans leur contexte. L'argument des coûts de développements que tu donnes pour justifier la partie non libre, il vaut autant pour le logiciel que pour le matériel.

                A partir du moment où les interfaces sont totalement ouvertes, savoir ce qui sera fait des documentations de conception une fois les couts rentabilisés et un profit minimum atteint est à mon sens une bien meilleure question (autant pour le logiciel que pour le matériel malheureusement).
                • [^] # Re: Pas vraiment libre

                  Posté par  (site web personnel) . Évalué à 9.

                  <<
                  Le coût de production du matériel est beaucoup plus important que celui du logiciel, c'est indéniable. Maintenant ce coût de production il est équivalent chez l'auteur initial et chez le copieur. Ce n'est pas ça qui peut justifier la différence avec la philosophie du libre dans le logiciel.
                  >>

                  Ben si. L'auteur de la carte a quitte son boulot, cree une societe, mis son temps et beaucoup de son argent pour faire le design de sa carte. Il va encore investir temps et argent pour debugger le fpga, produire la version ASIC en petite serie, la debugger et enfin avoir a peu pres une carte qui marche.

                  Il va aussi passer du temps a documenter les specs, ecrire des bouts de drivers, etc etc.

                  Transversal tech a besoin de recouvrer les couts de toutes ces etapes.

                  Le copieur lui peut partir du design final et le mettre en production.


                  En faisant court a l'extreme, on peut dire qu'une grosse difference entre le logiciel libre et le hardware libre, c'est que gcc, c'est gratuit et que copier un logiciel a des millers d'exemplaires, c'est gratuit aussi. Ce n'est pas le cas pour le hardware.

                  <<
                  Je tiens juste à remettre les choses dans leur contexte. L'argument des coûts de développements que tu donnes pour justifier la partie non libre, il vaut autant pour le logiciel que pour le matériel.
                  >>

                  Ben non. Demarrer un projet logiciel libre et le developper, ca ne coute rien : l'hebergement est gratuit, les compilateurs sont gratuits, le temps personnel est gratuit. Donc tu peux te permettre de tout "donner".

                  Pour du materiel, tu as un investissement considerable. Juste pour info, la production d'un masque permettant de fabriquer des micro-controlleurs en grosse production coute entre 10ke et 30ke (je parle de mon industrie ici, la carte a puce).

                  Si tu rajoutes tous les autres couts, tu comprends que l'auteur aie envie de prendre ses precautions pour revenir dans ses couts.

                  On peut tourner l'argument autrement. A vue de nez, je dirai que l'auteur a mis 2 a 3 annees de salaires dans son projet (je parle en tant que createur d'entreprise). Si toi, tu faisais la meme demarche, mettre 2 a 3 annees de salaires dans un projet, est-ce que tu dirais "oui, les taiwanais soyez gentil, j'ai besoin de rentabiliser ma societe donc me copiez pas tout de suite" ou bien est-ce que tu garderai un mecansimse pour te proteger un minimum ?

                  Il est evident que l'auteur de ce beau projet de carte graphique a vraiment envie de faire un projet le plus libre possible. Je pense qu'il a regarde cette problematique sous tous les angles possibles et qu'il est parvenu a la conclusion qu'il fallait garder une partie proprio parce que sinon, le risque financier etait trop important pour lui.
                  • [^] # Re: Pas vraiment libre

                    Posté par  (site web personnel) . Évalué à 7.

                    Euh ... si tu regardes bien j'oppose le cout de conception initial et le cout de production une fois la conception initiale terminée.

                    Tu répond au cout de production après conception en parlant .. du coup de conception intial. Forcément on ne va pas s'entendre. Alors reprenons un peu.

                    > Ben si. L'auteur de la carte a quitte son boulot, cree une societe, mis
                    > son temps et beaucoup de son argent pour faire le design de sa
                    > carte. Il va encore investir temps et argent pour debugger le fpga,
                    > produire la version ASIC en petite serie, la debugger et enfin avoir a
                    > peu pres une carte qui marche.
                    > Il va aussi passer du temps a documenter les specs, ecrire des bouts
                    > de drivers, etc etc.
                    > Transversal tech a besoin de recouvrer les couts de toutes ces
                    > etapes.
                    > Le copieur lui peut partir du design final et le mettre en production.

                    Elle est où la différence avec le gars qui quitte son boulot, créé sa société, mis son temps pour faire un début de développement logiciel. Ensuite il embauche des gens pour continuer, tester, valider. Il embauche encore quelqu'un pour lui parler du coté fonctionnel et valider les calculs, le travail. Il écrit des specs, des connecteurs.

                    Notre gars qui fait du développement logiciel il a aussi besoin de couvrir toutes ces étapes pour ne pas y être de sa poche.
                    Le copieur peut là aussi partir du code source final et le vendre/mettre en oeuvre.

                    Non, désolé, tout ça c'est tout autant valable pour le logiciel que pour le matériel.


                    > En faisant court a l'extreme, on peut dire qu'une grosse difference
                    > entre le logiciel libre et le hardware libre, c'est que gcc, c'est gratuit
                    > et que copier un logiciel a des millers d'exemplaires, c'est gratuit
                    > aussi. Ce n'est pas le cas pour le hardware.

                    Dire que gcc est gratuit c'est comme dire que le matos ne coute rien vu que c'est gratuit à brancher sur le slot de la carte mère. Il reste les couts de développement, l'analyse, la rédaction des docs, l'embauche de personnel, le temps passé (qui doit être payé si on veut survivre pendant ce temps), le matériel, le bureau, l'analyse ...

                    Faire un logiciel ça coute des sous, et pas qu'un peu. On peut certes faire du logiciel dans son garage, mais c'est loin d'être applicable à tout. Pas plus que le matériel ne peut être assimilé à l'électronicien passionné qui continue à concevoir des trucs perso après le boulot.



                    A moins que tu ne parles que des couts de reproduction finaux, mais dans ce cas je ne vois pas ce que ça vient faire. Les couts de reproduction finaux tu ne les payes que si tu reproduis et tu les payes de la même façon si tu es l'auteur initial ou si tu es ton vil taiwanais qui reprend les plans finaux. Les deux payeront autant la duplication.



                    > Pour du materiel, tu as un investissement considerable. Juste pour
                    > info, la production d'un masque permettant de fabriquer des
                    > micro-controlleurs en grosse production coute entre 10ke et 30ke
                    > (je parle de mon industrie ici, la carte a puce).
                    > Si tu rajoutes tous les autres couts, tu comprends que l'auteur aie
                    > envie de prendre ses precautions pour revenir dans ses couts.

                    Bien sûr que je le comprend. Mais montes ta boite, fais un soft qui n'est pas que technique (donc qui demande un minimum de fonctionnel) ou qui demande un an/homme au moins, tu vas vites voir que tu passeras aussi tes 30ke. 30ke pour un projet de zéro et une boite qui se monte, c'est franchement pas gigantesque. Pour peu que tu aies à faire même une embauche pas trop mal payée, tu vas vite les relativiser les 30ke.
                    Tous ces gens ils ont besoin de prendre des précautions pour revenir dans leurs couts, qu'ils fassent du hard ou du soft. Ce n'est pas parce que le soft n'est pas tangible qu'il ne coute rien.



                    Ce que je conteste ce n'est pas l'idée qu'il tente de rentrer dans ses frais ni même la méthode qu'il a choisi pour ça, c'est le délire du "c'est spécial parce que c'est du matériel". L'histoire du gars qui vient de passer 3 ans/homme pour un projet et qui souhaiterait ne pas finir avec un trou de trésorerie c'est valable pour tout, autant pour le travail manuel, le service, les produits matériels que les composants logiciels.

                    Je trouve effarant que sur un site dominé par les informaticiens on arrive encore à lire des textes qui insinuent que le coût d'un logiciel est nul ou négligeable (je parle bien du coût, pas du prix)
                    • [^] # Re: Pas vraiment libre

                      Posté par  . Évalué à 7.

                      En fait, pour résumer:
                      Le temps, c'est de l'argent.
                    • [^] # Re: Pas vraiment libre

                      Posté par  (site web personnel) . Évalué à 10.

                      Elle est où la différence avec le gars qui quitte son boulot, créé sa société, mis son temps pour faire un début de développement logiciel. Ensuite il embauche des gens pour continuer, tester, valider. Il embauche encore quelqu'un pour lui parler du coté fonctionnel et valider les calculs, le travail. Il écrit des specs, des connecteurs.

                      Notre gars qui fait du développement logiciel il a aussi besoin de couvrir toutes ces étapes pour ne pas y être de sa poche.
                      Le copieur peut là aussi partir du code source final et le vendre/mettre en oeuvre.

                      Non, désolé, tout ça c'est tout autant valable pour le logiciel que pour le matériel.


                      Ok, ces 2 parties sont équivalentes avec le hard. Maintenant quand tu fais du hard, tu dois rajouter le cout de la fonderie de 300 k¤ à 2M¤ selon la téchno avant même de sortir la moindre pière. Ensuite, tu dois en commander qq centaines de milliers, sinon le fondeur ne discute même pas avec toi (cela rajoutes donc qq 100 k¤ à 10¤ pièce).

                      Mais avant d'en arriver là, tu dois utiliser des outils certifié par le fondeur, comme un synthétiseur (design compiler : 140k¤/an), un analyseur statique de timing (100 k¤/an), un générateur de pattern (30 k¤/an ?)...

                      Bref, contrairement au soft ou tu as besoin de qq pc, un dev hardware a un investissement non humain bien plus important.

                      "La première sécurité est la liberté"

                    • [^] # Re: Pas vraiment libre

                      Posté par  (site web personnel) . Évalué à 7.

                      A mon avis le principal problème est que sa petite boite, quand elle va arriver à l'étape de production de cartes bonnes pour la vente, elle ne pourra raisonnablement faire qu'une petite quantitée de cartes et les vendre comme elle pourra.
                      Les geeks fan de linux et de libre vont les acheter sur le net, ce qui va redonner un peu de sous à sa boite qui va donc pouvoir rembourser une partie du developement et produire une nouvelle série un peu plus grosse de cartes, et donc viser des marchés un peu plus étendus. Et ce cycle va se répéter jusqu'à ce qu'elle puisse raisonnablement produire des grosses séries de cartes donc avec un coût beaucoup plus faible puisque le prix à l'unitée baisse avec la quantitée et que les investissement auront été remboursés.
                      Et donc à ce moment là, la carte deviendra interressante au niveau du rapport qualitée/prix, c'est à dire une carte sans grosses prétentions mais à pas cher et avec la philosophie du libre en bonus.

                      Maintenant si le messieur il libère tout. Les gros fondeurs taiwanais vons pouvoir produire sa carte sans avoir à ammortir les couts de développement ni le prix d'une licence. Ce qui réduit le prix de la carte pour eux.
                      En plus, ils disposent déjà des usines toutes équipées pour ce genre de production, ils n'ont pas à passer par un intermédiaire, ce qui veux dire que les cartes sont encore moins chères.
                      Ils ont aussi un compte en banque qui leur permet de produire des grosse séries dès le début donc coûts minimum dès le début.
                      Et cerise sur le gateaux, mais à mon avis le plus important, ils sont déjà très présents sur le marché et ont donc tous les atoux en mains pour placer cette carte chez les gros acheteurs potentiels.

                      Donc si cette carte à un potentiel à grande échelle, pendant qu'avec sa petite sociétée il commencera à éssayer de vendre sa carte a un prix élevé (tout est relatif bien sur), à un publique très spécialisé de manière quasiment anonyme en éssayant tant bien que mal de rentrer dans ses frais, avec l'espoir de gagner suffisament d'argent pour produire la prochaine génération de carte.
                      Les taiwanais, eux, produirons la carte à grande échelle et la vendront en grosse quantitée, par exemple à des assembleurs de PC à bas prix.

                      Le seul marché sur lequels ils pourra rester dominant est celui des geeks libriste qui lui acheteront la sienne plus chère par solidaritée et conviction.
                      Le bilan c'est que si sa carte à un réel avenir et qu'il l'ouvre en totalitée, il mettra 20ans à réunir l'argent pour développer la génération suivante.

                      "le coût d'un logiciel est nul ou négligeable" En fait, ici ce qui est important c'est le cout de reproduction d'un logiciel qui est quasiment nul (en tout cas négligeable...) contrairement à son coût de développement qui peut être énorme, mais une fois développé, en faire 1000, 10000 ou 10000000 copies ne coute quasiment rien et est à la portée de quasiment tout le monde.
                      Pour un projet hardware tel que OGC, le cout de production de chaque exemplaire est éxorbitant au début et se réduit progressivement dans le temps. Et surtout ce coût de production n'est pas le même pour une petite boite qui sort son premier produit et une énorme boite qui est déjà entièrement équipée et qui à les relations pour vendre le produit en masse.

                      Remarques :
                      - j'ai volontairement éxagéré les deux scénarios, mais je ne pense trop me tromper si ça carte à un réel potentiel.
                      - je conditionne tout ceci sur le fait que la carte ait un réel potentiel, c'est-à-dire qu'il y ai réellement un public non-négligeable interresser par cette carte, c'est-à-dire suffisament important pour que les grosse boite investissent dedans.
                    • [^] # Re: Pas vraiment libre

                      Posté par  (site web personnel) . Évalué à 10.

                      J'ai du mal à imaginer que tu ne puisses pas comprendre ce que je dis.

                      Il se trouve que j'ai créé avec succès deux boites, la première où on faisait un produit purement logiciel, et l'autre où on faisait (et fait toujours) du logiciel pour carte à puce qui doit être en rom.

                      Dans le premier cas, on produisait des logiciels, dans le second, on produit des microcontrolleurs qui contiennent du code non modifiable. C'est à dire qu'on est très proche du principe d'un produit hardware.

                      Dans ma première boite, en 1 an et demi, on a dépensé à trois environ 4000 euro. Plusieurs ordinateurs, une licence Visual Studio, une licence Qt plus quelques broutilles. Note qu'au bout de 6 mois, on avait déjà un produit montrable pour convaincre nos clients.

                      Dans ma deuxième boite, même effectif humain de départ. Rien qu'en logiciel on est déjà autour des 10000 euro (licence des compilos proprio). Il nous a fallu un an et demi pour lancer la première fabrication qui a couté environ 30 000 euro. A partir de ce moment là on a eu des prototypes, non vendables. Pour notre premier produit, on a du relancer une fabrication (un peu moins cher cette fois : 15000 euro) et faire une certification du produit (environ 35 000 euro). Finalement, ce n'est même pas ce produit là qu'on a vendu, il a fallu en refaire un autre.

                      Et là, je n'ai mis aucun coût de salaire. Juste du matériel, du logiciel et de la production.

                      Pour en revenir au sujet, les coûts initiaux pour un développement hardware, quoi que tu en penses, sont sans commune mesure avec les coûts de développement software.

                      <<
                      Tu répond au cout de production après conception en parlant .. du coup de conception intial.
                      >>

                      Pour parler du coût d'un produit, tu es obligé de tenir compte de tous les coûts. Le coût de développement initial est tellement important qu'il impacte de façon majeur la marge que tu dois faire sur la production. Dans mon industrie, on ne commence à faire des bénéfices qu'au delà du millions de pièces produites. Quand le client est exigeant, c'est au delà des 3 premiers millions. C'est super difficile de sortir des marchés de plusieurs millions de pièces, donc c'est difficile de rentabiliser juste le développement.


                      <<
                      Elle est où la différence avec le gars qui quitte son boulot, créé sa société, mis son temps pour faire un début de développement logiciel. Ensuite il embauche des gens pour continuer, tester, valider. Il embauche encore quelqu'un pour lui parler du coté fonctionnel et valider les calculs, le travail. Il écrit des specs, des connecteurs.
                      >>

                      Il y en a plusieurs des différences. L'idée, c'est que quand tu démarres une société en logiciel, tu réduis les coûts au minimum, et c'est possible :
                      - tu ne te paye pas de salaire
                      - en général, tu n'as pas de salarié non plus. Dans le meilleurs des cas, tu as un associé qui comme toi n'a pas de salaire
                      - les compilos sont libres
                      - pas de coût de production
                      - tu peux montrer des prototypes à tes clients sans débourser beaucoup

                      Au final, tu peux démarrer ton projet logiciel pour quelques milliers d'euro. Typiquement, tu vas commencer en mode garage et quand tu auras un proto qui marche et un client prêt à acheter la version finale, tu envisgeras d'embaucher des gens.

                      Dans le cas du demarrage d'un projet hardware, même en résuisant les coûts au maximum maximum et en restant en mode garage, tu vas t'en sortir pour 50 000 euro. D'où un besoin beaucoup plus important d'assurer tes arrières.

                      <<
                      Tous ces gens ils ont besoin de prendre des précautions pour revenir dans leurs couts, qu'ils fassent du hard ou du soft. Ce n'est pas parce que le soft n'est pas tangible qu'il ne coute rien.
                      >>

                      Sauf que les coûts dans l'un et l'autre cas sont d'un rapport 10.

                      Je vois pas trop ce que je peux dire de plus pour te convaincre. Créée une boite pour vendre du hardware libre, on en reparlera.

                      <<
                      Je trouve effarant que sur un site dominé par les informaticiens on arrive encore à lire des textes qui insinuent que le coût d'un logiciel est nul ou négligeable (je parle bien du coût, pas du prix)
                      >>

                      Bien sur qu'il y a un coût de production d'un logiciel. Mais le coût de production peut pour la très grande partie être converti en temps qui ne coûte relativement rien (quand c'est le tien). Pour le hard, c'est pas convertible (et en plus, tu as en général le même coût en temps personnel).

                      Autre problème, le coût d'une erreur. Si tu as un bug grave dans ton soft, tu peux faire une mise à jour et l'envoyer à tes clients et deux jours après, tu es un peu moins crédible mais ton problème est résolu.

                      Dans une carte à puce, si tu as un bug grave, tu as perdu 45 000 euro et tu dois repayer 45 000 euro pour une nouvelle production et tu repars pour un cycle de fabrication d'environ 4 mois pendant lesquels tu vas perdre des clients.

                      Rien qu'avec ton exemple de l'informaticien passionné et de l'électronicien passionné, on voit la différence. Pour une informaticien passionné, il faut une babasse et un accès internet et il peut s'amuser. Pour un électronicien passionné, il va falloir une babasse, très probablement un accès internet, un poste à souder, des cartes micro-controlleurs, éventuellement un compilateur proprio s'il utilise du matériel hyper spécifique, plus pas mal de matériel électronique. Si il veut faire du pas moche, il faudra même qu'il se paye un moule en plastique. S'il veut faire 10 protos pour ses copains, il faudra qu'il paye le matériel 10 fois. Alors qu'un logiciel peut être téléchargé des milliiers de fois sur sourceforge sans couter un bezef au développeur.

                      Ma conclusion : l'electronique coûte plus cher.
                      • [^] # Re: Pas vraiment libre

                        Posté par  . Évalué à 10.

                        pour clore la discussion :
                        mail de timothy miller:
                        Richard Stallman contacted me recently by email, asking if there were
                        ways in which the FSF and OGP could cooperate.


                        I'll begin with a quote:

                        Richard Stallman wrote:

                        > We encourage the idea of free hardware designs, but we don't think it
                        > is ethically required that all hardware designs be free, because most
                        > users are not in a position to turn a hardware design into hardware.



                        voila je crois que c'est clair non ?


                        (pour ceux qui ont du mal avec l'anglais :

                        Richard Stallman m'a récemment contacté par mail, me demandant si il y avait une possibilité d'une collaboration entre ogp et la fsf


                        Je commencerais par un extrait de son mail :
                        Richard Stallman a écris :
                        Nous encourageons l'idée de design hardware liibre, mais nous ne pensons que ce soit éthiquement obligatoire que tous les designs hardware soient libre, parce que la plupart des utilisateurs ne peuvent pas transformer le design hardware en matériel palpable.
              • [^] # Re: Pas vraiment libre

                Posté par  . Évalué à 5.

                Je ne puis définitivement pas adhérer à tes conclusions sur la comparaison entre le logiciel et le materiel, du moins pas en l'état.

                Si on essaye de chercher une analogie entre la vision du hardware que tu nous propose avec les licenses des logiciels, ce serait plus probablement la license BSD que la GPL qui correspondrait ici, en cela que des sociétées tiers récupéreraient à moindre coût et sans la moindre obligation le travail d'autrui.

                Dans le cas où les shémas et autres documents de spécification seraient sur une license de type GPL (je n'ai aucune connaissance dans le cas où cela serait faisable ou pas, c'est plus une interrogation qu'autre chose) comment ton petit taiwanais pourrait il légalement exploiter ce travail? Il doit bien y avoir une protection intellectuel quelconque (même les brevets je présume) afin de protéger de tels travaux non?

                Il y a désormais un certain temps, Sun a je crois libéré certains de ces processeurs, qu'elles ont été les conséquences? Les deux cas sont ils très différents?
                • [^] # Re: Pas vraiment libre

                  Posté par  (site web personnel) . Évalué à 3.

                  Globalement, il ne s'est pas passé grand chose pour Sun. En fait, la mise en oeuvre d'un core est complexe est une erreur peut être très couteuse. Donc, il y a pas mal de support à vendre au moins au début.

                  "La première sécurité est la liberté"

          • [^] # Re: Pas vraiment libre

            Posté par  . Évalué à -4.

            Désolé mais moi je vois pas la plus value dans une carte aux performances de merde et semi ouverte alors que je peux acheter une machine avec un chipset intel intégré qui fera très bien l'affaire.

            Ce n'est pas une histoire d'intégrisme mais de plus value. Le core 3D est fermé ? pourquoi j'acheterais ça et pas une carte mère avec un chip intel ? mais pourquoi donc ?

            En plus AMD a un mal fou à poursuivre intel dans la lutte alors je m'en tape des procs AMD.
            • [^] # Re: Pas vraiment libre

              Posté par  . Évalué à 7.

              Désolé mais moi je vois pas la plus value dans une carte aux performances de merde et semi ouverte alors que je peux acheter une machine avec un chipset intel intégré qui fera très bien l'affaire.

              La derniere fois que j'ai regardé les driver intel, il y avait un binnaire proprio pour gerer le macrovision (sortie analogique).
              Y a t il des specs (datasheet) pour les cartes intel, ou alors on a que les drivers libres et il faut attendre le bon vouloir des develo intel pour avoir tel fonctionnalité ?

              De plus est ce que tous les chipsets intel supporte une sortie tv, une sortie dvi (voire 2), ...
              Enfin quel sont les perfs des cartes intel par rapport a ATI et NVIDIA ?

              PS :
              des personnes sont bien prette a donner pour avoir un pilote libre pour les cartes nvidia, alors qu'il a peut de chance d'avoir les meme performances que le driver proprio nvidia.
              • [^] # Re: Pas vraiment libre

                Posté par  . Évalué à 10.

                le driver de la carte est entièrement libre.
                Ce qui sera 'fermé' c'est ... le code verilog !
                C'est à dire le fonctionnement interne de la puce
                Par contre tu auras toutes les specs dont tu peux réver.

                Je me souviens pas qu'intel donnait le code vhdl de ses puces .

                Bref :
                du coté logiciel -> entièrement libre
                du coté doc -> disponible
                du coté code hardware -> caché jusqu'a ce qu'il soit rentré dans ses frais.

                Petit rappel : la mise en place d'une production d'asic c'est ... 2 millions de dollar. Je pense que tu peux comprendre qu'il a pas envie qu'une personne avec plus de facilité de caisse vienne , copie la puce (on parle des branchements INTERNES de la puce) et lui pique tout la r&d faite avant.
  • # performances

    Posté par  (site web personnel) . Évalué à 4.

    A noter sur le lien de l'annonce :

    our target is a frame rate of between 20 and 30 FPS on Quake III at 1280x1024.

    C'est donc assez correct (largement suffisant pour faire fonctionner compiz).
    • [^] # Re: performances

      Posté par  . Évalué à 7.

      Assez correct, c'est quand même relatif. C'est pareil qu'une geforce 2 qui date du millénaire dernier...

      En plus si le prix est élevé, je ne vois pas qui en voudrait : une radeon 7500 ou une carte intel avec drivers libre serait bien plus intéressant...
      • [^] # Re: performances

        Posté par  . Évalué à 6.

        Ils parlent du FPGA !!!! donc ca ne semble au contraire très prometteur :

        chez ATI, le premier prototype en FPGA du X800 il faisait combien de fps sous Q III ???
        • [^] # Re: performances

          Posté par  . Évalué à 2.

          bon, ici on ne parle pas de prototype mais d'objectif, et le x800 xt faisait env 330 images/sec avec quake 3 sous windows en 1280x1024... alors 30fps, c'est, ahem... Pas une carte pour les jeux, pas une carte pour le CAD, sans doutes pas une carte pour la video non-plus...

          En plus, du pci, ça a peu ou pas d'intéret pour l'utilisateur, ce format va disparaître complètement.
          • [^] # Re: performances

            Posté par  . Évalué à 3.

            1°) une gf2 qui fait 30 fps en 1280x1024 sous quake3 ? il doit pas y en avoir tant que ca .
            2°) Pourquoi le bus pci ?
            Parce qu'il permet un débuggage plus simple. Je rapelle que c'est encore en dvp. Si a chaque test tu fait completement planté ta cg principale (agp par ex) ben forcément la ca va etre un peu plus chaud
            Ensuite les normes (agp ou pci express) sont issus de la norme pci.
            • [^] # Re: performances

              Posté par  . Évalué à 3.


              1°) une gf2 qui fait 30 fps en 1280x1024 sous quake3 ? il doit pas y en avoir tant que ca .

              Ma MX400 le fait, et elle est nettement moins performante qu'une GTS ou une ultra.


              2°) Pourquoi le bus pci ?
              Parce qu'il permet un débuggage plus simple. Je rapelle que c'est encore en dvp. Si a chaque test tu fait completement planté ta cg principale (agp par ex) ben forcément la ca va etre un peu plus chaud
              Ensuite les normes (agp ou pci express) sont issus de la norme pci.

              Que ce soit en PCI, en AGP ou en PCIexpress, une carte qui envoie de la merde risque toujours de faire planter la machine.

              Mais de toute façon ça n'a pas grande importance vu que la machine de test n'est pas celle de développement, et qu'elle va certainement booter sur une suite de tests, donc au plus noyau linux+2-3 programmes, donc le reboot ne sera pas très long.
              • [^] # Re: performances

                Posté par  . Évalué à 1.

                la dernière fois que j'ai testé ma mx400 ne le faisait pas
                pas plus que ma mx200
                on a pas dis 30 fps en 640*480, on a dis en 1280*1024 hein.


                Que ce soit en PCI, en AGP ou en PCIexpress, une carte qui envoie de la merde risque toujours de faire planter la machine.
                Tu sais que tu peux merder dans le code verilog du pipeline 3d mais que le code pci soit tout a fait correct.
                (je me demande meme si ils ont pas utilisé 2 puces séparé pour ca : une pour la gestion du pci , et une pour le core graphique proprement dis).

                donc le reboot ne sera pas très long.
                Ouais c'est sur, puis faut aussi avoir une machine sur lequel tu vois ce que tu tape pour balancer la mise a jour pour mettre la rom à jour sur le bon firmware. A moins que tu veuille le faire dans un test par défaut, et dans ce cas c'est super simple tu test un truc.Ah merde faut que je reboot
                Tu test un autre ... a merde a nouveau
                Un troisième ... a non toujours pas.
                Je suis pas sur que ton linux apprécie tant que ca les reboot hard que tu lui inflige a chaque fois que tu dois débugger une ligne.

                Compte le nombre de fois que tu corrige une erreur sur un code. Et imagine si tu dois rebooter à chaque fois.
            • [^] # Re: performances

              Posté par  . Évalué à 3.

              la gt2 Ti fait en effet 33fps... en 1600x1200.

              Quake 3 utilise un moteur qui, par les standards actuels, est complètement dépassé, je n'ose même pas imaginer les fps avec une carte récente genre 8800GTX...

              En tout cas, je réitère: si l'objectif est 30fps en 1280x1024 sous quake III, c'est pas réaliste pour du cad, de l'imagerie, ... Eventuellement pour de la bureautique, et encore...

              Si a chaque test tu fait completement planté ta cg principale (agp par ex) ben forcément la ca va etre un peu plus chaud


              ben, non... le mieux est d'avoir une machine de développement et une machine de test, la seconde utilisant effectivement le hardware en développement, de sorte que si tu plantes la bécane complètement, tu ne perdes pas tes opérations en cours (qui elles sont sur la bécane de dev, qui est équipée d'une carte graphique stable)... Et puis, il y a un truc magnifique avec les linux et unix: même avec l'affichage planté, tu peux toujours te connecter en mode terminal, via port série, ssh, ...
          • [^] # Re: performances

            Posté par  . Évalué à 8.

            > bon, ici on ne parle pas de prototype mais d'objectif

            non, on parle d'objectif du prototype:

            "With our development card and the OGA1 GPU, our target is a frame rate of between 20 and 30 FPS on Quake III"

            Donc mieux vaudrait éviter les jugements prématurés...
            • [^] # Re: performances

              Posté par  . Évalué à 0.

              Donc mieux vaudrait éviter les jugements prématurés...


              D'abord, sur le site de la carte, la section mise en gras dans la phrase est exactement l'inverse de celle que tu as mis en gras. L'emphase étant bien mise sur le fait que l'objectif est 30fps et non le fait qu'il s'agisse d'une carte de développement. Sans doutes une erreur de communication, ou du marketing mal placé.

              Enfin, si la carte de développement atteint les 30fps sous quake 3 (on y est pas encore, ce n'est qu'un objectif), on aura pas magiquement 300fps avec la carte de production, à moins de tout recommencer depuis zéro avec une architecture beaucoup plus puissante.

              Donc pour le cad, la video HD, l'imagerie, le jeu, ... ça me semble un peu rapé... par contre, pour faire une carte bureautique, ou pour mettre dans des serveurs, ça devrait convenir si le prix est raisonnable. Sinon, avec une carte basée sur un chip fpga, les demomakers devraient bien s'amuser ...
              • [^] # Re: performances

                Posté par  (site web personnel) . Évalué à 2.

                "Enfin, si la carte de développement atteint les 30fps sous quake 3 (on y est pas encore, ce n'est qu'un objectif), on aura pas magiquement 300fps avec la carte de production, à moins de tout recommencer depuis zéro avec une architecture beaucoup plus puissante."

                La différence sera la fréquence d'horloge, c'est tout.

                "Donc pour le cad, la video HD, l'imagerie, le jeu, ... ça me semble un peu rapé... "

                Pour les jeus direct X 10, oui, pour les autres non. L'imagerie et autre effet 3D marcheront bien. Le créateur du projet connait bien les problèmes de qualité d'images, la carte aura donc une "belle" sortie analogique.

                "La première sécurité est la liberté"

                • [^] # Re: performances

                  Posté par  . Évalué à -1.

                  La différence sera la fréquence d'horloge, c'est tout.


                  Ben non, la grosse différence sera un passage à l'asic... c'est pourtant marqué... ça fera d'office une plus grande différence q'un simple changement de fréquence.
                  • [^] # Re: performances

                    Posté par  (site web personnel) . Évalué à 3.

                    Evidement que c'est marqué, c'est moi qui ai écrit la news !

                    Et d'un point de vue design, la seul différence sera la fréquence plus haute permise. La téchnologie permet aussi de baisser la conso et le prix.

                    Mais d'un point de vue design logique, cela sera exactement la même chose ! Le FPGA sert de plateforme de développement, à quoi sert une plateforme de dev, si tu veux faire ensuite quelques choses de complètement différent !

                    "La première sécurité est la liberté"

                    • [^] # Re: performances

                      Posté par  . Évalué à 1.

                      Et d'un point de vue design, la seul différence sera la fréquence plus haute permise. La téchnologie permet aussi de baisser la conso et le prix.


                      Mais d'un point de vue design logique, cela sera exactement la même chose ! Le FPGA sert de plateforme de développement, à quoi sert une plateforme de dev, si tu veux faire ensuite quelques choses de complètement différent !


                      Ce serait dommage de ne pas profiter du passage à l'ASIC pour faire du tuning... Le stade fpga est une opportunité pour travailler les algorithmes, le passage à l'ASIC est l'étape où on travaille et on optimise le design hardware pour assurer l'exécution de ces algorithmes sans goulots, ça ne devrait jamais être une traduction à l'identique. C'est là qu'on peut augmenter le nombre de certaines unités, faire le tuning des caches, ... Il y a d'énormes opportunités d'optimisation dans ce processus.
                      • [^] # Re: performances

                        Posté par  (site web personnel) . Évalué à 2.

                        erf...

                        Et tu valides comment ton design, si tu ne peux pas le vérifier sur une plateforme de test !

                        Il est évident que les optimisations ne seront pas orienté FPGA mais asic au moins en partie.

                        "La première sécurité est la liberté"

                        • [^] # Re: performances

                          Posté par  . Évalué à 3.

                          Et tu valides comment ton design, si tu ne peux pas le vérifier sur une plateforme de test !


                          Tu ne peux pas tout valider sur un système fpga. En dehors de l'optimisation logique, il y a les problèmes de distribution électrique, de répartition thermique voir d'interférences sont à concevoir en dehors de l'approche fpga. En mettant en place le design logique sur fpga, les développeurs rencontreront forcément des limitations opérationnelles liés au fpga lui-même, limitations qui pourront sauter au moment du passage en asic si elles sont correctement comprises et q'un plan B est modélisé.

                          On ne peut pas modéliser tout via le fpga, il faut juste vivre avec celà, c'est une méthode intéressante pour approcher la logique finale, mais elle est limitée et il serait dommage de traduire de manière stricte les limitations du fpga dans le design de l'asic.
                          • [^] # Re: performances

                            Posté par  (site web personnel) . Évalué à 2.

                            Laisses moi deviner, tu sors de l'école c'est ça ?

                            Tu dis toi-même que le FPGA ne permet pas de tout modéliser, mais permet tout de même de valider le fonctionnel mais tu proposait de modifier le fonctionnel sans pouvoir faire de test.

                            Bref, cela ne fait pas tout mais tu voudrais en faire encore moins ?

                            ps:
                            "les problèmes de distribution électrique" -> problème du fondeur ou du designer de carte
                            "répartition thermique" -> idem
                            "d'interférences" -> que pour les cartes pour l'instant (très peu pour le gusse qui fait le layout chez le fondeur)

                            "La première sécurité est la liberté"

                            • [^] # Re: performances

                              Posté par  . Évalué à 4.

                              Laisses moi deviner, tu sors de l'école c'est ça ?


                              et hop, vive le ton condescendant...

                              Tu dis toi-même que le FPGA ne permet pas de tout modéliser, mais permet tout de même de valider le fonctionnel mais tu proposait de modifier le fonctionnel sans pouvoir faire de test.


                              Tu peux valider des blocs, tu peux, si tu es structuré, avoir une approche où le nombre d'instances d'une unité modélisée change entre la version fpga de la logique et la version asic.

                              Le fpga est un outil de modélisation mais ne devrait pas être utilisé comme limite de complexité. On pourrait imaginer un architecture modulaire où on configure un noyau d'affichage et ou rajoute des éléments de configuration modulaires comme des overlays hardware, des shaders, des unités de streaming, ... le tout en validant les blocs un à un et en décidant de les incorporer ou non dans telle ou telle version de l'asic, ce qui permet de spécialiser telle ou telle version de la puce pour tel ou tel besoin. IBM, par exemple, utilise une approche un peu similaire pour son architecture powerpc pour le marché de l'embarqué.

                              "les problèmes de distribution électrique" -> problème du fondeur ou du designer de carte
                              "les problèmes de distribution électrique" -> problème du fondeur ou du designer de carte
                              "répartition thermique" -> idem


                              Pas tout à fait d'accord... Si ton modèle est purement logique et ne tenant pas compte de l'aspect physique, ou pas assez modulaire, il sera beaucoup plus difficile pour ton fondeur pour déplacer des blocs pour rééquilibrer la dissipation thermique dans la puce.
                              • [^] # Re: performances

                                Posté par  (site web personnel) . Évalué à 5.

                                Le ton est peut être condescendant mais je travail depuis 5 ans dans le secteur. Et bien que tu sembles connaitre le sujet, cela manque sérieusement de pragmatisme et de réalisme.

                                Quand tu dois mettre 2 ou 3 m¤ sur la table, tu prends le moins de risque possible. Même si tu peux multiplier les core 3D dans la puce par rapport à la version FPGA, il y a toujours le problème des points uniques d'entrée : bus mémoire, bus IO, sortie video.

                                L'arbitrage de bus pose des problèmes extrèment subtile de latence et doit être complétement validé. Bref, une validation unitaire ne t'assure absolument pas une validation de l'ensemble. Il suffit d'une erreur de spec et cela arrive tout le temps.

                                Il n'y aura pas 50 version de l'asic, cela coute déjà très chère d'en faire une !

                                IBM n'utilise pas du tout cette téchnique. C'est un vendeur d'IP ou de core pour être plus précis. Comme ARM vend des coeurs de cpu arm, ibm vende des core ppc. La validation des interfaces avec le reste oblige toujours simuler (mais bon 3 jours pour 10ms, on ne va pas loin), ou encore d'avoir des accélérateurs de simu comme ceux de cadence ou encore des cartes à base de fpga.

                                Le fondeur peut remonter des problèmes de point chaud. Mais ogc va tapper dans les 2-3 millions de portes, cela n'est pas comparrable au 100 millions d'un SOC de téléphone portable.

                                "La première sécurité est la liberté"

                                • [^] # Re: performances

                                  Posté par  . Évalué à 1.

                                  Et bien que tu sembles connaitre le sujet, cela manque sérieusement de pragmatisme et de réalisme.


                                  Le problème, c'est que si on est pragmatique et réaliste, on investi pas dans un marché comme les cartes graphiques, surtout pour faire un produit qui sera complètement à la ramasse face à à peu près toute la concurrence.

                                  Qui achètera cette carte? Pour quelles raisons? A l'heure actuelle, sur le site de Traversal Tech, le prix envisagé est d'au moins 1000$ pour le prototype fpga... ça va refroidir pas mal de personnes intéressées, un tel investissement... il faudrait des garanties que la montagne ne va pas accoucher d'une souris si on veut une communauté significative sur le développement du système.

                                  On peut donc attendre que la carte trouve d'elle-même son public (ou qu'on découvre qu'il n'y en a pas), ou alors on peut pousser la réflexion un peu plus loin et chercher un moyen de se repositionner rapidement sur le marché selon les besoins. L'approche modulaire n'est pas la solution, mais peut être un début de solution: il y a des dizaines d'idées qui pourraient venir se greffer sur la colonne vertébrale de la carte et en faire des produits uniques dont certains pourraient avoir du succès. C'est aussi ça l'avantage d'un projet ouvert sur une communauté, il viendra peut-être des idées de modules inédits, qui, s'ils ne sont pas tous intégrés dans une version généraliste de la carte, mériteront une implémentation dans une version spécialisée.

                                  Sinon, certes ibm est une boîte IP, mais quand ils te licencient un core, tu peux/dois avoir accès à une solide consultance de leur part sur le sujet, et ils peuvent te tenir par la main (et le porte-feuille) de la pré-étude jusqu'à la production des puces dans leurs infrastructures. De ce que j'avais lu, ils ont déjà pas mal modularisé leur architecture power 5 dans cet objectif.
                                  • [^] # Re: performances

                                    Posté par  (site web personnel) . Évalué à 2.

                                    "A l'heure actuelle, sur le site de Traversal Tech, le prix envisagé est d'au moins 1000$ pour le prototype fpga..."

                                    Une carte de dev fpga équivalente peut couter jusqu'à 10 000¤ sur le marché. Cela n'a pas l'air comme ça, mais c'est en fait donné...

                                    "La première sécurité est la liberté"

                                    • [^] # Re: performances

                                      Posté par  . Évalué à 1.

                                      Une carte de dev fpga équivalente peut couter jusqu'à 10 000¤ sur le marché. Cela n'a pas l'air comme ça, mais c'est en fait donné...


                                      certes, je veux bien te croire sur parole... mais ça met tout de même l'investissement assez haut pour le hobbyiste désireux de s'investir dans le projet.

                                      Entre ça et acheter une carte graphique plus classique et essayer de contribuer à ses pilotes, il y a clairement un pas que justement le pragmatisme tendrait à influencer.

                                      Et le pire, c'est effectivement cette carte est en plus sans doutes vendue à pertes (en tout cas pour le milieu académique).

                                      Tout ça pour ça...
                                      • [^] # Re: performances

                                        Posté par  (site web personnel) . Évalué à 2.

                                        Je pense qu'il y aura sans doute un simulteur de la carte mis au point grace au modèle. Cela permetra de développer du code sans le fpga.

                                        "La première sécurité est la liberté"

                                  • [^] # Re: performances

                                    Posté par  (site web personnel) . Évalué à 2.

                                    Concernant le marché de la puce, il y a les cartes de bureau mais aussi l'embarqué, qui peut être le plus gros marché d'ailleurs.

                                    Concernant les nouvelles idées, cela pourra se faire avec le fpga mais difficilement avec un asic. L'idée de charger le fpga en fonction de l'application est très tentant mais la technologie reste trop chère.

                                    La carte sera opengl 1.3 ce qui est déjà pas mal. Il y a aussi des features comme les grosses résolutions, les conversion yuv <-> rgb et quelques opérations 2D accéléré.

                                    Les shaders et autres seront vu ensuite.

                                    "La première sécurité est la liberté"

                                • [^] # Re: performances

                                  Posté par  . Évalué à 4.


                                  Il n'y aura pas 50 version de l'asic, cela coute déjà très chère d'en faire une !


                                  50 peut-être pas mais entre 5 et 15 ça me semble assez courant. Je ne suis pas en expert en la matière mais ayant travaillé (côté logiciel) dans des boîtes qui faisaient du chip et qui passaient par des fpga, celà n'empêchait pas d'avoir jusqu'à 15 itérations en version fondue...
                                  Et actuellement le chip fournit par un sous-traitant sur lequel je travaille en est à sa 10e itération (qui semble être la dernière)...
                                  • [^] # Re: performances

                                    Posté par  (site web personnel) . Évalué à 2.

                                    Là ou j'ai bossé, c'était plutot bon du premier coup voire au deuxième mais pas plus.

                                    "La première sécurité est la liberté"

                                    • [^] # Re: performances

                                      Posté par  . Évalué à 2.

                                      Ca varie peut-être en fonction de la complexité du chip? Dans les exemples que je cite je parle de chips assez gros intégrant un coeur ARM + DSP + d'autres copro + périph. divers et mixant du numérique et de l'analogique. Mais je ne suis pas un spécialiste.
                                      • [^] # Re: performances

                                        Posté par  . Évalué à 1.

                                        A mon avis il manque une précision :
                                        quand vous dites 'jusqu'a 15 puces style de puce fondues' il s'agit de :
                                        15 variations du chips , mais où (presque) chacune des variations est fonctionnelle et on peut la vendre
                                        et
                                        15 variations du chips où seul la dernière est fonctionelle ?
                                        • [^] # Re: performances

                                          Posté par  . Évalué à 1.

                                          Dans un des cas que j'ai cité (celui ou on faisait la puce), il n'y a pas eu de puces de vendues avant la 7e itération. Pour l'autre (on est client) je ne sais pas trop. On a eu nos premières puces en itération 6 mais on n'a pas vendu de produit avant l'iteration 9. Mais il est possible que d'autres sociétés aient vendu des produits avec d'autres itérations, je n'ai pas d'info à ce sujet.
      • [^] # Re: performances

        Posté par  (site web personnel) . Évalué à 3.

        Sauf qu'il n'existe pas de "carte" intel et que la radeon 7500 n'est plus en vente depuis longtemps.

        Certaines personnes préfairent avoir un driver complet (avec swsupend, gestion multiécran correct et extention X11) et stable, plutot que des perfs brutes.

        "La première sécurité est la liberté"

        • [^] # Re: performances

          Posté par  . Évalué à 2.

          Je parlais évidemment des chipsets intel intégrés dans de nombreux portables.

          Quant au driver complet, c'est une bonne idée, mais l'idée est d'avoir une carte qui supporte aiglx et compagnie avec des perfs décentes. Si tu veux avoir ton multiécran avec aiglx, ta carte risque de se montrer assez insuffisante. Et je ne parle pas des autres joujous 3d que l'on voudrait utiliser sans être hardcore gamer.

          D'ailleurs si les perfs 2d sont du même acabit que les perfs 3d, cette carte sera également assez limitante pour les opérations de défilement, avec les zolies icônes avec preview et tout.
          • [^] # Re: performances

            Posté par  . Évalué à 1.

            Il n'y a plus qu'à avoir les premiers scores à 3DMark 200\d de la carte ;)

            En attendant je me satisfait de ma vieille geforce3 avec drivers proprios (en attendant de pouvoir jouer à xmoto avec nouveau)
            • [^] # Re: performances

              Posté par  (site web personnel) . Évalué à 4.

              Hum.... 3DMark ce n'est pas exclusivement DirectX ? (mais peu-être fais-je une erreur, je ne suis pas très au courant dans ces choses là).

              Si oui on peut dès lors annoncer le score. ^^

              ce commentaire est sous licence cc by 4 et précédentes

          • [^] # Re: performances

            Posté par  (site web personnel) . Évalué à 2.

            La bande passante mémoire est 30% supérieur à une geoforce 2 donc dans les fonctionnalités simples, et notament 2D, la OGC sera dans les 30% plus rapide.

            "La première sécurité est la liberté"

            • [^] # Re: performances

              Posté par  . Évalué à 2.

              C'est simpliste comme raisonnement, la bande passante entre la puce et la mémoire graphique n'est pas directement proportionnelle à la vitesse d'exécution de la carte.

              Même en 2D il y a de nombreuses opérations qui dépendent de la vitesse de connexion au bus et de la vitesse du chip graphique (opérations blit, conversion d'espace couleur, correction des couleurs, gamma, ...)

              Si la vitesse du chip graphique et la connexion au bus sont insuffisantes, la vitesse pure de la ram de la carte graphique passe sérieusement au second plan.
              • [^] # Re: performances

                Posté par  (site web personnel) . Évalué à 2.

                arf...

                Tu n'a jamais entendu parler de la limitation de bande passante par rapport aux calculs pour les cpus ?

                Non, parce que un asic, c'est du cablé donc encore bien plus efficace qu'un cpu (le fpga contient 96 multiplieurs 18x18 bits...). Donc dans les opération simples (ce que j'ai bien précisé), cela sera toujours la bande passante qui sera limitante.

                Pour la vitesse du bus de connection, cela ne rentre en compte que pour visionner de la video. Et encore, les limites apparaissent avec la HD. en comme dis 50x sur la page, le pci a été choisi par facilité de développement, rajouter un pont pci<->pci express ne sera pas bien difficile !

                "La première sécurité est la liberté"

                • [^] # Re: performances

                  Posté par  . Évalué à 2.

                  Tu n'a jamais entendu parler de la limitation de bande passante par rapport aux calculs pour les cpus ?


                  Et toi, tu as déjà entendu parler de cpu's n'exploitant pas la bande passante à cause de la complexité des opérations?

                  Certes le fpga est puissant, mais pour de la 2D pure, va t'il vraiment exploser un asic dédié avec une progression directement égale à l'augmentation de la bande passante?

                  Si je met de la ram ddr2 800 sur mon pc en lieu et place de ddr2 400, mon pc sera t'il vraiment 2x plus rapide?
                  • [^] # Re: performances

                    Posté par  (site web personnel) . Évalué à 2.

                    "Et toi, tu as déjà entendu parler de cpu's n'exploitant pas la bande passante à cause de la complexité des opérations?"

                    Oui évidement. Il y a eu des testes à l'époque ou l'on pouvait choisir entre des bus mémoires 64 ou 128 bits. Les différences se jouait sur 10% pas plus.

                    Par exemple, pour un codec video, la dct bouffe 99% du temps cpu est n'est pas limité par la mémoire.

                    Idem pour la compression AES où il parle de 20 cycles cpu par octet.

                    Un algo "cpu bound" ne sera jamais limité par la mémoire... par définition.

                    "Certes le fpga est puissant, mais pour de la 2D pure, va t'il vraiment exploser un asic dédié avec une progression directement égale à l'augmentation de la bande passante?"

                    Tu veux dire quoi par là ? Qu'un FPGA est moins "rapide" que son équivalent ASIC, ce qui est évident ? Qu'un ASIC dédié est plus rapide qu'un ASIC pas dédié ?

                    "Si je met de la ram ddr2 800 sur mon pc en lieu et place de ddr2 400, mon pc sera t'il vraiment 2x plus rapide?"

                    Comme dit plus haut, cela dépend des algos...

                    "La première sécurité est la liberté"

  • # ATI/Nvidia

    Posté par  . Évalué à 1.

    Mouais enfin bon ATI et Nvidia reste des spécialistes de la 3D quoi qu'on en dise...

    J'espère qu'avec le rachat par AMD, ATI va nous pondre des drivers open-source, il serait vraiment temps, parceque leurs drivers (Windows ou Linux) sont véritablement à chier...
    • [^] # Re: ATI/Nvidia

      Posté par  . Évalué à 4.

      ati et nvidia , c'est ni la meme taille, ni les meme équipes, ni les meme objectifs, ni les meme facilités de caisse
    • [^] # Re: ATI/Nvidia

      Posté par  . Évalué à 1.

      D'apres la petite analyse des drivers Vista (qui fait l'objet d'une autre news) il y a peux, mais alors vraiment peux, de chances de voir ATI/AMD ouvrir son driver; surtout quand on connait les liens etroits entre ATI & Microsoft. Je pense qu'AMD a laisse courir un bruit sur l'ouverture des drivers car ce ne pouvais que leur etre favorable (qu'elle compagnie cracherait sur de la publicite gratuite).

      Je crains fort que seul des efforts de reverse engineering puissent changer la donne; a moins que NVidia et AMD finissent par en avoir marre du model Vista (pour de "basse" raisons financieres) et lachent microsoft. Mais je suis de nature pessimiste et je vais relire 1984 du bon vieux George afin de me preparer pour le monde de demain.
      • [^] # Re: ATI/Nvidia

        Posté par  (site web personnel) . Évalué à 8.

        > surtout quand on connait les liens etroits entre ATI & Microsoft

        Et quand on connait pas ?
        • [^] # Re: ATI/Nvidia

          Posté par  . Évalué à 3.

          Je fais reference ici a tous ce qui a publiquement filtre a propos de direct x10; developpe en liens etroit avec ATI & NVidia mais plus particulierement avec ATI car celui-ci fournit le chipset graphique de la xbox360 (c'est ce genre de relation commercial qui vous cree d'un coup des amities de 30ans ;)).
          • [^] # Re: ATI/Nvidia

            Posté par  . Évalué à 5.

            ... mais plus particulierement avec ATI car celui-ci fournit le chipset graphique de la xbox360 (c'est ce genre de relation commercial qui vous cree d'un coup des amities de 30ans ;)).
            Pourtant Microsoft avait fait appel à NVidia pour le processeur graphique de la première Xbox, et leur amitié n'a franchement pas duré 30 ans. Il me semble d'ailleur que ça a été le temps le plus court entre deux générations de consoles pour un même fabriquant...
            • [^] # Re: ATI/Nvidia

              Posté par  . Évalué à 3.

              Si ma mémoire est bonne, Microsoft s'était comporté avec nvidia comme s'il avait payé un forfait "puces" illimité... à un moment le fric a commencé à manquer et nvidia a demandé des sous pour continuer la production, et la dispute a commencé.
    • [^] # Re: ATI/Nvidia

      Posté par  . Évalué à 3.

      > J'espère qu'avec le rachat par AMD, ATI va nous pondre des drivers open-source,

      C'est une possibilité bien sûr, mais AMD n'a rien dit|promis sur ce sujet.
  • # Et sinon

    Posté par  . Évalué à 3.

    si on fait le rapprochement avec http://linuxfr.org/2007/01/06/21865.html
    elle va correctement gérer la protection de contenu de première qualité ou pas ?
    • [^] # Re: Et sinon

      Posté par  (site web personnel) . Évalué à 9.

      Il ne vaut mieux pas, elle serait ainsi LA carte à acheter pour mettre dans une machine au fonctionnement critique.
      Exemple le terminal de l'IRM : pas de HDCP tout ça, pas de soucis, pas de risque de dégradation, pas de risque pour le patient.
      C'est *LA* carte sans moins-value !

      ce commentaire est sous licence cc by 4 et précédentes

      • [^] # Re: Et sinon

        Posté par  . Évalué à 2.

        C'est vrai que du coup, il se créée un marché de niche, qui peut être ne deviendra pas négligeable.
        C'est assez bien vu de la part de l'instigateur du projet.

        Par contre, du coup, il a tout intéret à ce que Vista se répande, à quand le lobby de open graphics pour l'adoption de Vista? :p
        • [^] # Re: Et sinon

          Posté par  (site web personnel) . Évalué à 2.

          Mouarf, j'imagine le moment où les gens devront passer sous un OS libre juste pour pouvoir utiliser Open Graphics sans signal dégradé, parce que Vista refusera de l'utiliser si elle ne supporte pas HDCP et ne dégrade pas le signal :-)
          Oui, bon, on peut toujours rêver...

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.