La première étape était de produire une carte de développement basée sur une technologie FPGA. Celle-ci vient d'être terminée et est en cours de validation. Elle permettra aux développeurs de logiciel d'avoir les premières versions du GPU et à des développeurs de matériel d'améliorer le projet ou de créer d'autres projets. Elle devrait être mise en vente assez rapidement.
C'est la première étape avant la création du GPU sur un ASIC.
NdM : FPGA, c'est pour le test, la validation, la preuve du bon fonctionnement : ces puces sont chères, mais souples car programmables et surtout utilisées en petites quantités donc non-vendues. ASIC c'est pour la production en grande quantité à destination du marché, donc ces puces sont peu chères et réduisent la consommation électrique et la chaleur dégagée, mais elles sont figées (non-programmables). Le projet a été fondé par Timothy Miller, employé d'une société fabricant des cartes vidéo pour le médical ou le contrôle aérien (Techsource). Celui-ci a créé une société Traversal Tech pour réunir les fonds nécessaires au développement du produit OGC (open source card).
Timothy a pour but d'ouvrir au maximum son design. Il est limité seulement par la peur d'être rapidement copié et que son entreprise n'y survive pas. Un maximum de composants seront ouverts comme le contrôleur PCI ou le contrôleur mémoire. Seuls devraient être fermés les sources du core 3D lui-même.
L'Open Hardware Foundation a été créé pour protéger les intérêts des développeurs externes par rapport à tout événement qui pourrait arriver à Traversal Tech.
Pour valider le GPU et les pilotes, ainsi que la combinaison des deux, il a été décidé de créer une carte de développement (OGD1, open source developpement 1) suffisamment générique et peu chère pour qu'elle soit intéressante également pour faire des développements hardware annexes. Cela permet une validation du projet mais aussi une levée de fond.
Un modèle logiciel écrit en C existe déjà et sert de référence au matériel.
Dans un deuxième temps, une puce sera fondue, ce qui permettra par rapport à la version FPGA, de baisser les coûts (en production de masse), d'augmenter les performances et de faire baisser la consommation électrique.
Aller plus loin
- L'annonce (11 clics)
- Traversal tech (5 clics)
- Définition de FPGA (2 clics)
- Techsource (3 clics)
- Définition de ASIC (0 clic)
# Content de voir que ce projet abouti
Posté par Dup (site web personnel) . Évalué à 9.
Surtout que je pense qu'une fois validée le modèle FGPA les choses devraient s'accélérer.
[^] # Re: Content de voir que ce projet abouti
Posté par Fabimaru (site web personnel) . Évalué à 10.
- le fabriquer en série
- que les quantités soient assez grandes (il va falloir en trouver des geeks libristes!) pour que le prix ne soit pas ridiculement élevé pour du matériel incroyablement plus lent que ce qui se fait du coté des deux géants actuels
Personnellement, je serais assez intéressé par une carte aux drivers libres qui serait assez puissante pour répondre aux besoins relativement simples des bureaux 3d à venir. Si j'ai bien compris, actuellement il n'y a que des anciennes cartes ATI et les chipsets Intel pour portables qui ont des drivers 3d libres de manière stable. Ça fait peu.
[^] # Re: Content de voir que ce projet abouti
Posté par ashram4 . Évalué à 6.
Moi aussi par contre il y a un point qui m'inquiète un peu c'est le bus PCI. Sans chercher la performance absolu il faut bien mettre la carte graphique dans le PC, et d'ici que la carte soit disponible à la vente ce n'est pas évident que les PC du moment auront encore un port PCI. Il reste la mise à jour de machine plus ancienne mais je ne crois pas trop à ce marché, une machine qui a fonctionné pendent longtemps avec une autre carte graphique on ne fait plus de frais dessus on l'utilise jusqu'au bout, après on désosse ce qui peut encore servir et stockage dans un grenier/recyclage.
J'ai du mal à voir le marché pour la carte si elle n'est pas adaptées au PC du moment. Le problème de performance me parait un moins crucial, du moment que le prix n'ai pas excessif et qu'elle ne consomme pas trop (refroidissement passif pour mes oreilles).
[^] # Re: Content de voir que ce projet abouti
Posté par M . Évalué à 5.
Faut esperer que le design est assez generique pour pouvoir remplacer l'interface pci par pci-express.
PS : font chier a changer de nouveau le bus dans les PC. Comme pour le passage ISA -> PCI, il y a plein de cartes (reseau, son, tv, ...) qu'il va falloir jetter alors qu'elle fonctionne aussi bien que les equivalents nouvelles generations.
Pouvait pas nous pondre une interface compatible (Ils le font bien pour les processeurs x86)...
[^] # Re: Content de voir que ce projet abouti
Posté par Anonyme . Évalué à 10.
Ha bon ?
/me s'en va brancher son Pentium II sur sa carte mère AM2.
[^] # Re: Content de voir que ce projet abouti
Posté par Sébastien Koechlin . Évalué à 6.
La norme PCI est bien plus universelle et pratique. D'une part il y a un protocole qui permet aux cartes de se présenter et de réserver des ressources; ce qui fait que l'on se pose très peu de questions lorsqu'on branche une carte, le BIOS ou son équivalent se charge de faire une distribution dynamique des ressources nécessaires. D'autre part, les connecteurs sont bien plus dense et évitent d'avoir des cartes de 2 km de long comme c'était le cas avec le VLB.
En prime le PCI n'est pas limité au 8086 et ses descendants compatibles, cela permet d'utiliser les cartes sur les machines ayant une architecture différente.
[^] # Re: Content de voir que ce projet abouti
Posté par M . Évalué à 2.
PS : merci pour le rappel des avantages du pci sur l'isa bien que tu sembles oublier les fonctionnalité pnp qui permetait d'autoconfigurer les cartes pour eviter quelles se marchent dessus. C'est d'ailleurs toujours le meme mecanisme qui est utilisé pour configurer les periph interne du pc (port serie, //, ps2, HP, ...). Et puis le PCI ne marche parfois pas dans tous les cas ;)
[^] # Re: Content de voir que ce projet abouti
Posté par Fabimaru (site web personnel) . Évalué à 3.
Euh, as-tu lu son deuxième paragraphe?
[^] # Re: Content de voir que ce projet abouti
Posté par Pol' uX (site web personnel) . Évalué à 3.
Pas convaincu ? -> /sbin/lspci | grep ISA
Adhérer à l'April, ça vous tente ?
[^] # Re: Content de voir que ce projet abouti
Posté par Christophe Duparquet (site web personnel) . Évalué à 4.
Un seul de ces connecteurs doit coûter plus cher que le silicium du pont.
« J'ai pas Word, j'ai pas Windows, et j'ai pas la télé ! »
[^] # Re: Content de voir que ce projet abouti
Posté par liberforce (site web personnel) . Évalué à 5.
[^] # Re: Content de voir que ce projet abouti
Posté par Pol' uX (site web personnel) . Évalué à 3.
Cela ne fait pas pour autant de l'ISA un mauvais bus. Il faut remettre les choses dans leur contexte : il y a 20 ans, la connectique de l'ISA était adaptée aux besoins et aux moyens des constructeurs de matériel informatique. Aujourd'hui, l'ISA n'est plus adapté aux PC pour d'évidentes raisons de limitations techniques, mais ce n'est pas en réalisant un mini-ISA que ça changerait le problème ;-)
Adhérer à l'April, ça vous tente ?
[^] # Re: Content de voir que ce projet abouti
Posté par DjeFr . Évalué à 4.
Donc le PCI n'est qu'une étape. Par other faster interfaces, ils doivent penser a AGP et pci-express.
[^] # Re: Content de voir que ce projet abouti
Posté par GhostLine . Évalué à 5.
[^] # Pas de soucis avec le PCI
Posté par Sébastien Koechlin . Évalué à 8.
Le bus AGP est en perte de vitesse, il va bientôt avoir disparu. En plus, si je me souviens bien, c'est en fait un bus PCI avec quelques améliorations ce qui fait que l'adaptation de l'interface n'est probablement pas très compliquée. Le plus gros avantage de l'AGP est qu'il permet d'adresser la RAM de l'ordinateur en passant par le MMU pour aller chercher des textures, une chose qui tue les performances et dont il vaut mieux se passer.
Le bus PCI Express est le bus que l'on trouve maintenant sur toute les cartes mères, et lui, est terriblement proche PCI. Le connecteur est différent; les données sont transmises en série par les couches basses; mais par contre, tout le fonctionnement de l'interface est exactement le même que le PCI. Il existe des circuits "ponts" qui sont vendu pour permettre la connexion rapide d'une puce PCI à un bus PCIe; si on a plus de temps, il suffit de modifier la partie interface de la puce, toute la logique peut être conservée.
[^] # Re: Content de voir que ce projet abouti
Posté par Frédéric Lopez . Évalué à 5.
Grâce au projet nouveau (http://nouveau.freedesktop.org/ ), on pourrait bien avoir un driver libre pour les cartes nVidia dans pas trop longtemps, ils visent l'automne 2007 pour avoir un driver utilisable (http://nouveau.freedesktop.org/wiki/NouveauCompanion_10 ).
Voir aussi l'article « Nouveau: A First Look » :
http://www.phoronix.com/scan.php?page=article&item=614&a(...)
[^] # Re: Content de voir que ce projet abouti
Posté par lolop (site web personnel) . Évalué à 2.
C'est une bonne chose pour les utilisateurs de cartes NVidia, mais y'a quand même comme un grand écart entre le support libre du hardware fermé de NVidia et le projet Open Graphics de hardware documenté.
Votez les 30 juin et 7 juillet, en connaissance de cause. http://www.pointal.net/VotesDeputesRN
[^] # Re: Content de voir que ce projet abouti
Posté par Frédéric Lopez . Évalué à 3.
Comme indiqué dans l'article, oui, ils veulent faire un driver pour toutes les cartes nVidia, de la NV03 (Riva 128) à la G80 (GeForce 8800 GTX) en passant par les QUADROs et le SLI et en supportant les architectures 64 bits, x86 et PPC.
Pas à partir des specs par contre, vu qu'elles ne sont pas disponibles, mais en faisant du reverse-engineering sur le pilote propriétaire.
Ils s'attendent évidemment à ce que le driver aient des performances nettement inférieures au driver propriétaire, mais il devrait être suffisant pour un usage « desktop ».
Pour l'instant le driver 2D semble à peu près stable et ils arrivent à afficher des triangles sur les cartes NV40+ (GeForce 6200/6600/6800). Plutôt encourageant...
Il y a un grand écart encore plus grand entre les performances annoncées par ce nouveau GPU et celui des cartes nVidia. Tout dépend de ce que l'on recherche...
[^] # Re: Content de voir que ce projet abouti
Posté par Elghinn . Évalué à 2.
Pas d'après http://linuxfr.org/comments/791297.html#791297 :
[^] # Re: Content de voir que ce projet abouti
Posté par TeXitoi (site web personnel) . Évalué à 5.
[^] # Re: Content de voir que ce projet abouti
Posté par - - . Évalué à 1.
et le reverse engineering n'est pas forcément illégal.
[^] # Re: Content de voir que ce projet abouti
Posté par Frédéric Lopez . Évalué à 6.
Source : http://www.phoronix.com/scan.php?page=article&item=614&a(...)
C'est du reverse engineering sur le pilote propriétaire, même s'ils considèrent que c'est du « clean-room reverse engineering » et que ça n'enfreint pas la licence de nVidia.
Et effectivement, ils n'ont aucune connaissance du code du driver propriétaire, même pas par désassemblage mais ça reste du reverse engineering.
[^] # Re: Content de voir que ce projet abouti
Posté par DjeFr . Évalué à 4.
la boite noire n'étant pas ouverte (décompilation et analyse du code du driver) ils restent apparemment dans les termes de la licence.
D'ailleurs je pense que ça ne serait pas avantageux de regarder dans la boite. Du code décompilé ce n'est pas beau à voir !
# Pas vraiment libre
Posté par Tonton Benoit . Évalué à 4.
C'est pas vraiment libre alors, en plus c'est la partie la plus intéressante qui est fermé.
Ça sent le fork de la FSF ça !
[^] # Re: Pas vraiment libre
Posté par dilbert . Évalué à 4.
[^] # Re: Pas vraiment libre
Posté par Tonton Benoit . Évalué à 10.
Avec ce raisonnement on en arrive a dire que le libre n'est pas applicable au hardware !
[^] # Re: Pas vraiment libre
Posté par Beretta_Vexee . Évalué à 10.
Puis c'est tous de même pas mal culotter d'aller critiquer une initiative on ne peut plus intéressante pour le libre sous prétexte qu'elle n'est pas 100% libre et bénite par a FSF. A croire qu'il faudrait mieux rester avec les cartes 100% proprios pour pouvoir continuer a se morfondre a propos des méchants constructeurs. Il y a une différence entre la compromission et le pragmatisme.
Avouer qu'il serait stupide que la société périclite a cause de copie tawainnaises. Une fois qu'ils auront fermés leurs portes on pourra toujours se réjouir d'avoir les DSGL, mais cela nous fera une belle jambe si il n'y a plus personne pour les faire évoluer et prendre les risque de la commercialisation de nouvelle version.
[^] # Re: Pas vraiment libre
Posté par Tonton Benoit . Évalué à 1.
Après oui la garantie que "les améliorations serons elle aussi diffusées sous licence libre" ne sont p-e pas suffisantes pour un fabriquant de materiel.
[^] # Re: Pas vraiment libre
Posté par Beretta_Vexee . Évalué à 10.
Personnellement le semi_libre dans le cas présent ne m'inquiète pas franchement, le but premier est d'avoir une carte avec des drivers 100% et la semi divulgation du processeur ne remet pas cela en cause, puis qu'il n'est pas question de cacher ses spécifications aux développeur. Je ne pense pas qu'il ait tant de gens dans la communauté du libre qui soit en mesure de mener à bien un projet de réalisation hardware ( a titre d'exemple on peut citer le F-cpu ). De plus si l'on est un chouillia optimiste ( cela m'arrive de temps a autre ) on peut espérer que le core 3D deviennent libre une fois la prochaine génération développé ou si le projet dispose de base suffisamment solide.
Apres les barbus gueulard, ne sont en géneral pas ceux qui se sont lancés dans la création d'entreprise comme Traversal Tech et qui on mit leurs argents dedans. Personnellement je trouverais cela du plus haut ridicule si ils descendaient l'initiative ou lieu de l'encourager. Mais bon il ne faut pas attendre grand chose des donneurs de leçons.
[^] # Re: Pas vraiment libre
Posté par Éric (site web personnel) . Évalué à 9.
Le coût de production du matériel est beaucoup plus important que celui du logiciel, c'est indéniable. Maintenant ce coût de production il est équivalent chez l'auteur initial et chez le copieur. Ce n'est pas ça qui peut justifier la différence avec la philosophie du libre dans le logiciel.
Le coût de développement initial existe lui et pour le matériel et pour le logiciel. Dire comme dans ton premier paragraphe que le non libre est justifié pour pouvoir soutenir les coûts de développement initiaux, c'est s'exposer à une réponse identique de ceux qui font du logiciel non libre (et accessoirement ça sera tout à fait justifié de leur part).
Certes les coûts de développement d'un hard et d'un soft ne sont pas à la même échelle mais les deux peuvent couler une boite s'ils ne sont pas couverts.
Attention, qu'on ne se trompe pas, je ne suis pas en train de râler parce que tout n'est pas magnifiquement libre partout. Je comprend tout à fait ce qu'il se passe ici et si déjà on a du matos qui va vers le "toutes les interfaces sont ouvertes" ça sera un énorme pas en avant.
Je tiens juste à remettre les choses dans leur contexte. L'argument des coûts de développements que tu donnes pour justifier la partie non libre, il vaut autant pour le logiciel que pour le matériel.
A partir du moment où les interfaces sont totalement ouvertes, savoir ce qui sera fait des documentations de conception une fois les couts rentabilisés et un profit minimum atteint est à mon sens une bien meilleure question (autant pour le logiciel que pour le matériel malheureusement).
[^] # Re: Pas vraiment libre
Posté par Philippe F (site web personnel) . Évalué à 9.
Le coût de production du matériel est beaucoup plus important que celui du logiciel, c'est indéniable. Maintenant ce coût de production il est équivalent chez l'auteur initial et chez le copieur. Ce n'est pas ça qui peut justifier la différence avec la philosophie du libre dans le logiciel.
>>
Ben si. L'auteur de la carte a quitte son boulot, cree une societe, mis son temps et beaucoup de son argent pour faire le design de sa carte. Il va encore investir temps et argent pour debugger le fpga, produire la version ASIC en petite serie, la debugger et enfin avoir a peu pres une carte qui marche.
Il va aussi passer du temps a documenter les specs, ecrire des bouts de drivers, etc etc.
Transversal tech a besoin de recouvrer les couts de toutes ces etapes.
Le copieur lui peut partir du design final et le mettre en production.
En faisant court a l'extreme, on peut dire qu'une grosse difference entre le logiciel libre et le hardware libre, c'est que gcc, c'est gratuit et que copier un logiciel a des millers d'exemplaires, c'est gratuit aussi. Ce n'est pas le cas pour le hardware.
<<
Je tiens juste à remettre les choses dans leur contexte. L'argument des coûts de développements que tu donnes pour justifier la partie non libre, il vaut autant pour le logiciel que pour le matériel.
>>
Ben non. Demarrer un projet logiciel libre et le developper, ca ne coute rien : l'hebergement est gratuit, les compilateurs sont gratuits, le temps personnel est gratuit. Donc tu peux te permettre de tout "donner".
Pour du materiel, tu as un investissement considerable. Juste pour info, la production d'un masque permettant de fabriquer des micro-controlleurs en grosse production coute entre 10ke et 30ke (je parle de mon industrie ici, la carte a puce).
Si tu rajoutes tous les autres couts, tu comprends que l'auteur aie envie de prendre ses precautions pour revenir dans ses couts.
On peut tourner l'argument autrement. A vue de nez, je dirai que l'auteur a mis 2 a 3 annees de salaires dans son projet (je parle en tant que createur d'entreprise). Si toi, tu faisais la meme demarche, mettre 2 a 3 annees de salaires dans un projet, est-ce que tu dirais "oui, les taiwanais soyez gentil, j'ai besoin de rentabiliser ma societe donc me copiez pas tout de suite" ou bien est-ce que tu garderai un mecansimse pour te proteger un minimum ?
Il est evident que l'auteur de ce beau projet de carte graphique a vraiment envie de faire un projet le plus libre possible. Je pense qu'il a regarde cette problematique sous tous les angles possibles et qu'il est parvenu a la conclusion qu'il fallait garder une partie proprio parce que sinon, le risque financier etait trop important pour lui.
[^] # Re: Pas vraiment libre
Posté par Éric (site web personnel) . Évalué à 7.
Tu répond au cout de production après conception en parlant .. du coup de conception intial. Forcément on ne va pas s'entendre. Alors reprenons un peu.
> Ben si. L'auteur de la carte a quitte son boulot, cree une societe, mis
> son temps et beaucoup de son argent pour faire le design de sa
> carte. Il va encore investir temps et argent pour debugger le fpga,
> produire la version ASIC en petite serie, la debugger et enfin avoir a
> peu pres une carte qui marche.
> Il va aussi passer du temps a documenter les specs, ecrire des bouts
> de drivers, etc etc.
> Transversal tech a besoin de recouvrer les couts de toutes ces
> etapes.
> Le copieur lui peut partir du design final et le mettre en production.
Elle est où la différence avec le gars qui quitte son boulot, créé sa société, mis son temps pour faire un début de développement logiciel. Ensuite il embauche des gens pour continuer, tester, valider. Il embauche encore quelqu'un pour lui parler du coté fonctionnel et valider les calculs, le travail. Il écrit des specs, des connecteurs.
Notre gars qui fait du développement logiciel il a aussi besoin de couvrir toutes ces étapes pour ne pas y être de sa poche.
Le copieur peut là aussi partir du code source final et le vendre/mettre en oeuvre.
Non, désolé, tout ça c'est tout autant valable pour le logiciel que pour le matériel.
> En faisant court a l'extreme, on peut dire qu'une grosse difference
> entre le logiciel libre et le hardware libre, c'est que gcc, c'est gratuit
> et que copier un logiciel a des millers d'exemplaires, c'est gratuit
> aussi. Ce n'est pas le cas pour le hardware.
Dire que gcc est gratuit c'est comme dire que le matos ne coute rien vu que c'est gratuit à brancher sur le slot de la carte mère. Il reste les couts de développement, l'analyse, la rédaction des docs, l'embauche de personnel, le temps passé (qui doit être payé si on veut survivre pendant ce temps), le matériel, le bureau, l'analyse ...
Faire un logiciel ça coute des sous, et pas qu'un peu. On peut certes faire du logiciel dans son garage, mais c'est loin d'être applicable à tout. Pas plus que le matériel ne peut être assimilé à l'électronicien passionné qui continue à concevoir des trucs perso après le boulot.
A moins que tu ne parles que des couts de reproduction finaux, mais dans ce cas je ne vois pas ce que ça vient faire. Les couts de reproduction finaux tu ne les payes que si tu reproduis et tu les payes de la même façon si tu es l'auteur initial ou si tu es ton vil taiwanais qui reprend les plans finaux. Les deux payeront autant la duplication.
> Pour du materiel, tu as un investissement considerable. Juste pour
> info, la production d'un masque permettant de fabriquer des
> micro-controlleurs en grosse production coute entre 10ke et 30ke
> (je parle de mon industrie ici, la carte a puce).
> Si tu rajoutes tous les autres couts, tu comprends que l'auteur aie
> envie de prendre ses precautions pour revenir dans ses couts.
Bien sûr que je le comprend. Mais montes ta boite, fais un soft qui n'est pas que technique (donc qui demande un minimum de fonctionnel) ou qui demande un an/homme au moins, tu vas vites voir que tu passeras aussi tes 30ke. 30ke pour un projet de zéro et une boite qui se monte, c'est franchement pas gigantesque. Pour peu que tu aies à faire même une embauche pas trop mal payée, tu vas vite les relativiser les 30ke.
Tous ces gens ils ont besoin de prendre des précautions pour revenir dans leurs couts, qu'ils fassent du hard ou du soft. Ce n'est pas parce que le soft n'est pas tangible qu'il ne coute rien.
Ce que je conteste ce n'est pas l'idée qu'il tente de rentrer dans ses frais ni même la méthode qu'il a choisi pour ça, c'est le délire du "c'est spécial parce que c'est du matériel". L'histoire du gars qui vient de passer 3 ans/homme pour un projet et qui souhaiterait ne pas finir avec un trou de trésorerie c'est valable pour tout, autant pour le travail manuel, le service, les produits matériels que les composants logiciels.
Je trouve effarant que sur un site dominé par les informaticiens on arrive encore à lire des textes qui insinuent que le coût d'un logiciel est nul ou négligeable (je parle bien du coût, pas du prix)
[^] # Re: Pas vraiment libre
Posté par Gilles G. . Évalué à 7.
Le temps, c'est de l'argent.
[^] # Re: Pas vraiment libre
Posté par Nicolas Boulay (site web personnel) . Évalué à 10.
Notre gars qui fait du développement logiciel il a aussi besoin de couvrir toutes ces étapes pour ne pas y être de sa poche.
Le copieur peut là aussi partir du code source final et le vendre/mettre en oeuvre.
Non, désolé, tout ça c'est tout autant valable pour le logiciel que pour le matériel.
Ok, ces 2 parties sont équivalentes avec le hard. Maintenant quand tu fais du hard, tu dois rajouter le cout de la fonderie de 300 k¤ à 2M¤ selon la téchno avant même de sortir la moindre pière. Ensuite, tu dois en commander qq centaines de milliers, sinon le fondeur ne discute même pas avec toi (cela rajoutes donc qq 100 k¤ à 10¤ pièce).
Mais avant d'en arriver là, tu dois utiliser des outils certifié par le fondeur, comme un synthétiseur (design compiler : 140k¤/an), un analyseur statique de timing (100 k¤/an), un générateur de pattern (30 k¤/an ?)...
Bref, contrairement au soft ou tu as besoin de qq pc, un dev hardware a un investissement non humain bien plus important.
"La première sécurité est la liberté"
[^] # Re: Pas vraiment libre
Posté par beagf (site web personnel) . Évalué à 7.
Les geeks fan de linux et de libre vont les acheter sur le net, ce qui va redonner un peu de sous à sa boite qui va donc pouvoir rembourser une partie du developement et produire une nouvelle série un peu plus grosse de cartes, et donc viser des marchés un peu plus étendus. Et ce cycle va se répéter jusqu'à ce qu'elle puisse raisonnablement produire des grosses séries de cartes donc avec un coût beaucoup plus faible puisque le prix à l'unitée baisse avec la quantitée et que les investissement auront été remboursés.
Et donc à ce moment là, la carte deviendra interressante au niveau du rapport qualitée/prix, c'est à dire une carte sans grosses prétentions mais à pas cher et avec la philosophie du libre en bonus.
Maintenant si le messieur il libère tout. Les gros fondeurs taiwanais vons pouvoir produire sa carte sans avoir à ammortir les couts de développement ni le prix d'une licence. Ce qui réduit le prix de la carte pour eux.
En plus, ils disposent déjà des usines toutes équipées pour ce genre de production, ils n'ont pas à passer par un intermédiaire, ce qui veux dire que les cartes sont encore moins chères.
Ils ont aussi un compte en banque qui leur permet de produire des grosse séries dès le début donc coûts minimum dès le début.
Et cerise sur le gateaux, mais à mon avis le plus important, ils sont déjà très présents sur le marché et ont donc tous les atoux en mains pour placer cette carte chez les gros acheteurs potentiels.
Donc si cette carte à un potentiel à grande échelle, pendant qu'avec sa petite sociétée il commencera à éssayer de vendre sa carte a un prix élevé (tout est relatif bien sur), à un publique très spécialisé de manière quasiment anonyme en éssayant tant bien que mal de rentrer dans ses frais, avec l'espoir de gagner suffisament d'argent pour produire la prochaine génération de carte.
Les taiwanais, eux, produirons la carte à grande échelle et la vendront en grosse quantitée, par exemple à des assembleurs de PC à bas prix.
Le seul marché sur lequels ils pourra rester dominant est celui des geeks libriste qui lui acheteront la sienne plus chère par solidaritée et conviction.
Le bilan c'est que si sa carte à un réel avenir et qu'il l'ouvre en totalitée, il mettra 20ans à réunir l'argent pour développer la génération suivante.
"le coût d'un logiciel est nul ou négligeable" En fait, ici ce qui est important c'est le cout de reproduction d'un logiciel qui est quasiment nul (en tout cas négligeable...) contrairement à son coût de développement qui peut être énorme, mais une fois développé, en faire 1000, 10000 ou 10000000 copies ne coute quasiment rien et est à la portée de quasiment tout le monde.
Pour un projet hardware tel que OGC, le cout de production de chaque exemplaire est éxorbitant au début et se réduit progressivement dans le temps. Et surtout ce coût de production n'est pas le même pour une petite boite qui sort son premier produit et une énorme boite qui est déjà entièrement équipée et qui à les relations pour vendre le produit en masse.
Remarques :
- j'ai volontairement éxagéré les deux scénarios, mais je ne pense trop me tromper si ça carte à un réel potentiel.
- je conditionne tout ceci sur le fait que la carte ait un réel potentiel, c'est-à-dire qu'il y ai réellement un public non-négligeable interresser par cette carte, c'est-à-dire suffisament important pour que les grosse boite investissent dedans.
[^] # Re: Pas vraiment libre
Posté par Philippe F (site web personnel) . Évalué à 10.
Il se trouve que j'ai créé avec succès deux boites, la première où on faisait un produit purement logiciel, et l'autre où on faisait (et fait toujours) du logiciel pour carte à puce qui doit être en rom.
Dans le premier cas, on produisait des logiciels, dans le second, on produit des microcontrolleurs qui contiennent du code non modifiable. C'est à dire qu'on est très proche du principe d'un produit hardware.
Dans ma première boite, en 1 an et demi, on a dépensé à trois environ 4000 euro. Plusieurs ordinateurs, une licence Visual Studio, une licence Qt plus quelques broutilles. Note qu'au bout de 6 mois, on avait déjà un produit montrable pour convaincre nos clients.
Dans ma deuxième boite, même effectif humain de départ. Rien qu'en logiciel on est déjà autour des 10000 euro (licence des compilos proprio). Il nous a fallu un an et demi pour lancer la première fabrication qui a couté environ 30 000 euro. A partir de ce moment là on a eu des prototypes, non vendables. Pour notre premier produit, on a du relancer une fabrication (un peu moins cher cette fois : 15000 euro) et faire une certification du produit (environ 35 000 euro). Finalement, ce n'est même pas ce produit là qu'on a vendu, il a fallu en refaire un autre.
Et là, je n'ai mis aucun coût de salaire. Juste du matériel, du logiciel et de la production.
Pour en revenir au sujet, les coûts initiaux pour un développement hardware, quoi que tu en penses, sont sans commune mesure avec les coûts de développement software.
<<
Tu répond au cout de production après conception en parlant .. du coup de conception intial.
>>
Pour parler du coût d'un produit, tu es obligé de tenir compte de tous les coûts. Le coût de développement initial est tellement important qu'il impacte de façon majeur la marge que tu dois faire sur la production. Dans mon industrie, on ne commence à faire des bénéfices qu'au delà du millions de pièces produites. Quand le client est exigeant, c'est au delà des 3 premiers millions. C'est super difficile de sortir des marchés de plusieurs millions de pièces, donc c'est difficile de rentabiliser juste le développement.
<<
Elle est où la différence avec le gars qui quitte son boulot, créé sa société, mis son temps pour faire un début de développement logiciel. Ensuite il embauche des gens pour continuer, tester, valider. Il embauche encore quelqu'un pour lui parler du coté fonctionnel et valider les calculs, le travail. Il écrit des specs, des connecteurs.
>>
Il y en a plusieurs des différences. L'idée, c'est que quand tu démarres une société en logiciel, tu réduis les coûts au minimum, et c'est possible :
- tu ne te paye pas de salaire
- en général, tu n'as pas de salarié non plus. Dans le meilleurs des cas, tu as un associé qui comme toi n'a pas de salaire
- les compilos sont libres
- pas de coût de production
- tu peux montrer des prototypes à tes clients sans débourser beaucoup
Au final, tu peux démarrer ton projet logiciel pour quelques milliers d'euro. Typiquement, tu vas commencer en mode garage et quand tu auras un proto qui marche et un client prêt à acheter la version finale, tu envisgeras d'embaucher des gens.
Dans le cas du demarrage d'un projet hardware, même en résuisant les coûts au maximum maximum et en restant en mode garage, tu vas t'en sortir pour 50 000 euro. D'où un besoin beaucoup plus important d'assurer tes arrières.
<<
Tous ces gens ils ont besoin de prendre des précautions pour revenir dans leurs couts, qu'ils fassent du hard ou du soft. Ce n'est pas parce que le soft n'est pas tangible qu'il ne coute rien.
>>
Sauf que les coûts dans l'un et l'autre cas sont d'un rapport 10.
Je vois pas trop ce que je peux dire de plus pour te convaincre. Créée une boite pour vendre du hardware libre, on en reparlera.
<<
Je trouve effarant que sur un site dominé par les informaticiens on arrive encore à lire des textes qui insinuent que le coût d'un logiciel est nul ou négligeable (je parle bien du coût, pas du prix)
>>
Bien sur qu'il y a un coût de production d'un logiciel. Mais le coût de production peut pour la très grande partie être converti en temps qui ne coûte relativement rien (quand c'est le tien). Pour le hard, c'est pas convertible (et en plus, tu as en général le même coût en temps personnel).
Autre problème, le coût d'une erreur. Si tu as un bug grave dans ton soft, tu peux faire une mise à jour et l'envoyer à tes clients et deux jours après, tu es un peu moins crédible mais ton problème est résolu.
Dans une carte à puce, si tu as un bug grave, tu as perdu 45 000 euro et tu dois repayer 45 000 euro pour une nouvelle production et tu repars pour un cycle de fabrication d'environ 4 mois pendant lesquels tu vas perdre des clients.
Rien qu'avec ton exemple de l'informaticien passionné et de l'électronicien passionné, on voit la différence. Pour une informaticien passionné, il faut une babasse et un accès internet et il peut s'amuser. Pour un électronicien passionné, il va falloir une babasse, très probablement un accès internet, un poste à souder, des cartes micro-controlleurs, éventuellement un compilateur proprio s'il utilise du matériel hyper spécifique, plus pas mal de matériel électronique. Si il veut faire du pas moche, il faudra même qu'il se paye un moule en plastique. S'il veut faire 10 protos pour ses copains, il faudra qu'il paye le matériel 10 fois. Alors qu'un logiciel peut être téléchargé des milliiers de fois sur sourceforge sans couter un bezef au développeur.
Ma conclusion : l'electronique coûte plus cher.
[^] # Re: Pas vraiment libre
Posté par briaeros007 . Évalué à 10.
mail de timothy miller:
voila je crois que c'est clair non ?
(pour ceux qui ont du mal avec l'anglais :
Richard Stallman m'a récemment contacté par mail, me demandant si il y avait une possibilité d'une collaboration entre ogp et la fsf
Je commencerais par un extrait de son mail :
Richard Stallman a écris :
Nous encourageons l'idée de design hardware liibre, mais nous ne pensons que ce soit éthiquement obligatoire que tous les designs hardware soient libre, parce que la plupart des utilisateurs ne peuvent pas transformer le design hardware en matériel palpable.
[^] # Re: Pas vraiment libre
Posté par achil . Évalué à 5.
Si on essaye de chercher une analogie entre la vision du hardware que tu nous propose avec les licenses des logiciels, ce serait plus probablement la license BSD que la GPL qui correspondrait ici, en cela que des sociétées tiers récupéreraient à moindre coût et sans la moindre obligation le travail d'autrui.
Dans le cas où les shémas et autres documents de spécification seraient sur une license de type GPL (je n'ai aucune connaissance dans le cas où cela serait faisable ou pas, c'est plus une interrogation qu'autre chose) comment ton petit taiwanais pourrait il légalement exploiter ce travail? Il doit bien y avoir une protection intellectuel quelconque (même les brevets je présume) afin de protéger de tels travaux non?
Il y a désormais un certain temps, Sun a je crois libéré certains de ces processeurs, qu'elles ont été les conséquences? Les deux cas sont ils très différents?
[^] # Re: Pas vraiment libre
Posté par Nicolas Boulay (site web personnel) . Évalué à 3.
"La première sécurité est la liberté"
[^] # Re: Pas vraiment libre
Posté par taratatatata . Évalué à -4.
Ce n'est pas une histoire d'intégrisme mais de plus value. Le core 3D est fermé ? pourquoi j'acheterais ça et pas une carte mère avec un chip intel ? mais pourquoi donc ?
En plus AMD a un mal fou à poursuivre intel dans la lutte alors je m'en tape des procs AMD.
[^] # Re: Pas vraiment libre
Posté par M . Évalué à 7.
La derniere fois que j'ai regardé les driver intel, il y avait un binnaire proprio pour gerer le macrovision (sortie analogique).
Y a t il des specs (datasheet) pour les cartes intel, ou alors on a que les drivers libres et il faut attendre le bon vouloir des develo intel pour avoir tel fonctionnalité ?
De plus est ce que tous les chipsets intel supporte une sortie tv, une sortie dvi (voire 2), ...
Enfin quel sont les perfs des cartes intel par rapport a ATI et NVIDIA ?
PS :
des personnes sont bien prette a donner pour avoir un pilote libre pour les cartes nvidia, alors qu'il a peut de chance d'avoir les meme performances que le driver proprio nvidia.
[^] # Re: Pas vraiment libre
Posté par briaeros007 . Évalué à 10.
Ce qui sera 'fermé' c'est ... le code verilog !
C'est à dire le fonctionnement interne de la puce
Par contre tu auras toutes les specs dont tu peux réver.
Je me souviens pas qu'intel donnait le code vhdl de ses puces .
Bref :
du coté logiciel -> entièrement libre
du coté doc -> disponible
du coté code hardware -> caché jusqu'a ce qu'il soit rentré dans ses frais.
Petit rappel : la mise en place d'une production d'asic c'est ... 2 millions de dollar. Je pense que tu peux comprendre qu'il a pas envie qu'une personne avec plus de facilité de caisse vienne , copie la puce (on parle des branchements INTERNES de la puce) et lui pique tout la r&d faite avant.
# performances
Posté par patrick_g (site web personnel) . Évalué à 4.
our target is a frame rate of between 20 and 30 FPS on Quake III at 1280x1024.
C'est donc assez correct (largement suffisant pour faire fonctionner compiz).
[^] # Re: performances
Posté par fork_bomb . Évalué à 7.
En plus si le prix est élevé, je ne vois pas qui en voudrait : une radeon 7500 ou une carte intel avec drivers libre serait bien plus intéressant...
[^] # Re: performances
Posté par Guillaume D. . Évalué à 6.
chez ATI, le premier prototype en FPGA du X800 il faisait combien de fps sous Q III ???
[^] # Re: performances
Posté par ragoutoutou . Évalué à 2.
En plus, du pci, ça a peu ou pas d'intéret pour l'utilisateur, ce format va disparaître complètement.
[^] # Re: performances
Posté par briaeros007 . Évalué à 3.
2°) Pourquoi le bus pci ?
Parce qu'il permet un débuggage plus simple. Je rapelle que c'est encore en dvp. Si a chaque test tu fait completement planté ta cg principale (agp par ex) ben forcément la ca va etre un peu plus chaud
Ensuite les normes (agp ou pci express) sont issus de la norme pci.
[^] # Re: performances
Posté par fork_bomb . Évalué à 3.
Ma MX400 le fait, et elle est nettement moins performante qu'une GTS ou une ultra.
Que ce soit en PCI, en AGP ou en PCIexpress, une carte qui envoie de la merde risque toujours de faire planter la machine.
Mais de toute façon ça n'a pas grande importance vu que la machine de test n'est pas celle de développement, et qu'elle va certainement booter sur une suite de tests, donc au plus noyau linux+2-3 programmes, donc le reboot ne sera pas très long.
[^] # Re: performances
Posté par briaeros007 . Évalué à 1.
pas plus que ma mx200
on a pas dis 30 fps en 640*480, on a dis en 1280*1024 hein.
Que ce soit en PCI, en AGP ou en PCIexpress, une carte qui envoie de la merde risque toujours de faire planter la machine.
Tu sais que tu peux merder dans le code verilog du pipeline 3d mais que le code pci soit tout a fait correct.
(je me demande meme si ils ont pas utilisé 2 puces séparé pour ca : une pour la gestion du pci , et une pour le core graphique proprement dis).
donc le reboot ne sera pas très long.
Ouais c'est sur, puis faut aussi avoir une machine sur lequel tu vois ce que tu tape pour balancer la mise a jour pour mettre la rom à jour sur le bon firmware. A moins que tu veuille le faire dans un test par défaut, et dans ce cas c'est super simple tu test un truc.Ah merde faut que je reboot
Tu test un autre ... a merde a nouveau
Un troisième ... a non toujours pas.
Je suis pas sur que ton linux apprécie tant que ca les reboot hard que tu lui inflige a chaque fois que tu dois débugger une ligne.
Compte le nombre de fois que tu corrige une erreur sur un code. Et imagine si tu dois rebooter à chaque fois.
[^] # Re: performances
Posté par briaeros007 . Évalué à 2.
autant pour moi , effectivement elle les atteints :
http://www.hardware.fr/articles/329-3/nvidia-geforce2-mx-200(...)
(j'ai du confondre alors avec ma mx200)
[^] # Re: performances
Posté par Frédéric Lopez . Évalué à 2.
30 FPS en 640x480, ma TNT2 faisait déjà beaucoup mieux, alors une GeForce 2...
Voir : http://www.tomshardware.com/2002/04/18/vga_charts_i/page4.ht(...)
Quake 3 - 1024x768 - 32 bits :
GeForce 2 Ultra : 135.5 FPS
GF2 MX 400 32MB : 59.5 FPS
TNT 2 : 22.7 FPS
[^] # Re: performances
Posté par briaeros007 . Évalué à 2.
Puis quand à l'erreur je m'en suis rendu compte ;) (cf le message juste au dessus du tien ;))
(ps et c'est pas du 1024*768 qu'on demandait mais du 1280*1024 , et ma mx400 atteint 40 fps en 1280*1024 en 32 bits)
[^] # Re: performances
Posté par ragoutoutou . Évalué à 3.
Quake 3 utilise un moteur qui, par les standards actuels, est complètement dépassé, je n'ose même pas imaginer les fps avec une carte récente genre 8800GTX...
En tout cas, je réitère: si l'objectif est 30fps en 1280x1024 sous quake III, c'est pas réaliste pour du cad, de l'imagerie, ... Eventuellement pour de la bureautique, et encore...
ben, non... le mieux est d'avoir une machine de développement et une machine de test, la seconde utilisant effectivement le hardware en développement, de sorte que si tu plantes la bécane complètement, tu ne perdes pas tes opérations en cours (qui elles sont sur la bécane de dev, qui est équipée d'une carte graphique stable)... Et puis, il y a un truc magnifique avec les linux et unix: même avec l'affichage planté, tu peux toujours te connecter en mode terminal, via port série, ssh, ...
[^] # Re: performances
Posté par spart . Évalué à 8.
non, on parle d'objectif du prototype:
"With our development card and the OGA1 GPU, our target is a frame rate of between 20 and 30 FPS on Quake III"
Donc mieux vaudrait éviter les jugements prématurés...
[^] # Re: performances
Posté par ragoutoutou . Évalué à 0.
D'abord, sur le site de la carte, la section mise en gras dans la phrase est exactement l'inverse de celle que tu as mis en gras. L'emphase étant bien mise sur le fait que l'objectif est 30fps et non le fait qu'il s'agisse d'une carte de développement. Sans doutes une erreur de communication, ou du marketing mal placé.
Enfin, si la carte de développement atteint les 30fps sous quake 3 (on y est pas encore, ce n'est qu'un objectif), on aura pas magiquement 300fps avec la carte de production, à moins de tout recommencer depuis zéro avec une architecture beaucoup plus puissante.
Donc pour le cad, la video HD, l'imagerie, le jeu, ... ça me semble un peu rapé... par contre, pour faire une carte bureautique, ou pour mettre dans des serveurs, ça devrait convenir si le prix est raisonnable. Sinon, avec une carte basée sur un chip fpga, les demomakers devraient bien s'amuser ...
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 2.
La différence sera la fréquence d'horloge, c'est tout.
"Donc pour le cad, la video HD, l'imagerie, le jeu, ... ça me semble un peu rapé... "
Pour les jeus direct X 10, oui, pour les autres non. L'imagerie et autre effet 3D marcheront bien. Le créateur du projet connait bien les problèmes de qualité d'images, la carte aura donc une "belle" sortie analogique.
"La première sécurité est la liberté"
[^] # Re: performances
Posté par ragoutoutou . Évalué à -1.
Ben non, la grosse différence sera un passage à l'asic... c'est pourtant marqué... ça fera d'office une plus grande différence q'un simple changement de fréquence.
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 3.
Et d'un point de vue design, la seul différence sera la fréquence plus haute permise. La téchnologie permet aussi de baisser la conso et le prix.
Mais d'un point de vue design logique, cela sera exactement la même chose ! Le FPGA sert de plateforme de développement, à quoi sert une plateforme de dev, si tu veux faire ensuite quelques choses de complètement différent !
"La première sécurité est la liberté"
[^] # Re: performances
Posté par ragoutoutou . Évalué à 1.
Ce serait dommage de ne pas profiter du passage à l'ASIC pour faire du tuning... Le stade fpga est une opportunité pour travailler les algorithmes, le passage à l'ASIC est l'étape où on travaille et on optimise le design hardware pour assurer l'exécution de ces algorithmes sans goulots, ça ne devrait jamais être une traduction à l'identique. C'est là qu'on peut augmenter le nombre de certaines unités, faire le tuning des caches, ... Il y a d'énormes opportunités d'optimisation dans ce processus.
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 2.
Et tu valides comment ton design, si tu ne peux pas le vérifier sur une plateforme de test !
Il est évident que les optimisations ne seront pas orienté FPGA mais asic au moins en partie.
"La première sécurité est la liberté"
[^] # Re: performances
Posté par ragoutoutou . Évalué à 3.
Tu ne peux pas tout valider sur un système fpga. En dehors de l'optimisation logique, il y a les problèmes de distribution électrique, de répartition thermique voir d'interférences sont à concevoir en dehors de l'approche fpga. En mettant en place le design logique sur fpga, les développeurs rencontreront forcément des limitations opérationnelles liés au fpga lui-même, limitations qui pourront sauter au moment du passage en asic si elles sont correctement comprises et q'un plan B est modélisé.
On ne peut pas modéliser tout via le fpga, il faut juste vivre avec celà, c'est une méthode intéressante pour approcher la logique finale, mais elle est limitée et il serait dommage de traduire de manière stricte les limitations du fpga dans le design de l'asic.
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 2.
Tu dis toi-même que le FPGA ne permet pas de tout modéliser, mais permet tout de même de valider le fonctionnel mais tu proposait de modifier le fonctionnel sans pouvoir faire de test.
Bref, cela ne fait pas tout mais tu voudrais en faire encore moins ?
ps:
"les problèmes de distribution électrique" -> problème du fondeur ou du designer de carte
"répartition thermique" -> idem
"d'interférences" -> que pour les cartes pour l'instant (très peu pour le gusse qui fait le layout chez le fondeur)
"La première sécurité est la liberté"
[^] # Re: performances
Posté par ragoutoutou . Évalué à 4.
et hop, vive le ton condescendant...
Tu peux valider des blocs, tu peux, si tu es structuré, avoir une approche où le nombre d'instances d'une unité modélisée change entre la version fpga de la logique et la version asic.
Le fpga est un outil de modélisation mais ne devrait pas être utilisé comme limite de complexité. On pourrait imaginer un architecture modulaire où on configure un noyau d'affichage et ou rajoute des éléments de configuration modulaires comme des overlays hardware, des shaders, des unités de streaming, ... le tout en validant les blocs un à un et en décidant de les incorporer ou non dans telle ou telle version de l'asic, ce qui permet de spécialiser telle ou telle version de la puce pour tel ou tel besoin. IBM, par exemple, utilise une approche un peu similaire pour son architecture powerpc pour le marché de l'embarqué.
Pas tout à fait d'accord... Si ton modèle est purement logique et ne tenant pas compte de l'aspect physique, ou pas assez modulaire, il sera beaucoup plus difficile pour ton fondeur pour déplacer des blocs pour rééquilibrer la dissipation thermique dans la puce.
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 5.
Quand tu dois mettre 2 ou 3 m¤ sur la table, tu prends le moins de risque possible. Même si tu peux multiplier les core 3D dans la puce par rapport à la version FPGA, il y a toujours le problème des points uniques d'entrée : bus mémoire, bus IO, sortie video.
L'arbitrage de bus pose des problèmes extrèment subtile de latence et doit être complétement validé. Bref, une validation unitaire ne t'assure absolument pas une validation de l'ensemble. Il suffit d'une erreur de spec et cela arrive tout le temps.
Il n'y aura pas 50 version de l'asic, cela coute déjà très chère d'en faire une !
IBM n'utilise pas du tout cette téchnique. C'est un vendeur d'IP ou de core pour être plus précis. Comme ARM vend des coeurs de cpu arm, ibm vende des core ppc. La validation des interfaces avec le reste oblige toujours simuler (mais bon 3 jours pour 10ms, on ne va pas loin), ou encore d'avoir des accélérateurs de simu comme ceux de cadence ou encore des cartes à base de fpga.
Le fondeur peut remonter des problèmes de point chaud. Mais ogc va tapper dans les 2-3 millions de portes, cela n'est pas comparrable au 100 millions d'un SOC de téléphone portable.
"La première sécurité est la liberté"
[^] # Re: performances
Posté par ragoutoutou . Évalué à 1.
Le problème, c'est que si on est pragmatique et réaliste, on investi pas dans un marché comme les cartes graphiques, surtout pour faire un produit qui sera complètement à la ramasse face à à peu près toute la concurrence.
Qui achètera cette carte? Pour quelles raisons? A l'heure actuelle, sur le site de Traversal Tech, le prix envisagé est d'au moins 1000$ pour le prototype fpga... ça va refroidir pas mal de personnes intéressées, un tel investissement... il faudrait des garanties que la montagne ne va pas accoucher d'une souris si on veut une communauté significative sur le développement du système.
On peut donc attendre que la carte trouve d'elle-même son public (ou qu'on découvre qu'il n'y en a pas), ou alors on peut pousser la réflexion un peu plus loin et chercher un moyen de se repositionner rapidement sur le marché selon les besoins. L'approche modulaire n'est pas la solution, mais peut être un début de solution: il y a des dizaines d'idées qui pourraient venir se greffer sur la colonne vertébrale de la carte et en faire des produits uniques dont certains pourraient avoir du succès. C'est aussi ça l'avantage d'un projet ouvert sur une communauté, il viendra peut-être des idées de modules inédits, qui, s'ils ne sont pas tous intégrés dans une version généraliste de la carte, mériteront une implémentation dans une version spécialisée.
Sinon, certes ibm est une boîte IP, mais quand ils te licencient un core, tu peux/dois avoir accès à une solide consultance de leur part sur le sujet, et ils peuvent te tenir par la main (et le porte-feuille) de la pré-étude jusqu'à la production des puces dans leurs infrastructures. De ce que j'avais lu, ils ont déjà pas mal modularisé leur architecture power 5 dans cet objectif.
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 2.
Une carte de dev fpga équivalente peut couter jusqu'à 10 000¤ sur le marché. Cela n'a pas l'air comme ça, mais c'est en fait donné...
"La première sécurité est la liberté"
[^] # Re: performances
Posté par ragoutoutou . Évalué à 1.
certes, je veux bien te croire sur parole... mais ça met tout de même l'investissement assez haut pour le hobbyiste désireux de s'investir dans le projet.
Entre ça et acheter une carte graphique plus classique et essayer de contribuer à ses pilotes, il y a clairement un pas que justement le pragmatisme tendrait à influencer.
Et le pire, c'est effectivement cette carte est en plus sans doutes vendue à pertes (en tout cas pour le milieu académique).
Tout ça pour ça...
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 2.
"La première sécurité est la liberté"
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 2.
Concernant les nouvelles idées, cela pourra se faire avec le fpga mais difficilement avec un asic. L'idée de charger le fpga en fonction de l'application est très tentant mais la technologie reste trop chère.
La carte sera opengl 1.3 ce qui est déjà pas mal. Il y a aussi des features comme les grosses résolutions, les conversion yuv <-> rgb et quelques opérations 2D accéléré.
Les shaders et autres seront vu ensuite.
"La première sécurité est la liberté"
[^] # Re: performances
Posté par gpe . Évalué à 4.
50 peut-être pas mais entre 5 et 15 ça me semble assez courant. Je ne suis pas en expert en la matière mais ayant travaillé (côté logiciel) dans des boîtes qui faisaient du chip et qui passaient par des fpga, celà n'empêchait pas d'avoir jusqu'à 15 itérations en version fondue...
Et actuellement le chip fournit par un sous-traitant sur lequel je travaille en est à sa 10e itération (qui semble être la dernière)...
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 2.
"La première sécurité est la liberté"
[^] # Re: performances
Posté par gpe . Évalué à 2.
[^] # Re: performances
Posté par briaeros007 . Évalué à 1.
quand vous dites 'jusqu'a 15 puces style de puce fondues' il s'agit de :
15 variations du chips , mais où (presque) chacune des variations est fonctionnelle et on peut la vendre
et
15 variations du chips où seul la dernière est fonctionelle ?
[^] # Re: performances
Posté par gpe . Évalué à 1.
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 3.
Certaines personnes préfairent avoir un driver complet (avec swsupend, gestion multiécran correct et extention X11) et stable, plutot que des perfs brutes.
"La première sécurité est la liberté"
[^] # Re: performances
Posté par fork_bomb . Évalué à 2.
Quant au driver complet, c'est une bonne idée, mais l'idée est d'avoir une carte qui supporte aiglx et compagnie avec des perfs décentes. Si tu veux avoir ton multiécran avec aiglx, ta carte risque de se montrer assez insuffisante. Et je ne parle pas des autres joujous 3d que l'on voudrait utiliser sans être hardcore gamer.
D'ailleurs si les perfs 2d sont du même acabit que les perfs 3d, cette carte sera également assez limitante pour les opérations de défilement, avec les zolies icônes avec preview et tout.
[^] # Re: performances
Posté par DjeFr . Évalué à 1.
En attendant je me satisfait de ma vieille geforce3 avec drivers proprios (en attendant de pouvoir jouer à xmoto avec nouveau)
[^] # Re: performances
Posté par Thomas Debesse (site web personnel) . Évalué à 4.
Si oui on peut dès lors annoncer le score. ^^
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 2.
"La première sécurité est la liberté"
[^] # Re: performances
Posté par ragoutoutou . Évalué à 2.
Même en 2D il y a de nombreuses opérations qui dépendent de la vitesse de connexion au bus et de la vitesse du chip graphique (opérations blit, conversion d'espace couleur, correction des couleurs, gamma, ...)
Si la vitesse du chip graphique et la connexion au bus sont insuffisantes, la vitesse pure de la ram de la carte graphique passe sérieusement au second plan.
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 2.
Tu n'a jamais entendu parler de la limitation de bande passante par rapport aux calculs pour les cpus ?
Non, parce que un asic, c'est du cablé donc encore bien plus efficace qu'un cpu (le fpga contient 96 multiplieurs 18x18 bits...). Donc dans les opération simples (ce que j'ai bien précisé), cela sera toujours la bande passante qui sera limitante.
Pour la vitesse du bus de connection, cela ne rentre en compte que pour visionner de la video. Et encore, les limites apparaissent avec la HD. en comme dis 50x sur la page, le pci a été choisi par facilité de développement, rajouter un pont pci<->pci express ne sera pas bien difficile !
"La première sécurité est la liberté"
[^] # Re: performances
Posté par ragoutoutou . Évalué à 2.
Et toi, tu as déjà entendu parler de cpu's n'exploitant pas la bande passante à cause de la complexité des opérations?
Certes le fpga est puissant, mais pour de la 2D pure, va t'il vraiment exploser un asic dédié avec une progression directement égale à l'augmentation de la bande passante?
Si je met de la ram ddr2 800 sur mon pc en lieu et place de ddr2 400, mon pc sera t'il vraiment 2x plus rapide?
[^] # Re: performances
Posté par Nicolas Boulay (site web personnel) . Évalué à 2.
Oui évidement. Il y a eu des testes à l'époque ou l'on pouvait choisir entre des bus mémoires 64 ou 128 bits. Les différences se jouait sur 10% pas plus.
Par exemple, pour un codec video, la dct bouffe 99% du temps cpu est n'est pas limité par la mémoire.
Idem pour la compression AES où il parle de 20 cycles cpu par octet.
Un algo "cpu bound" ne sera jamais limité par la mémoire... par définition.
"Certes le fpga est puissant, mais pour de la 2D pure, va t'il vraiment exploser un asic dédié avec une progression directement égale à l'augmentation de la bande passante?"
Tu veux dire quoi par là ? Qu'un FPGA est moins "rapide" que son équivalent ASIC, ce qui est évident ? Qu'un ASIC dédié est plus rapide qu'un ASIC pas dédié ?
"Si je met de la ram ddr2 800 sur mon pc en lieu et place de ddr2 400, mon pc sera t'il vraiment 2x plus rapide?"
Comme dit plus haut, cela dépend des algos...
"La première sécurité est la liberté"
# ATI/Nvidia
Posté par adam0509 . Évalué à 1.
J'espère qu'avec le rachat par AMD, ATI va nous pondre des drivers open-source, il serait vraiment temps, parceque leurs drivers (Windows ou Linux) sont véritablement à chier...
[^] # Re: ATI/Nvidia
Posté par briaeros007 . Évalué à 4.
[^] # Re: ATI/Nvidia
Posté par Markov . Évalué à 1.
Je crains fort que seul des efforts de reverse engineering puissent changer la donne; a moins que NVidia et AMD finissent par en avoir marre du model Vista (pour de "basse" raisons financieres) et lachent microsoft. Mais je suis de nature pessimiste et je vais relire 1984 du bon vieux George afin de me preparer pour le monde de demain.
[^] # Re: ATI/Nvidia
Posté par Misc (site web personnel) . Évalué à 8.
Et quand on connait pas ?
[^] # Re: ATI/Nvidia
Posté par Markov . Évalué à 3.
[^] # Re: ATI/Nvidia
Posté par François B. . Évalué à 5.
[^] # Re: ATI/Nvidia
Posté par ragoutoutou . Évalué à 3.
[^] # Re: ATI/Nvidia
Posté par reno . Évalué à 3.
C'est une possibilité bien sûr, mais AMD n'a rien dit|promis sur ce sujet.
# Et sinon
Posté par bergamote23 . Évalué à 3.
elle va correctement gérer la protection de contenu de première qualité ou pas ?
[^] # Re: Et sinon
Posté par Thomas Debesse (site web personnel) . Évalué à 9.
Exemple le terminal de l'IRM : pas de HDCP tout ça, pas de soucis, pas de risque de dégradation, pas de risque pour le patient.
C'est *LA* carte sans moins-value !
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Et sinon
Posté par glattering . Évalué à 2.
C'est assez bien vu de la part de l'instigateur du projet.
Par contre, du coup, il a tout intéret à ce que Vista se répande, à quand le lobby de open graphics pour l'adoption de Vista? :p
[^] # Re: Et sinon
Posté par liberforce (site web personnel) . Évalué à 2.
Oui, bon, on peut toujours rêver...
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.