Journal OpenGraphic

Posté par  .
Étiquettes : aucune
0
15
nov.
2006
L'equipe d'opengraphic a mis en ligne les premieres photos de sa carte.
Bon ce ne sont que des photos mais c'est deja ca :o)
http://www.traversaltech.com/ogd1_photos/set1/

Pour rappel le but d'opengraphic est de produire une carte 3d donc les spec seront libre pour permettre a la communauté libre d'avoir des drivers libres.
  • # Floues

    Posté par  . Évalué à 10.

    J'espère que la carte ne va pas produire des images aussi floues que ces photos. Nul doute qu'ils maîtrisent mieux la manipulation des registres que la notion de profondeur de champ. :)
    • [^] # Re: Floues

      Posté par  (site web personnel) . Évalué à 6.

      Plus exactement, et humour mis à part, c'est du flou "de bougé" dû au manque d'éclairage. Pour preuve, une des rare photos qui n'est pas trop floue est celle où le flash se reflète sur la carte (masquant la moitié de celle-ci ;-))

      C'est le problème des petits appareils numériques... Il faut systématiquement un pied quand le soleil manque.

      Bon, ça fait plaisir de la voir enfin, cette carte, mais OpenGraphics ne communique pas sur des dates et prix, en même temps que d'annoncer des photos ?
    • [^] # Re: Floues

      Posté par  . Évalué à 3.

      Faut dire que faire des photos d'un PCB c'est pas facile, il y a toujours plein de reflets etc...
      La plupart du temps ça met les mode "auto" en echec.
      • [^] # Re: Floues

        Posté par  . Évalué à 7.

        Généralement, une fois qu'on sort le PCB de sa cave et qu'on prend la photo en pleine journée, c'est plus simple.
        • [^] # Re: Floues

          Posté par  . Évalué à 1.

          Il y a une méthode qui marche très bien c'est tout simplement de scanner la carte. J'étais dubitatif au début mais le résultat est vraiment propre. Évidemment ça donne une perspective un peu étrange.
          • [^] # Re: Floues

            Posté par  . Évalué à 7.

            ou encore de poser l'appareil sur la table en face de la carte... ca fait un pied pas cher.
    • [^] # Re: Floues

      Posté par  . Évalué à 10.

      C'est pour que d'autres personnes ne repompent pas le design.

      ===>[]
    • [^] # Re: Floues

      Posté par  . Évalué à 10.

      Rassure-toi, j'ai obtenu en exclusivité le premier screenshot de l'affichage de cette carte : http://oligo.nerim.net/screenshot.png - rien à craindre.
  • # mouais

    Posté par  . Évalué à 10.

    on reste dans le flou total...
  • # et bien je sais pas vous...

    Posté par  (site web personnel) . Évalué à 10.

    mais moi, elle me plait bien cette carte !!!

    Si elle tient toutes ses promesses :
    -> bonnes gestion 3D (pour béryl/compiz)
    -> pas forcément des perfs monstrueuses
    -> la garantie de drivers de qualité

    Le tout pour un prix raisonnable pour une carte produite en petite série (200-300euros ... j'espère pas bcp plus ).

    A ce moment la, je suis pret a casser ma tirelire plutot que m'orienter vers un GPU 15 fois trop puissant pour mon utilisation.
    • [^] # Re: et bien je sais pas vous...

      Posté par  . Évalué à 4.

      Le support complet de XGL et autres bureaux 3D qui fleurissent en se moment serait vraiment ultime, ca permettrait de monter une machine moderne pour le Desktop gérée parfaitement Linux. A voir si ils peuvent pas trouver un accord avec un assembleur de PC style HP pour créer une offre spécial linux.

      Un point qui n'a rien à voir avec ce fil de commentaire, mais Intel a dernièrement libéré ces GPU non? Ils sont en concurrence ou bien OpenGraphic est encore plus libre qu'Intel? :D
      • [^] # Re: et bien je sais pas vous...

        Posté par  (site web personnel) . Évalué à 6.

        le support d'XGL... j'espère pas ;) j'espère que ca va être directement compatible avec Xorg et AIGLX.

        Mais moi qui me dit que je vais bientot me refaire un ordi... si cette carte sort d'ici un délai raisonnable (pas 2 ans)... mmmmmmm krémaaa.

        Et puis... je vois pas bien comment beryl/compiz pourraient ne pas être supportés :
        Avec un pIII 500 et une geforce 2, une mandriva One sur Live-CD marche impeccablement bien. Elle a 6 ans c'te carte.
      • [^] # Re: et bien je sais pas vous...

        Posté par  (site web personnel) . Évalué à 1.

        Sur mon Mactel (Mac Mini), en tout cas, Beryl et AIGLX marchent du tonnerre et sans driver proprio. Juste madwifi pour le wifi, hélas...
        • [^] # Re: et bien je sais pas vous...

          Posté par  . Évalué à 1.

          Tiens... c'est pas libre madwifi ?
          Dans /path/to/madwifi...20061027/COPYRIGHT je lis :
          All files contained in this distribution are covered by the following
          copyright unless explicitly identified otherwise.
          suivi d'un truc qui ressemble à BSD (redistribution source/binaire avec les restrictions : garder cette note de copyright et les avertissement (no warranty), doit afficher no warranty, et pas permis d'utiliser les noms des développeurs

          ou au choix sous GPL v2.

          C'est pas libre ? J'ai raté quelque chose ? Ou bien tu parles d'un firmware quelconque ?
  • # Concurrence Intel

    Posté par  . Évalué à 1.

    Aujourd'hui, les cartes Intel disposent de pilotes libres et qui permettent de profiter des bureaux 3D de manière fluide (testé sur une carte 945GM et Mandriva 2007). Bien sûr, le choix de carte Intel limite les configurations matérielles possibles pour le reste (carte-mère), et open graphics aura l'avantage de pouvoir être installée sur n'importe qu'elle config. Mais est-ce que les performances de cette carte seront meilleure que celles des cartes intégrées Intel ?
    • [^] # Re: Concurrence Intel

      Posté par  . Évalué à 2.

      Performances pour faire quoi ?
      Qui a besoin de plus de perfs ?
      Pour quel travail ?
      Quel jeu ?
      Combien de personnes ?

      Je fais beaucoup de migrations Linux (vers hein, pas depuis), dans des petites structures du domaines artistiques. Autrement dit des postes de bureautque, numérisation images, PAO, retouches photos, numérisation son, .... Autant de domaines ou je préfère une carte stable et qui marche bien. Pas besoin de perfs démentes.

      Tout ça pour dire, qu'à mon avis le besoin et la clientèle existent en entreprise.

      "La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay

      • [^] # Re: Concurrence Intel

        Posté par  (site web personnel) . Évalué à -1.

        Et, en toute logique, puisque tu n'en as jamais eu l'utilité tu supposes donc que ça ne sert à rien et ne servira jamais à personne ?
        • [^] # Re: Concurrence Intel

          Posté par  . Évalué à 2.

          eh ?
          où diable ai-je dit ça ?
          J'évoquais juste, via des questions, des situations pour lesquelles on n'a pas besoin de cartes graphiques très puissantes.
          1. Et d'ailleurs, (1) les perfs me sont indispensables personnellement. Reste que (2) plein de monde, pour qui je bosse, n'en a pas besoin.
          Tout ça pour dire, qu'à mon avis le besoin et la clientèle existent en entreprise (au moins).

          Mais c'est vrai, j'aurais pu être plus clair.
          Et toi moins sévère ! :-)

          "La liberté est à l'homme ce que les ailes sont à l'oiseau" Jean-Pierre Rosnay

      • [^] # Re: Concurrence Intel

        Posté par  . Évalué à 2.

        Je vais reprendre tes questions dans un autre ordre.

        Pour quel travail ?

        Modélisation/animation/visualisation 3D temps réel d'ordre artistique, mathématico-scientifique et j'en passe.

        Performances pour faire quoi ?

        Pour les travaux pré-cités.

        Qui a besoin de plus de perfs ?

        Les infographistes/scientifiques qui font ces fameux travaux

        Quel jeu ?

        Ben, c'est avant tout un outil pour eux. Tiens, comme l'ordinateur en fait :p
        J'admet répondre à moitié à celle-là, mais ma demonstration avait un autre but, celui de présenter une autre franche d'utilisateur et pas des moindres.
        Aussi, indirectement ça montre le conditionnement de certains ne voyant que le côté video-ludique de 3D


        Combien de personnes ?

        Bien plus que tu ne peux l'imaginer.
    • [^] # Re: Concurrence Intel

      Posté par  . Évalué à 5.

      open graphics aura l'avantage de pouvoir être installée sur n'importe qu'elle config

      Pas forcément. Pour le moment, les devs prévoient de sortir une version PCI puis par la suite AGP. Le problème c'est qu'on est passé au PCI-E et le temps que la carte sorte, il n'y aura peut être plus de PCI sur les cartes mères.
      C'est un peu comme la Radeon 9200. On la montre partout comme l'exemple de carte super bien supportée, qui permet de faire tourner toutes les extensions de la mort... sauf que d'une ça devient rare et de deux elle est AGP et toutes les cartes mères récentes sont PCI-E. Des gens se sont bien arrachés pour faire des drivers libres mais le temps que ça émerge, bah, c'est un peu tard.
      • [^] # Re: Concurrence Intel

        Posté par  (Mastodon) . Évalué à 2.

        « il n'y aura peut être plus de PCI sur les cartes mères. »
        Le PCI-E est censé remplacer le PCI normal ?
        Parce qu'il me semble que c'est actuellement seulement utilisé pour les cartes graphiques, et que les cartes mères sont encore comme avant : entièrement PCI, avec un port qui n'est plus AGP mais PCI-E (deux parfois, mais c'est pour mettre deux cartes vidéos en SLI).

        C'est prévu que ça change ça ?
        Les cartes d'acquisition, les cartes SCSI, les cartes sons, les cartes réseaux, donc on a tous l'habitude en PCI, vont finir remplacées par autre chose ?
        Actuellement on peut toujours mettre une carte graphique PCI à côté du port PCI-E ou AGP, et ça marche...

        Yth.
        • [^] # Re: Concurrence Intel

          Posté par  (site web personnel) . Évalué à 3.

          A court/moyen terme, oui, le PCI-E semble bien parti pour remplacer complétement le PCI : déjà la plupart des nouvelles cartes mères n'embarquent plus que 2 slots PCI.
          Les slots pour les cartes graphiques sont dit PCI-E 16x.
          Mais tu trouves déjà en plus un ou plusieurs slots 1x ou 4x et des cartes réseaux ou SCSI à ces formats.
          (Une carte réseau Gigabit est limité par la bande du bus PCI...)
          • [^] # Re: Concurrence Intel

            Posté par  . Évalué à 2.

            1Gigabit/s = 128Mo/s
            PCI = 32bits * 33Mhz = 132Mo/s

            Ca rentre tout juste mais avec les 4Mo/s qui restent on a largement de quoi faire passer plein de flux audio en qualité CD (150ko/s) ou même un p'tit contrôlleur USB pour y brancher un scanner/apn/mp3/clef usb

            BeOS le faisait il y a 20 ans !

            • [^] # Re: Concurrence Intel

              Posté par  (site web personnel) . Évalué à 3.

              1Gigabit/s = 128Mo/s
              PCI = 32bits * 33Mhz = 132Mo/s


              Le réseau ethernet est full duplex, c'est-à-dire 1 gigabit en entrée et un autre en sortie. Donc il nous faut de l'ordre de 2*128Mo/s de débit sur le bus pour que ça passe. Ce qui veut dire qu'on ne peut pas atteindre les débits maximaux du gigabit avec une carte PCI standard.
              • [^] # Re: Concurrence Intel

                Posté par  . Évalué à 1.

                Elle est pas intégrée à ta carte mère ta carte réseau à toi?
                • [^] # Re: Concurrence Intel

                  Posté par  (site web personnel) . Évalué à 4.

                  Je me trompe peut-être mais le fait que la carte soit intégrée ne dispense pas de la necessité d'établir une communication par bus pci entre le chipset réseau et le chipset de la carte elle-même.
                  • [^] # Re: Concurrence Intel

                    Posté par  . Évalué à 2.

                    Pas forcément, toutes les cartes intégrées n'utilisent pas toutes le bus PCI. Par exemple chez Intel, au moins les cartes réseaux sont sur le bus CSA, depuis quelques temps.
          • [^] # Re: Concurrence Intel

            Posté par  (site web personnel) . Évalué à 1.

            Oui, enfin c'est un peu le bordel ce PCI-E. 1x, 4x, 8x, 16x ! C'est quoi ce bazard (en plus, il y a tous les autres PCI...).

            Je veux faire de l'acquisition, j'achète quoi comme carte ?

            Je crois qu'il faut que cela décante un peu et qu'il reste éventuellement que deux slots : un rapide et un lent. Là, avec la multiplication des types de slots, ca fait plutôt peur.

            Pourquoi n'avoir pas choisi les deux seuls format : PCI-E 16x et 4x

            Moi, le PCI-E 1x, je ne l'aime pas. Ce petit machin, j'ai du mal à croire que ma carte va tenir correctement dedans. En plus, avec tous les périphériques en USB2 ou en IEEE1394b (voire ethernet), c'est quoi qu'on va mettre sur ce genre de slot ?
            • [^] # Re: Concurrence Intel

              Posté par  (site web personnel) . Évalué à 2.

              > [...] c'est quoi qu'on va mettre sur ce genre de slot ?
              >

              Des cartes d'extension ?
              • [^] # Re: Concurrence Intel

                Posté par  (site web personnel) . Évalué à 3.

                Parce que tu te vois avoir des cartes de tous les formats !

                Soyons raisonable. Tout cela coute cher et n'a que peu d'intérêt. Les PC ne vont pas avoir tous les slots dans le futur. Il va forcément y avoir un tri qui va se faire.

                C'est un véritable problème au niveau acquisition. On ne change pas un PC d'acquisition tous les jours. Au niveau d'une manip expérimentale, la durée de vie de cette manip est bien plus longue que celle du PC. Et on ne change pas sa partie acquisition aussi facilement que cela.

                Bref, un changement de bus, c'est un évênement important. Là, pour le moment, on est un peu dans le brouillard.

                On m'a parlé par exemple de manip d'astrophysique ou les programmes de recherche sont très long et font intervenir de nombreuse équipes de recherche. Pour ce genre de manip, les choix sont fait très en avance et lorsque la manip tourne, ils peuvent être une génération en arrière.

                Combien de manip tourne encore avec des cartes sur bus ISA ?
            • [^] # Re: Concurrence Intel

              Posté par  . Évalué à 4.

              Je crois qu'il faut que cela décante un peu et qu'il reste éventuellement que deux slots : un rapide et un lent. Là, avec la multiplication des types de slots, ca fait plutôt peur.

              Au contraire c'est beaucoup plus simple. Un port PCI-E 16x (le plus long) accepte toutes les cartes jusqu'à 16x. Tu peux donc mettre une carte 8x, 4x ou 1x dessus si ça te chante. Idem pour les autres ports. Sur du 4x tu peux mettre du 4x ou inférieur. De nombreuses cartes vendues dans le commerce ont deux rails 16x. Si comme moi tu n'a rien à foutre du SLi/CrossFire ça te fait tout de même un port 16x pour faire ce que tu veux. Il n'y a plus de port dédié uniquement à la carte graphique et des ports pour le reste. C'est PCI-E pour tout le monde.

              Pourquoi n'avoir pas choisi les deux seuls format : PCI-E 16x et 4x

              C'est même plus simple : Il n'y a qu'un type de port. Seul de débit change (nombre de lignes derrière le port). Il y a même certaines cartes qui ont des ports 1x de la même largeur qu'un 16x. Ca permet de mettre une carte graphique supplémentaire mais qui ne tournera qu'en débit 1x. Ca évite de s'emmerder comme avant avec une carte AGP et une PCI (difficile à trouve d'ailleurs).
              • [^] # Re: Concurrence Intel

                Posté par  (site web personnel) . Évalué à 3.

                Bon, très bien tout cela finalement.

                Si je comprends bien, il ne devrait mettre que des slots 16x sur les cartes mères ;-)

                Pour ce qui est des cartes graphiques, j'ai une nvidia sur port PCI, elle marche vraiment très bien pour ce que j'en fait (deux écrans). De temps en temps, je me demande combien d'utilisateurs (en entreprise) utilisent réellement le port AGP.

                Vu le calcul que nous eu au niveau de la carte réseau gigabit, je vais finir par mettre la carte réseaux sur le port le plus rapide et la carte graphique sur le port le plus lent.

                D'ailleur sur ce thème, comment on sais sur quel type de port sont les composants intégré comme le réseau ou la partie graphique (bas de gamme) ?
                • [^] # Re: Concurrence Intel

                  Posté par  (site web personnel) . Évalué à 4.

                  > Si je comprends bien, il ne devrait mettre que des slots 16x sur les cartes mères ;-)

                  Si le chipset de la carte meres ne gérent que 26x, ben ils ne peuvent mettre qu'un 16x, deux 4x et deux 1x...
  • # 3D?

    Posté par  (site web personnel) . Évalué à 6.

    Tien je croyais qu'ils ne voulaient faire qu'une carte 2D ?
    Ils ont changé d'avis finalement ?
    • [^] # Re: 3D?

      Posté par  . Évalué à 10.

      Oui, il me semble qu'après étude de la question, et étant donné
      * que toutes les fonctions d'affichage 2D d'une carte vont plus vite à faire en utilisant les fonctions dites 3D,
      * que tout le monde ou presque s'oriente à plus ou moins court terme vers une utilisation d'openGL pour l'affichage des bureaux,
      * que tant qu'à faire une carte graphique libre, autant qu'elle soit utlisée par un plus grand nombre, il vaut mieux alors mettre directement les fonctions 3D.

      En conséquence, ce sera finalement une carte 3D, et qui va s'en plaindre? ;)
      • [^] # Re: 3D?

        Posté par  . Évalué à 3.

        En conséquence, ce sera finalement une carte 3D, et qui va s'en plaindre? ;)
        ATI et Nvidia ?
        • [^] # Re: 3D?

          Posté par  . Évalué à 1.

          Ah bah moi, ça me ferait plaisir qu'Nvidia et Ati/AMD s'en plaignent... mais ne rêvons pas, ils sont à des années lumières d'OpenGraphic.
          Au mieux, c'est sur Intel qu'ils pourraient râler, si Intel choisi de la jouer côté "ami de la communauté du libre".

          Enfin on ne sait jamais, peut-être qu'Nvidia et ATI bridaient leurs cartes pour vendre des models dit Ultra-puissantes et qu'au final... :)
  • # Dual screen

    Posté par  (site web personnel) . Évalué à 7.

    Je vois deux sorties DVI, ça veut dire dual screen ???

    Haypo
  • # photos nettes

    Posté par  (site web personnel) . Évalué à 3.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.