Nouveaux pilotes nvidia 6106

Posté par  (site web personnel) . Modéré par Nÿco.
Étiquettes :
0
1
juil.
2004
Serveurs d’affichage
Nvidia vient de sortir des nouveaux pilotes pour les machines ia32, au programme :
- Support pour les cartes à base de GPU GeForce 6800
- Support du PCI Express
- Support du GLSL (OpenGL Shading Language)
- Support du GL_EXT_pixel_buffer_object
- Correctif pour les noyaux 32 bits compilés sur AMD64 les empêchant de fonctionner
- Support de l'ACPI (oui, vous avez bien lu :)
- Support des noyaux avec 4kstack
- Utilitaire de configuration nvidia-settings
- Ajout d'un script 'nvidia-bug-report.sh' afin d'aider les rapport de bugs
- Ajout d'un nouveau pilote Xv pour GeForce 4/FX qui gère la 3D lors de l'utilisation de Xv PutImage

Une bonne sortie avec beaucoup de nouveautés au programme. Signalons également la disponibilité d'un outil totalement officieux qui sert à paramétrer (et accessoirement overclocker) votre Geforce qui porte le doux nom de nvclock et qui existe depuis fort longtemps.

NdM : Merci aussi à Corsaire.

Aller plus loin

  • # détail technique

    Posté par  (site web personnel) . Évalué à 4.

    Ajout d'un nouveau pilote Xv pour GeForce 4/FX qui gère la 3D lors de l'utilisation de Xv PutImage

    c'est quoi "Xv PutImage" ?
    • [^] # Re: détail technique

      Posté par  . Évalué à 4.

      Et dans la foulée : ça apporte quoi de plus le "Support de l'ACPI" ?
      • [^] # Re: détail technique

        Posté par  (site web personnel) . Évalué à 9.

        XV PutImage sert en particulier a afficher une image en provenance d'un decodeur (mplayer par exemple).

        Donc tu peux regarder James Bond dans une fenetre et jouer a UT dans une autre maintenant sans souci.
        C'est un bel exemple d'utilisation partagee de ressources.

        ACPI peut servir par exemple a demander a la carte de limiter sa consommation. Tres pratique sur un portable car ca permet d'economiser la batterie.
        • [^] # Re: détail technique

          Posté par  . Évalué à 7.

          Bah c'est surtout que sans ce support, on ne pouvait plus mettre son portable en veille... ou alors la mise en veille faisait planter le driver... ou à la sortie de la veille pour les plus chanceux !
  • # 2 architectures

    Posté par  . Évalué à 3.

    la version IA32 -ET- la version AMD64 sont disponibles :)

    http://www.nvidia.com/object/linux.html(...)
  • # nvidia-settings

    Posté par  . Évalué à 4.

    L'idée de l'outil de config est bonne, et permet déjà de régler pas mal de trucs au niveau des couleurs, et des paramètres FSAA et anisotropie. Par contre, ce que je regrette, c'est qu'il y ai pas un truc pour configurer simplement la sortie TV :-/

    espérons que ça vienne pour les versions futures !
    • [^] # Re: nvidia-settings

      Posté par  . Évalué à 7.

      et nvtv ?

      # emerge -s nvtv <20:02>
      Searching...
      [ Results for search key : nvtv ]
      [ Applications found : 1 ]

      * media-tv/nvtv
      Latest version available: 0.4.5
      Latest version installed: [ Not Installed ]
      Size of downloaded files: 374 kB
      Homepage: http://sourceforge.net/projects/nv-tv-out/(...)
      Description: TV-Out for NVidia cards
      License: GPL-2
      • [^] # Re: nvidia-settings

        Posté par  . Évalué à 2.

        ça marche vraiment mal chez moi ce truc
        c'est dommage parce que c'est pile poil ce que je cherche, mais vu que ça marche pas, je suis obligé de me priver de sortie tv

        si qq'un à une autre méthode pour faire marcher sa tv, à la volé (sans redémarrer X), et pas en mode clone mais plutot en right of par exemple si possible, ça m'interesse énormément (c'est un cas désespéré, je n'en puis plus, aidez moi)
        • [^] # Re: nvidia-settings

          Posté par  . Évalué à 3.

          • [^] # Re: nvidia-settings

            Posté par  . Évalué à 1.

            c'est pas ce que je cherche, mais j'adopte quand même, c'est déjà bien merci
            en fait ce que je cherche c'est ce type de solution, mais je voudrais garder mon écran de pc disponible (en mode clone au pire, en right of ça serait mieux)


            sinon je viens de tester le dernier nvtv (j'avais pas tester depuis le 0.45 il me semble), et avec ces derniers drivers, ça marche plutot bien

            le seul probleme c'est que ma résolution sur le pc est 1280*1024
            sur la tv je veux mettre 800*600, et du coup je perds un bout de l'affichage (donc pas de pleine écran pour le film)
            si qq'un a réussi à configurer le bazar pour que ça marche correctement, ça m'interesse


            je vais bien finir par faire marcher cette maudite sortie tv comme je veux non ! :)
            • [^] # Re: nvidia-settings

              Posté par  . Évalué à 3.

              Le truc que j'ai faits c'est dans mon xfreeconfig créer:
              deux sections monitors: pour chaque écrans.
              deux sections device avec l'options: screen
              deux sections screnn
              dans la section ServerLayout j'ai ajouté:
              Screen "screen1"
              Screen "screen0" RightOf "screen1"
              Quand je fais un truc sur ma télé monc écran pc est libre et vice-versa
              • [^] # Re: nvidia-settings

                Posté par  . Évalué à 3.

                Moi ce que j'aime dans cette configuration, c'est l'impossibilité de faire passer la souris du moniteur vers le téléviseur (la réciproque restant possible). Ca bloque ! Pour arriver à la faire passer, il faut lançer l'application en spécifiant le display localhost:0.1 et de là, faire attention à ce qu'elle ne repasse pas sur le moniteur. Je précise qu'avec d'anciens drivers, ça marchait très bien (là je parle de la version 5336).

                Et je ne parle même pas des instabilités redhibitoires qui rendent le système inutilisable après un crash de XFree ou de la gestion desastreuse du framebuffer.

                En bref, NVIDIA, plus ça va, moins ça va.
              • [^] # Re: nvidia-settings

                Posté par  . Évalué à 1.

                oui, elle est connu cette méthode, elle est même dans la doc :D

                ce qui ne me plait pas avec c'est que ça se fait pas à la volé :
                - soit tu gardes ta sortie tv toujours active, auquel cas faut laisser toujours branché, sinon il rale (du moins chez moi)
                - soit tu l'actives juste quand tu as besoin, mais alors il faut démarrer un autre serveur X (du coup tu n'as plus tes appli courantes sous les yeux)

                j'aimerais vraiment une solution qui permette ça, et à priori nvtv est vraiment LA solution à mon pb, mais pas moyen de le faire marcher correctement pour ma part (sans compter que le systeme devient vite instable dès qu'on accede à la sortie tv, surtout par nvtv)
            • [^] # Re: nvidia-settings

              Posté par  (site web personnel) . Évalué à 1.

              Hé hé, moi aussi j'ai pas tout compris au début...

              C'est simple en fait. Commence par lancer nvtv puis ton film, par exemple sous xine. Choisis ta résolution (donc 800x600), décoche le dualview si nécessaire, ensuite clique sur "X Select", puis sur la fenêtre de xine. Ensuite, clique sur "X Resize" pour redimensionner xine en 800x600, puis "X Mode" pour switcher la résolution. Enfin, un petit clic sur "X Center" pour avoir le tout bien centré. Il ne te reste plus qu'à cliquer sur "TV on" !!

              C'est un peu tordu mais ça marche bien... ;-)
              • [^] # Re: nvidia-settings

                Posté par  . Évalué à 1.

                effectivement, c'est un peu tordu :D
                mais si ça marche, c'est déjà pas si mal, faut voir

                mais moi je suis chiant, jamais content et j'ai encore une requete sur nvtv, un truc que je trouve vraiment pénible : il perd tous les paramétrages si je l'arrete et si je le relance, faut refaire tous les clics pour remettre tout bien comme on veut, ce qui est passablement pénible (d'autant que le nombre d'option est vraiment important
                donc y-a t-il moyen de sauver certaines options ? genre les parametres dans l'onglet HEAD ?
              • [^] # Re: nvidia-settings

                Posté par  . Évalué à 1.

                bon ça marche pas, je n'ai qu'une partie de l'écran sur la tv, du coup quand je mets en pleine écran j'ai que les 2/3 de l'image sur la tv
                j'ai suivi ce que tu as dit à la lettre
    • [^] # Re: nvidia-settings

      Posté par  (site web personnel, Mastodon) . Évalué à 1.

      Si graphiquement (en mode X, c'est une très belle interface gtk, mais en mode texte, ça marche aussi grace à ncurses) c'est joli, j'ai noté une petite faute de goût : display device, regardez attentivement les moniteurs... Allez, je vous aide : la verrue verte en bas à gauche. Zauraient pu penser à en changer la couleur.

      Autre petit manque , la doc et le logiciel expliquent que le réglage sautera au prochain redémarrage de XFree, mais ils auraient pu proposer de sauver les paramètres et de relancer à la connection ... ou de changer directement dans X*config, comme ils l'indiquent dans la documentation.

      Ceci dit, c'est une excellente initative. Peuit être que ATI va être obligé de faire aussi bien ?
  • # vive oglsl

    Posté par  (site web personnel) . Évalué à 3.

    >Support du GLSL (OpenGL Shading Language)

    yesssssssss :) :) :) :) :) on va povoir faire des super truc tout zoli multiplateforme facilement :) :)
    • [^] # Re: vive oglsl

      Posté par  (site web personnel) . Évalué à 4.

      Les extensions ARB étaient déjà supportées, c'est multiplateforme et normalisé... donc tu aurais pu nous coder des beaux trucs depuis longtemps ! fénéant nondediou.

      ;-)
      • [^] # Re: vive oglsl

        Posté par  . Évalué à 1.

        quelles extensions ARB ? GL_ARB_frament_program et GL_ARB_vertex_program ? Oui, celle-là existent déjà mais c'est de l'assembleur ... rien à voir avec le langage à la C qu'est GLSL et qu'apportent, entre autre, les (nouvelles) extentions ARB suivantes : GL_ARB_framgment_shader, GL_ARB_vertex_shader et GL_ARB_shading_language_100.

        De toute façon, il n'y pas vraiment de hard grand public (à vérifier pour la FX6800 et la X800) qui supportent réellement les spécifications de ce langage (entre autre pas d'embranchement possible ... adieu les if() {} else {} bien complexes).

        Mais bon, je souhaite aux ATIstes de pouvoir prochainement, eux aussi, doper à GLSL notre manchot préféré :)

        Ce n'est pas que je m'ennuie mais je vais aller coder un peu =)
  • # bravo

    Posté par  . Évalué à 2.

    meme si 'cmalcpaslibrebouhhhhhhhhh', on peut quand même félicité nvidia qui a corrigé beaucoup de bug sur cette version genre le 4k stack et enfin jvé pouvoir faire marché l'acpi correctement
  • # Problèmes ! Help ! Rivafb ....

    Posté par  . Évalué à 2.

    Lors de l'installation du pilote, un boite de diaogue m'indique que rivafb ne peut etre compatible avec ce pilotes. depuis aucune acéleration openGL. Rien que du noir pour mon cher tuxRacer. Snif HELP ME !!!

    Merci de m'expliquer qu'est ce rivafb et la méthode pour régler ce probleme. Moi qui suis débutant ...
    • [^] # Re: Problèmes ! Help ! Rivafb ....

      Posté par  . Évalué à 2.

      méthode > virer rivafb :)
      ok ton boot sera moins jolie, mais une fois sous X, tu t'en fous non ?
      moi aussi j'aimerais que les deux marches, ça serait plus sympa pour les rares cas où je vais en console, mais ça vaut pas le coup de se prendre la tete pour ce que ça apporte (/monavis)
      • [^] # Re: Problèmes ! Help ! Rivafb ....

        Posté par  . Évalué à 3.

        tu coches le driver generic : "VESA VGA graphics support" au lieu de rivafb , ça n'empiètera pas sur X et tu ne risques pas de "freeze" quand tu basculeras du mode X en mode texte et tu garderas ton joli boot :)


        +
      • [^] # Re: Problèmes ! Help ! Rivafb ....

        Posté par  . Évalué à 2.

        A priori sur le forum gentoo pas mal utilisent la solution vesafb + pilote propriétaires nvidia, inconvénient c'est le vesafb qui est en seulement 60Hz....
        • [^] # Re: Problèmes ! Help ! Rivafb ....

          Posté par  . Évalué à 1.

          en fait pour tout dire, j'ai quaziment toujours utiliser les vesafb
          et ça plantait aussi, chez moi, avec les 5336
          alors j'ai abandonné le fb, ça vallait pas le coup de se prendre la tete je trouve

          maintenant si ça marche chez certains, tant mieux pour eux ;)
          • [^] # Re: Problèmes ! Help ! Rivafb ....

            Posté par  . Évalué à 1.

            Comment on fait pour virer le framebuffer ? C'est dans la conf de lilo ?
          • [^] # Re: Problèmes ! Help ! Rivafb ....

            Posté par  . Évalué à 1.

            bonjour,

            a propos des "plantages" de vesafb, une fois X lancé (la console devenant inutilisable - ascifiée verdatre) : l'option "NvAGP" "1" dans XF86config ou xorg.conf a résolu le problème chez moi.
            maintenant connaitre le pourquoi de la chose, oups....
            • [^] # Re: Problèmes ! Help ! Rivafb ....

              Posté par  . Évalué à 1.

              peut-être parce que le '1' signifie "utiliser le support AGP de Nvidia à la place d'AGPGART". Ce qui sous-entendrait que, dans le cas de vesafb, le driver de Nvidia marche mal (un bug quoi:) avec AGPGART :/
        • [^] # Re: Problèmes ! Help ! Rivafb ....

          Posté par  . Évalué à 2.

          non, y'a un patch (pour 2.4 certes) qui traine qui permet de hacker ca

          chercher patch-2.4.x-vesafb-rrc sur google
      • [^] # Re: Problèmes ! Help ! Rivafb ....

        Posté par  (site web personnel) . Évalué à 1.

        Tu peux utiliser le driver vesa a la place de rivafb, tu en mourras pas...
  • # Problème avec WineX

    Posté par  (site web personnel) . Évalué à 2.

    Je sais pas si quelqu'un a rencontré le problème (j'ai une geforce 4 ti 4600 sous x.org) et les 5336 marchent à merveille avec WineX et Painkiller. Par contre, dès que je met les 6106, ils sont super lents et je perds des textures, ça parle à quelqu'un ?

    Steph
    • [^] # Moi comme a toi

      Posté par  . Évalué à 1.

      J'ai des texture misérable à quake3 sans plus aucun effets de lumière et toutes les joies de la 3D, alors qu'avec les 5336 tout allait pour le mieux.

      Mais pourquoi donc ???
      • [^] # Re: Moi comme a toi

        Posté par  . Évalué à 1.

        Moi je les vires les textures à quake :)
      • [^] # Re: Moi comme a toi

        Posté par  (site web personnel) . Évalué à 3.

        Ah ok, c donc un probleme de gestion des textures global des pilotes 6106, gageons que cela va etre discute sur les forums sous peu. Je me demande si je panneau de conf (nvidia-settings) peut corriger ca.

        Steph
        • [^] # Re: Moi comme a toi

          Posté par  . Évalué à 1.

          Avec les 6106, ma FX 5900XT est reconnue comme une carte PCI alors qu'elle est AGP dans RTCW: Enemy Territory. Ce qui fait que j'ai une grosse perte de FPS. Avec glxgears, j'étais à 6100-6200 FPS (drivers 5336). Avec les drivers 6106, je suis à présent à 5400 FPS... Résultat : j'ai remis les anciens drivers.
          • [^] # Re: Moi comme a toi

            Posté par  (site web personnel) . Évalué à 2.

            De même, jai un peu la haine, mais c'est vrai que j'ai du remettre des anciens drivers deux ou trois fois depuis que nvidia fait des drivers pour nux, mais bon, on va pas crier a l'assassinat, juste conforté dans mon idée que ce millésime (6106) a un dénominateur commun qui a des soucis sur certaines confs.

            Steph
            • [^] # Re: Moi comme a toi

              Posté par  . Évalué à 1.

              Bonjour,
              Je vient d'acheter une FX 5700LE/256mo et j'ai donc mit les derniers drivers 6106 et je constate que cela bug vraiment au niveau des textures, alors j'ai voulut mettre les 5336 mais la dès que je lance un programme qui utilise OpenGL il y a freeze de tout le pc ! j'ai voulut mettre du 4496.... et toutes les version 4XXX me donne une erreur de checksums :(
  • # Merci pour les utilisateurs de fc 2

    Posté par  . Évalué à 1.

    - Support des noyaux avec 4kstack


    Ca, ca va faire vraiment très plaisir aux petits utilisateurs de la fedora 2 qui sont en rade depuis plus d'un mois et demi ( c'est a dire qui ne peuvent utiliser correctement leurs jeux et leurs apps nécessitant une acceleration matérielle ).

    D'ailleur si quelqu'un peut m'expliquer quel était l'interet de l'équipe fedora concernant le choix d'une pile de 4k .... je suis preneur
    • [^] # Re: Merci pour les utilisateurs de fc 2

      Posté par  . Évalué à 5.

      > D'ailleur si quelqu'un peut m'expliquer quel était l'interet de l'équipe fedora concernant le choix d'une pile de 4k ....

      Dans une vison à court terme et sans prendre en compte les objectifs de Fedora, on peut dire que Fedora a tord d'imposer 4kstack.

      Mais Fedora a fait ce chois pour deux raisons :
      - Linux (les développeurs upstream) veux imposer 4kstack qui est un plus.

      - Fedora est une distribution qui veut adopter et pousser très tôt de nouvelle solution même s'il y a quelques problème. Les objectifs de Fedora sont expliqués en long et en large ici : http://fedora.redhat.com/about/(...) .

      Si personne n'"impose" 4kstack car nvidia ne support pas 4kstack alors il n'y aura jamais 4kstack. C'est au logiciel libre de faire le premier pas et aux autres de s'adapter. Linux n'a pas a être dépendant dans son développement de driver proprio.
      • [^] # Pourquoi 4k?

        Posté par  . Évalué à 4.

        parceque: (desole pour l'anglais)
        Below is a patch to enable 4Kb kernel stacks for x86, based on David
        Howells' earlier work.
        The goal of enabling 4K kernel stacks is to
        1) Reduce footprint per thread so that systems can run many more threads
        (for the java people)
        2) Reduce the pressure on the VM for order > 0 allocations. We see real life
        workloads (granted with 2.4 but the fundamental fragmentation issue isn't
        solved in 2.6 and isn't solvable in theory) where this can be a problem.
        In addition order > 0 allocations can make the VM "stutter" and give more
        latency due to having to do much more work trying to defragment

        sén suit des commentaires assez interressant sur les fonctions inline qui augmentent la consomation en pile.

        http://people.redhat.com/arjanv/4kstack.patch(...)
        • [^] # Re: Pourquoi 4k?

          Posté par  . Évalué à 2.

          Voir le toujours formidable lwn.net pour une explication de 4KSTACK en profondeur (mais pas trop :-)):
          http://lwn.net/Articles/84583/(...)

          Et un commentaire de Arjan van de Ven :
          In 2.6 with this patch you have

          32 bytes for thread info
          4Kb minus 32 bytes for context stack
          SEPARATE softirq stack of 4K
          SEPARATE hardirq stack of 4K

          so in a way you have MORE stack space than in 2.4.
          • [^] # Re: Pourquoi 4k?

            Posté par  . Évalué à 3.

            Et voila la vrai bonne raison pour le 4ko stack:

            One might well wonder why the kernel hackers are trying to put this sort of change into a stable kernel series. The problem with 8KB stacks is that they require an "order 1" memory allocation: two pages which are contiguous in physical memory. Order 1 allocations can be very hard to satisfy once the system has been running for a while; physical memory can become so fragmented that two adjacent free pages simply do not exist. The kernel will try hard to free up pages to satisfy larger allocations; the result can be a slow, painful, thrashing system.
  • # plantage ici

    Posté par  . Évalué à 0.

    GetModeLine - scrn: 0 clock: 149430
    GetModeLine - hdsp: 1280 hbeg: 1376 hend: 1512 httl: 1744
    vdsp: 960 vbeg: 961 vend: 964 vttl: 1008 flags: 0
    GetModeLine - scrn: 0 clock: 149430
    GetModeLine - hdsp: 1280 hbeg: 1376 hend: 1512 httl: 1744
    vdsp: 960 vbeg: 961 vend: 964 vttl: 1008 flags: 0
    GetModeLine - scrn: 0 clock: 149430
    GetModeLine - hdsp: 1280 hbeg: 1376 hend: 1512 httl: 1744
    vdsp: 960 vbeg: 961 vend: 964 vttl: 1008 flags: 0
    SwitchToMode - scrn: 0 clock: 68180
    hdsp: 800 hbeg: 848 hend: 936 httl: 1072
    vdsp: 600 vbeg: 601 vend: 604 vttl: 636 flags: 0
    Checking against clock: 149430 (149430)
    hdsp: 1280 hbeg: 1376 hend: 1512 httl: 1744
    vdsp: 960 vbeg: 961 vend: 964 vttl: 1008 flags: 0
    Checking against clock: 113310 (113310)
    hdsp: 1024 hbeg: 1096 hend: 1208 httl: 1392
    vdsp: 768 vbeg: 769 vend: 772 vttl: 814 flags: 0
    Checking against clock: 68180 (68180)
    hdsp: 800 hbeg: 848 hend: 936 httl: 1072
    vdsp: 600 vbeg: 601 vend: 604 vttl: 636 flags: 0
    SwitchToMode - Succeeded
    GetModeLine - scrn: 0 clock: 68180
    GetModeLine - hdsp: 800 hbeg: 848 hend: 936 httl: 1072
    vdsp: 600 vbeg: 601 vend: 604 vttl: 636 flags: 0

    *** If unresolved symbols were reported above, they might not
    *** be the reason for the server aborting.

    Fatal server error:
    Caught signal 11. Server aborting


    voilà, premier plantage
    je joue à ut
    je vais en console pour bricoler un truc sans sortir du jeu
    quand je reviens sous X, ça plante, comme pour les versions précédentes du driver
    en plus, comme d'habitude, aucun message d'erreur significatif, pour être bien sur de ne pas pouvoir isoler la cause du probleme.
    et pourtant je n'ai aucun fb d'activer ... va comprendre charles
    • [^] # Re: plantage ici

      Posté par  . Évalué à -2.

      Hé ouais, on est en 2004 et les drivers nvidia sont toujours d'aussi mauvaise facture. Autant dire que ça va pas changer. Pour ma part, je sais bien que ma prochaine carte graphique ne sera PAS une nvidia. J'ai déjà donné.
    • [^] # pas plantage ici

      Posté par  . Évalué à 1.

      bon, petite maj de commentaire : il semblerait que les plantages incessant en sortant d'ut2004 venait en fait de mon noyau compilé avec regparm

      c'est quoi ces drivers qui ne sont même pas compatible avec les dernieres techno du noyau ! :o



      je suis déjà dehors ----> []
      • [^] # Re: pas plantage ici

        Posté par  . Évalué à 2.

        finalement non, ce n'est pas le regparm qui débloque, ce sont bien les nvidia ! il aime pas que j'aille en console pendant que je joue on dirait !
        • [^] # Re: pas plantage ici

          Posté par  . Évalué à 1.

          Je viens d'essayer la même chose ce soir avec Enemy Territory et UT2004demo et aucun problème sur mon PC (geforce 2mx avec les drivers 6106 et kernel 2.6.7).
          Cela vien peux-être d'une nouveauté des versions de X (j'utilise le X de debian woody donc 2.?)
          • [^] # Re: pas plantage ici

            Posté par  . Évalué à 2.

            j'ai surtout essayé avec ut2004 (pas tester avec et)
            et ça me l'a fait direct (ça a même planté en revenant de la console vers X une fois)
            donc je n'ai plus trop de doute
            j'ai une ti4200
            j'ai pas de FB
            donc je suis un peu surpris
            sinon ça peut aussi planté quand je joue trop avec les options de nvtv mais ça ça l'a toujours fait
            mais bon, si ça marche tant que je vais pas en console, c'est déjà pas si mal
  • # intérêt pour les "vieilles" cartes ?

    Posté par  . Évalué à 1.

    Y a t il un interêt à installer ces drivers sur une carte de type geforce2 ?
    • [^] # Re: intérêt pour les "vieilles" cartes ?

      Posté par  (site web personnel) . Évalué à 3.

      Ben c'est pas sûr, je peux pas confirmer mais à l'époque de ma geforce 2mx, le fait d'installer des pilotes plus récents (sortis environ 1 an après) ralentissaient les performances. Je suis sûr que quelqu'un possédant une carte ici peux confirmer/infirmer mon propos car ce serait bien que cela ne soit plus le cas.

      Steph
      • [^] # Re: intérêt pour les "vieilles" cartes ?

        Posté par  . Évalué à 3.

        Ben étant posseseur d'une geforce 2mx, j'ai de meilleur résultat avec glxgear maintenant que avant :
        en petit fenetre : 700fps
        en plein écran (1024x768): 170fps

        ainsi que le fait de pouvoir lire (avec mplayer -vo xv) 2 vidéo (clip en divx) en même temps que je fais un glxgear. Et en lancant ca je n'utilise que 50% du proc (Amd Athlon 2660+) alors que si mes souvenirs sont bon lors du dernier test de la sorte, j'arrivais avec des images qui saquadait et ~90% d'utilisation CPU.

        Autre point, le nvidia-settings est quelque chose de très sympa et qui n'est pas (à ma connaissance) integré dans les anciens driver de chez nvidia.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.