Journal Banc d’essai OpenGL/Direct3D de Source engine par Valve

Posté par  (site web personnel) .
39
2
août
2012

Vous n’avez sans doute pas manqué l’info ces dernières semaines sur l’exaspération de Valve face à windows 8, et de l’intérêt que porte désormais l’entreprise pour linux.

Certes Valve produit des logiciels propriétaires, ce qui ne suffira pas à contenter les plus libristes d’entre nous, mais comme RMS lui même l’admet, mieux vaut des jeux propriétaires sur une plateforme libre, qu’un frein au développement et à l’adoption de cette plateforme.

Et donc Valve nous gratifie d’un banc d’essai qui dénonce grave, avec un Source engine (Half Life 2, Left 4 Dead, et Dota 2) qui tourne de façon 20% plus performante avec le couple Ubuntu/OpenGL face à Windows/Direct3D. En fait, même Windows/OpenGl s’avère plus performant malgré 10 ans d’optimisation consacré à l’implémentation Direct3D.

Linux, la nouvelle plateforme des gamers ?

  • # Il ne manque pas une info?

    Posté par  . Évalué à 10.

    genre sur une nvidia ?

    • [^] # Re: Il ne manque pas une info?

      Posté par  . Évalué à 7.

      Oui

      Maintenant il faut qu'ils mettent à disposition le jeux afin que les tests soit reproduit et confirmés … à ce moment là on pourra faire les tests avec une ATI

      • [^] # Re: Il ne manque pas une info?

        Posté par  . Évalué à 9.

        à ce moment là on pourra faire les tests avec une ATI

        Ils ont commencé les tests sur les intel et les AMD, ils rapportent les bugs, ils rapportent même des fix, ils ont des ingés qui viennent en interne travailler à améliorer les drivers.

        Mais pour l'instant, l'affirmation que

        un Source engine (Half Life 2, Left 4 Dead, et Dota 2) tourne de façon 20% plus performante avec le couple Ubuntu/OpenGL face à Windows/Direct3D

        est fausse.
        Il tourne plus vite avec Ubuntu/openGL/NVIDIA/ sur une nvidia précise, c'est tout. Quant à dire ubuntu plutot que linux, c'est marketing, mais si ça veut dire unity, au mieux ça tournera aussi bien que sous "linux", au pire ils ont des ralentissements et des bugs spécifiques à unity à traiter.

        • [^] # Re: Il ne manque pas une info?

          Posté par  . Évalué à 2.

          J'ose espérer que le desktop n'a pas d'impact important sur un jeu vidéo.
          Dans le cas contraire, WTF ?

          • [^] # Re: Il ne manque pas une info?

            Posté par  (site web personnel, Mastodon) . Évalué à 3.

            Il y a quelques années j'ai fait des tests de performance de jeu entre Ubuntu (Gnome 2 avec Compiz je suppose) et Lubuntu.

            Sous Lubuntu les jeux tournaient environ 25% plus rapidement.

          • [^] # Re: Il ne manque pas une info?

            Posté par  . Évalué à 7.

            Ça arrive, d'ailleurs Ubuntu 12.04 est sortie avec un bug dans unity qui plombait les perfs OpenGL. Ce genre de situation arrive, par exemple, quand un composant du bureau continue de se redessiner alors qu'il n'est plus afficher.

            « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

          • [^] # Re: Il ne manque pas une info?

            Posté par  . Évalué à -4.

            service lightdm stop
            echo "exec steam" > .xinitrc && startx --: 0

          • [^] # Re: Il ne manque pas une info?

            Posté par  . Évalué à 6.

            Tu as les desktop avec une couche open gl et les WM sans. Ca fait une première différence.
            Du genre les jeux en 3D peuvent avoir des bugs ou souffrir de ralentissements. Et puis après tu as le mécanisme opengl lui même, compiz, clutter, celui de KDE.

            Un exemple concret avec unity et la dernière ubuntu: si tu as une nvidia, les vidéos sur youtube peuvent être teintées en bleues. C'est du à l'accélération hardware de flash qui est activée pour les nvidia et merde, mais un problème propre à unity fait que tu ne peux pas desactiver l'accélération hardware dans flash, l'option est grisée sous unity. Si tu passes dans KDE, tu peux modifier l'option et la désactiver.

    • [^] # Re: Il ne manque pas une info?

      Posté par  . Évalué à 7.

      En même temps… What else?

    • [^] # Re: Il ne manque pas une info?

      Posté par  (site web personnel) . Évalué à 10.

      Genre il faut installer un driver propriétaire permettant une escalade de privilèges ?

      S'il y a un problème, il y a une solution; s'il n'y a pas de solution, c'est qu'il n'y a pas de problème.

    • [^] # Re: Il ne manque pas une info?

      Posté par  . Évalué à 10.

      Oui, mais le plus important n'est pas que c'est plus performant sous linux, mais plus performant sous OpenGL (comme le test sous windows avec le moteur OpenGL le prouve)

      Ce qui ressort de l'article, c'est que DirectX est mieux documenté et plus facile à utiliser et apprendre, un peu comme le coté obscure ;)

      Il dit aussi que DirectX bénéficie d'une bonne grosse pub ;)

      Il ne faut pas décorner les boeufs avant d'avoir semé le vent

      • [^] # Re: Il ne manque pas une info?

        Posté par  (site web personnel) . Évalué à 10.

        J'ai appris les bases d'OpenGL il y a 10 ans et mes connaissances sont toujours valables, l'api ayant évolué par extension.

        DirectX est méconnaissable.

        Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.

        • [^] # Re: Il ne manque pas une info?

          Posté par  . Évalué à 1.

          Pourtant il y a eu pas mal de changements pour OpenGL durant cette période non? Avec l'arrivée des shaders, la dépréciation du pipeline fixe,…

        • [^] # Re: Il ne manque pas une info?

          Posté par  (site web personnel) . Évalué à 6.

          Mais est-ce une bonne chose ?
          Si DirectX est méconnaissable c'est probablement pour une bonne raison (on ne change pas une API pour rien).
          Donc était-ce OpenGL qui était bon il y a 10 ans (et en avance) ou plutôt DirectX qui a su évoluer y compris plus radicalement face à un OpenGL immobile ?

          (c'est des vrai questions je ne fais ni OpenGL ni DirectX)

          • [^] # Re: Il ne manque pas une info?

            Posté par  . Évalué à 5.

            Une réponse très détaillée à cette question se trouve ici

            En résumé: OpenGL avait clairement le dessus au tout début, mais a vraiment mal géré son évolution, laissant Direct3D reprendre le dessus.

          • [^] # Re: Il ne manque pas une info?

            Posté par  (site web personnel) . Évalué à 2.

            DirectX a complètement changé plusieurs fois, car ils se sont plantés sur la conception plusieurs fois.

            OpenGL n'est pas resté immobile, il a été étendu.

            Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.

          • [^] # Re: Il ne manque pas une info?

            Posté par  (site web personnel) . Évalué à 3.

            Je trouve que les discussions pour savoir si DirectX est en avance sur OpenGL ou si c'est le contraire sont souvent biaisées, car il faut préciser ce qu'on compare exactement.

            OpenGL a un système d'extensions : ainsi les drivers des cartes graphiques les plus récentes peuvent proposer des fonctionnalités qui ne sont pas encore dans le coeur d'OpenGL. Si on s'intéresse juste aux toutes dernières cartes, OpenGL donne accès aux nouvelles fonctionalités avant DirectX, car pour ce dernier il faut attendre la nouvelle version. En revanche, si on ne regarde que le coeur d'OpenGL "officiel" par rapport à DirectX, en général c'est DirectX qui est en avance.

            Un petit lieu qui explique (entre autres) cela.
            Ou ici pour la traduction en français.

            D'autre part, comme dit dans d'autres commentaires, de nombreuses vieilles fonctions d'OpenGL sont marquées obsolètes : on ne peut pas dire qu'OpenGL soit immobile. Depuis OpenGL 3.1, elles ne sont disponibles que via une extension de compatibilité (qui à ma connaissance est encore disponible pour toutes les cartes mêmes les plus récentes, cela dit).

            • [^] # Re: Il ne manque pas une info?

              Posté par  (site web personnel) . Évalué à 10.

              Le vrai biais dans les comparaisons, c'est de mettre de côté une feature mineure comme la portabilité sur la quasi-totalité des OS existants.

              Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.

        • [^] # Re: Il ne manque pas une info?

          Posté par  . Évalué à 3.

          J'ai appris les bases d'OpenGL il y a 10 ans et mes connaissances sont toujours valables, l'api ayant évolué par extension.

          Vrai et faux: si tu utilise OpenGL comme à ses débuts, ton application ne pourra pas exploiter efficacement la carte vidéo.

      • [^] # Re: Il ne manque pas une info?

        Posté par  (site web personnel) . Évalué à 2.

        directX facile a utiliser ? j'ai essayé il y a un peu plus d'un an et ce fut une horreur !
        Ouvrir une fenetre est plus compliqué et demande plus de ligned de code qu'avec la Xlib …
        Afficher un pauvre triangle demande plus de 30 lignes de code …
        Heureusement qu'il existe des moteurs qui m'ont permis d'abstraire tout ce merd….
        et puis finalement on a tout porté en opengl puis sour linux …

        • [^] # Re: Il ne manque pas une info?

          Posté par  . Évalué à 1.

          Content de voir que je ne suis pas le seul à avoir peur quand je lis certains exemples de code pour démarrer la programmation sur x ou y.

          Beaucoup trop de lignes.

  • # Et avec la source originale

    Posté par  . Évalué à 7.

    • [^] # Re: Et avec la source originale

      Posté par  . Évalué à 1.

      Hardware

      • Intel Core i7 3930k
      • NVIDIA GeForce GTX 680
      • 32 GB RAM

      Software

      • Windows 7 Service Pack 1 64-bit
      • Left 4 Dead 2
      • Ubuntu 12.04 32-bit

      Quel est l'intéret de 32 GB de RAM si c'est pour faire tourner Ubuntu 32 bit ? À ce moment, le test est fait avec 32 GB de RAM sous Windows et 4 GB sous Linux Ubuntu, non ?

      Knowing the syntax of Java does not make someone a software engineer.

      • [^] # Re: Et avec la source originale

        Posté par  . Évalué à 6.

        Quel est l'intéret de 32 GB de RAM si c'est pour faire tourner Ubuntu 32 bit ? À ce moment, le test est fait avec 32 GB de RAM sous Windows et 4 GB sous Linux Ubuntu, non ?

        Kernel PAE?

        • [^] # Re: Et avec la source originale

          Posté par  . Évalué à 1.

          C'est aussi performant qu'un kernel 64 bits pour gérer autant de mémoire ?

          Article Quarante-Deux : Toute personne dépassant un kilomètre de haut doit quitter le Tribunal. -- Le Roi de Cœur

      • [^] # Re: Et avec la source originale

        Posté par  . Évalué à 2.

        Disons qu'en faisant swapper linux, ça diminue un peu l'écarte entre les 2 OS.
        C'est juste histoire que ce soit pas pris comme un gros fake.

  • # Oh les approximations pour prêcher sa paroisse

    Posté par  (site web personnel) . Évalué à 3. Dernière modification le 02 août 2012 à 15:31.

    et de l’intérêt que porte désormais l’entreprise pour linux.

    Pour l'instant, c'est pas Linux mais Ubuntu. Beaucoup de monde dans les utilisateurs voient Linux comme négatif, et Ubuntu comme positif (écrit ici même dans un journal, la flemme de le retrouver), donc allons-y vite pour dire que c'est Linux qui est intéressant. Moi, je vois plutôt que c'est Windows qui devient moins rentable donc on se rabat sur autre chose en quatrième vitesse, hop Ubuntu. Pas très positif pour Linux, qui reste d'une un second choix, et de deux on voit bien que pour le moment les efforts sont fait sur une distro, stable dans le temps au niveau idées, proprio-friendly. Linux, ils en parlent certes, mais c'est technique, les reproches fait à Linux (plusieurs système de paquet, contre le proprio) pour le moment sont effacés car ils prennent Ubuntu. Officiellement "pour les autres ça viendra". J'attend.

    mais comme RMS lui même l’admet, mieux vaut des jeux propriétaires sur une plateforme libre, qu’un frein au développement et à l’adoption de cette plateforme.

    Je n'ai absolument pas la même lecture que toi de RMS:
    "this is a double-edged sword that offers some benefits but also a downside that compromises the integrity of the free software philosophy."
    "Nonfree game programs are unethical" (rappel : Valve c'est Nonfree)
    "Nonfree software in GNU/Linux distros already works against the goal of freedom. Adding these games to a distro would augment that effect."
    "If you want to promote freedom, please take care not to talk about the availability of these games on GNU/Linux as support for our cause."

    Et sinon, il accepte la modularité de GCC pour la même raison maintenant?

    tourne de façon 20% plus performante avec le couple Ubuntu/OpenGL face à Windows/Direct3D.

    Ou comment faire croire que c'est grâce à Linux, mais sans vraiment le dire. C'est très trompeur.

    En fait, même Windows/OpenGl s’avère plus performant malgré 10 ans d’optimisation consacré à l’implémentation Direct3D.

    Mais la, pas de chiffre donné dans ton journal, omission? Ah ben oui, du coup on se rend compte que c'est moins vendeur pour Linux.

    Bref :
    - Linux est 4% plus rapide que Windows pour un jeu, ce qui à ce niveau est pas des plus gros, et pas intéressant car pas démonstratif des usages (qui voit la différence entre 315 et 300 fps? Remettons ça sur de la haute définition avec un jeu plutôt autour de 50 fps pour voir, comme le font les gens dans la vraie vie avec du 19201080 AA et compagnie)
    - OpenGL est 12% plus rapide que Direct3D **pour ce jeu
    *, pour ces drivers, pour cette vitesse de 300 fps. Revenons à une scène plus chargée pour voir, pour voir si c'est pareil? Pour info, OpenGL marche aussi sous Windows, donc le gros chiffre n'est pas dû à l'OS, mais au toolkit 3D.
    - Aucune info sur les drivers, la matos, la procédure de test, l’objectivité (Rappel : Valve a peur de Windows 8. Il ne va certainement pas dire "bon en fait en en chie, c'est pourri Linux mais on n'a pas le choix, Microsoft nous fait pisser dans le froc donc on fait tout pour les descendre")

    Bref, ça permet de dire qu'on peut faire la même chose sous Windows que sous Linux pour un jeu, c'est déjà très bien, mais ça ne va pas plus loin. Je n'en ai personnellement jamais douté (le point bloquant est plus la performance matérielle de la carte graphique et la façon dont le driver exploite la carte, l'OS libre n'est pas des plus consommateur).
    Ne pas oublier non plus que les drivers sont proprios. Pas très libriste.
    Re-bref, pas grand chose de neuf sous le soleil : du proprio tourne bien, Linux n'est pas pire que Windows (et pas mieux), et on commence à 6 fps sous Linux (ça c'est pour troller, on s'en fout en fait ça a dû commencer pareil sous Windows), et OpenGL n'est pas mal aujourd'hui (ils ont rattrapé leur retard).

    Et ça peut changer entre deux mise à jour de drivers. Et l'histoire ne dit pas la durée de développement par plate-forme (les adaptation pour les input, audio etc)

    • [^] # Re: Oh les approximations pour prêcher sa paroisse

      Posté par  (site web personnel) . Évalué à 7.

      Aucune info sur les drivers

      Si, dans l'article original on sait : "Optimizing the graphics driver"
      Donc en gros c'est pas standard du tout tout ça, et sans les optimisations de driver ça serait pas si bon du tout…

      la matos

      bof, une bécane tout simple :

      Intel Core i7 3930k
      NVIDIA GeForce GTX 680
      32 GB RAM

      le tout sous ubuntu 32bits

      • [^] # Re: Oh les approximations pour prêcher sa paroisse

        Posté par  (site web personnel) . Évalué à 5.

        32 bits et 32G de ram ? ça me parait un peu du gachis, mais bon.

        Et ils ont tentés sur quoi, sur un windows 64 bits avec 15 antivirus chargés

        ( car oui, ça peut aussi être le genre de chose qui joue, genre avoir un outil d'indexation à la con qui tourne, etc ).

    • [^] # Re: Oh les approximations pour prêcher sa paroisse

      Posté par  (site web personnel) . Évalué à 10.

      Pour ce qui est du point de vu de RMS, il était évident qu’il n’allait pas faire l’apologie de steam, ce à quoi m’a phrase renvoyé, c’était la citation suivante :

      However, if you're going to use these games, you're better off using them on GNU/Linux rather than on Microsoft Windows. At least you avoid the harm to your freedom that Windows would do.

      Le fait est que Valve se met à employer des dév pour améliorer linux comme plateforme de jeux. Je ne crois pas avoir présenté les événements comme victoire totale pour le logiciel libre. Je constate seulement que le libre, ne serait-ce que par effet de bord, va certainement profiter de ces événements.

    • [^] # Re: Oh les approximations pour prêcher sa paroisse

      Posté par  (site web personnel) . Évalué à 5.

      Aucune info sur [..] le matos

      T'as même pas lu le lien :

      With an Nvidia GTX 680, Intel i7-3930k, and 32GB of RAM

      Bon, en gros, une machine (très) haut de gamme est capable de faire au moins aussi bien, voire mieux que sous Windows. J'attends de voir sur ma machine un peu plus commune que celle présentée.

    • [^] # Re: Oh les approximations pour prêcher sa paroisse

      Posté par  . Évalué à 6.

      Linux n'est pas pire que Windows (et pas mieux)

      Heeuuu… je ne suis pas tout à fait d'accord là dessus…
      Faudrait quand même pas oublié les performances du système de fichier, en particulier la gestion du cache disk absolument misérable sous windwos (bien qu'annoncée comme améliorée et enfin performante à chaque nouvelle version…)
      La gestion de la mémoire par l'os, ainsi que la fragmentation due à l'allocateur par défaut de la libc.
      Et des tas d'autres choses donc je ne fait pas l'expérience 15 fois par jour au boulot (chiffre non contractuel)

      Bon, je ne pense sérieusement pas que ce soit ces choses qui font la différence dans ce cas précis, mais dire qu'il n'est pas mieux, faut qund même oser, ou alors n'avoir jamais développé d'application lourdes mutliplateforme (oui, c'est un troll pas déguisé du tout)

      • [^] # Re: Oh les approximations pour prêcher sa paroisse

        Posté par  (site web personnel) . Évalué à 1.

        Et des tas d'autres choses donc je ne fait pas l'expérience 15 fois par jour au boulot (chiffre non contractuel)

        Il y a plein de choses pour lesquelles Linux est largement mieux. Au niveau pro (et comme par hasard, Linux éclate Windows en part de marché de ce côté).
        Pour les jeux, je demande à voir. Le test de Valve laisse à penser que ce n'est pas le cas (un écart de 4% en fps à 300 fps, je le met dans les marges d'erreur de la mesure)

        Bon, je ne pense sérieusement pas que ce soit ces choses qui font la différence dans ce cas précis,

        Ah ben voila… J'ai parlé que pour du jeu ici. On parle de ça non? Pas de manière générale pour tous les domaines. Bien sûr que Linux peut éclater Windows sur des domaines précis (orientés pro), et pas que de 4%.

        • [^] # Re: Oh les approximations pour prêcher sa paroisse

          Posté par  . Évalué à 5.

          un écart de 4% en fps à 300 fps, je le met dans les marges d'erreur de la mesure.

          Pas forcément, si le test est correct et répétable, je pense que la différence est vraiment là, mais je pense aussi que dans d'autres contextes (autres jeux, autre load du système, autre utilisation des ressources) le résultat est certainement inversé.

          Après, ce que je ne sais pas, c'est si la balance est plutôt équilibrée, ou si elle penche pour un os ou l'autre.
          Et pour ça, quelques portages ne suffiront pas, car les jeux sont très optimisé pour windows (pour contourner les limitations que j'ai énoncé dans mon précédent post, je m'en doute car on fait pareil dans notre boite, on dépense une énergie considérable à pallier aux défauts de perf de l'allocation mémoire et de l'accès aux fichiers sous windows) donc il faudrait le temps que les jeux soient vraiment conçus et optimisés à la base pour du linux pour voir s'il y a une réelle différence (j'en reste pas convaincu, une fois tout chargé, ça reste limité par la puissance de calcul du processeur, de la bande passante mémoire et de la carte graphique essentiellement)

          Ah ben voila… J'ai parlé que pour du jeu ici. On parle de ça non?

          Oui oui, on parle de ça, j'avais compris le contraire dans ton premier post, c'est pour ça que j'ai réagi :)

      • [^] # Re: Oh les approximations pour prêcher sa paroisse

        Posté par  . Évalué à -1.

        Quel probleme de perfs du systeme de fichier ? Quand on regarde les perfs SMB, Linux et Windows se valent, alors que ce n'est au final principalement que ca : des acces disque

        Quel probleme de fragmentation de l'allocateur ? LFH est l'allocateur par defaut et il faudra m'expliquer comment il fragmente de maniere exageree, LFH veut dire low-fragmentation-heap hein…

        Bref, donne des exemples concrets (et je suis sur qu'il y a des cas ou Windows est moins bon que Linux oui, tout comme l'inverse)

        • [^] # Re: Oh les approximations pour prêcher sa paroisse

          Posté par  (site web personnel) . Évalué à 8.

          attends je lance un nouveau projet . NFH veut dire no-fragmentation-heap, je le déclare comme parfait de ce point de vue, tu ne pourras pas le démentir c'ést son nom il ne peut pas manquer a sa parole ! Tout comme les cpu intel qui acc;elrent internet !
          plus sérieusement, la perf d'un allocateur mémoire ne se résume pas a son taux de fragmentation, mais sur plein de critères comme le temps d'allocation d'un nouveau bloc, la recherche de l'espace libre selon la taille demandée, la perte due a la map des pages, la gestion du MMU et le retour de bloc en swap etc …

        • [^] # Re: Oh les approximations pour prêcher sa paroisse

          Posté par  . Évalué à 4.

          Quel probleme de perfs du systeme de fichier

          je dirai au niveau du cache
          test
          unzip gros_projet.zip
          grep -R plop gros_projet

          sur les deux os, et regarde le temps du grep; il est quasi instantané (si tu as de la ram ;) )

          Il ne faut pas décorner les boeufs avant d'avoir semé le vent

          • [^] # Re: Oh les approximations pour prêcher sa paroisse

            Posté par  . Évalué à -4.

            C'est super mais ton truc isole n'est certainement pas representatif des perfs globales du FS, je peux te trouver un truc qui est lent quel que soit le FS. Ce qui est interessant c'est les perfs dans leur globalite plutot que 2-3 trucs isoles. Raison pour laquelle je donnais SMB comme exemple : les tests de ce truc utilisent plein de fonctionnalites des FS : creation de repertoire, fichier, effacement, acces, etc… d'habitude.

            • [^] # Re: Oh les approximations pour prêcher sa paroisse

              Posté par  . Évalué à 2.

              moi j'aime bien

              Bref, donne des exemples concrets

              je t'en donne un

              C'est super mais ton truc isole n'est certainement pas representatif des perfs globales du FS,

              Ensuite ce n'est pas un problème de FS, mais de cache sur le FS, sous linux si tu fais la même commande sous ntfs / vfat / ext[2-4] / xfs, le unzip pourra prendre un temps différent, mais le grep lui va peu varier.

              Il ne faut pas décorner les boeufs avant d'avoir semé le vent

              • [^] # Re: Oh les approximations pour prêcher sa paroisse

                Posté par  . Évalué à -4.

                Ben non justement, lis plus bas l'exemple que je te donnes qui montre exactement ce que je te dis : tu as un cas isole, le systeme en fonctionnement normal ne fait pas ca (il a un cache).

                • [^] # Re: Oh les approximations pour prêcher sa paroisse

                  Posté par  . Évalué à 9.

                  j'ai jamais dit le contraire, j'ai juste un doute sur son efficacité : je précise j'ai désactivé l'antivirus, c'est un windows 7 propre, venu avec la machine :

                  E:\Jeux\ArcanumP>"c:\Program Files (x86)\Resource Kit\TIMETHIS.EXE" findstr /s
                  plop" *.*
                  
                  TimeThis :  Command Line :  findstr /s plop *.*
                  TimeThis :    Start Time :  Sat Aug 04 11:46:29 2012
                  
                  
                  TimeThis :  Command Line :  findstr /s plop *.*
                  TimeThis :    Start Time :  Sat Aug 04 11:46:29 2012
                  TimeThis :      End Time :  Sat Aug 04 11:47:10 2012
                  TimeThis :  Elapsed Time :  00:00:40.805
                  
                  E:\Jeux\ArcanumP>"c:\Program Files (x86)\Resource Kit\TIMETHIS.EXE" findstr /s
                  plop" *.*
                  
                  TimeThis :  Command Line :  findstr /s plop *.*
                  TimeThis :    Start Time :  Sat Aug 04 11:47:13 2012
                  
                  
                  TimeThis :  Command Line :  findstr /s plop *.*
                  TimeThis :    Start Time :  Sat Aug 04 11:47:13 2012
                  TimeThis :      End Time :  Sat Aug 04 11:47:45 2012
                  TimeThis :  Elapsed Time :  00:00:32.372
                  
                  E:\Jeux\ArcanumP>"c:\Program Files (x86)\Resource Kit\TIMETHIS.EXE" findstr /s
                  plop" *.*
                  
                  TimeThis :  Command Line :  findstr /s plop *.*
                  TimeThis :    Start Time :  Sat Aug 04 11:47:50 2012
                  
                  
                  TimeThis :  Command Line :  findstr /s plop *.*
                  TimeThis :    Start Time :  Sat Aug 04 11:47:50 2012
                  TimeThis :      End Time :  Sat Aug 04 11:48:13 2012
                  TimeThis :  Elapsed Time :  00:00:23.193
                  
                  E:\Jeux\ArcanumP>"c:\Program Files (x86)\Resource Kit\TIMETHIS.EXE" findstr /s
                  plop" *.*
                  
                  TimeThis :  Command Line :  findstr /s plop *.*
                  TimeThis :    Start Time :  Sat Aug 04 11:48:17 2012
                  
                  
                  TimeThis :  Command Line :  findstr /s plop *.*
                  TimeThis :    Start Time :  Sat Aug 04 11:48:17 2012
                  TimeThis :      End Time :  Sat Aug 04 11:48:25 2012
                  TimeThis :  Elapsed Time :  00:00:08.079
                  
                  E:\Jeux\ArcanumP>"c:\Program Files (x86)\Resource Kit\TIMETHIS.EXE" findstr /s
                  plop" *.*
                  
                  TimeThis :  Command Line :  findstr /s plop *.*
                  TimeThis :    Start Time :  Sat Aug 04 11:48:29 2012
                  
                  
                  TimeThis :  Command Line :  findstr /s plop *.*
                  TimeThis :    Start Time :  Sat Aug 04 11:48:29 2012
                  TimeThis :      End Time :  Sat Aug 04 11:48:37 2012
                  TimeThis :  Elapsed Time :  00:00:08.165
                  
                  

                  Le répertoire fait 1.2 Go, le système n'est pas chargé
                  Et visiblement il ne met pas automatiquement en cache (cf les premier tests)

                  sous linux, avec time, j'ai 32 seconds la première fois et entre 2.2 et 2.6 les suivantes ( je ne regarde que le réel, quand je fais une recherche c'est l'attente qui m'importe), même répertoire évidemment

                  Il ne faut pas décorner les boeufs avant d'avoir semé le vent

                  • [^] # Re: Oh les approximations pour prêcher sa paroisse

                    Posté par  . Évalué à 6.

                    Malheureux ! Il est ILLÉGAL de publier des benchmarks sans l'autorisation écrite préalable de Microsoft ! Relis ta licence !

                    Le public n'a juste qu'à considérer que leurs produits soient plus lent…

                  • [^] # Re: Oh les approximations pour prêcher sa paroisse

                    Posté par  . Évalué à -1.

                    Qu'on se comprenne, je peux tout a fait comprendre que Windows soit moins rapide que Linux sur certains tests, genre celui-la.

                    La ou je veux en venir c'est :
                    a) Il y a un systeme de cache, et il marche bien, meme si il ne fonctionne pas forcement comme sous Linux
                    b) Au niveau global du systeme(comprendre: l'ensemble des types de requetes envoyees au FS), les perfs sont bonnes

                    D'ailleurs en parlant de tout ca, je me demandes ce que ce genre de test donnerait sur le nouveau FS introduit dans WS2012

                    • [^] # Re: Oh les approximations pour prêcher sa paroisse

                      Posté par  . Évalué à 2.

                      que le temps ne soit pas équivalent, ça peut être du à plein de choses, ce n'est pas sur la durée de la commande ce n'est pas la même; au niveau fs c'est le même répertoire sur le même disque (ntfs); j'avais pas grep sous mon windows (je ne m'en sert pas pour bosser)

                      Le problème que je soulève, c'est qu'il a fallu 3 commandes pour obtenir un chiffre stable, la première à 40, puis 32, puis 23, et enfin 8. Autant sur mon fixe qui à un bon disque dur ça peut aller, mais sur le portable qui a un disque poussif ce truc la est chiant.

                      Il ne faut pas décorner les boeufs avant d'avoir semé le vent

                      • [^] # Re: Oh les approximations pour prêcher sa paroisse

                        Posté par  . Évalué à 0.

                        Je pense pas que c'est un probleme, l'algo n'a pas forcement de raison de penser que tout ce que tu as lu en dernier est forcement la meilleure chose a mettre en cache.

                        Tu peux essayer de jouer avec

                        fsutil behavior set memoryusage 2

                        et

                        fsutil behavior set disablelastaccess 1

                        pour voir si ca ameliore les choses.

                        • [^] # Re: Oh les approximations pour prêcher sa paroisse

                          Posté par  . Évalué à 3.

                          merci je testerai à mon prochain boot sous windows, si ça marche, je le mettrai dans mes fichiers de confs pour développement en milieu hostile ;) (un jour j'arriverai peut être à en faire un milieu amical ;) )

                          Il ne faut pas décorner les boeufs avant d'avoir semé le vent

        • [^] # Re: Oh les approximations pour prêcher sa paroisse

          Posté par  . Évalué à 9.

          Tu plaisentes j'espère… Les accès disques physiques sont nul à chier, et ça même toi tu dois le savoir, en plus, il n'y a aucun cache, sous linux, tout accès disque est gardé en cache si la memoire est suffisante, et ensuite, tous les accès suivants sont fait par la couche vfs du noyau. Exemple simple, je me logue sous KDE, c'est lent… Je me délogue et je me relogue, ça va 10 fois polus vite, et je n'exagère pas sur le 10 ! Fais ça avec windows !

          Comme exemple concret, j'ai mon boulot, TRÈS GROS (et c'est un euphémisme) logiciel multiplateforme avec plein plein plein de plugins, les accès disque sont plus lent, point à la ligne, je peux pas faire mieux que le dire, ou alors je peux vous vendre une licence si tu veux vérifier toi même.
          Ensuite, regarde les temps de compilation pour un gros projet par exemple, et ce n'est pas que du à la lenteur excessive du compilo !
          Et encore, fait une recherche dans les fichiers !! Pour rechercher dans les sources de mon projet, un outils codé en C qui utise des reg exp perl donne un résultat de l'ordre de 30 secondes sur tout le projet, sous windows, l'outil "optimisé" de vs 2010 qui ne recherche que dans les fichiers de la solution… Et bien je ne sais pas, personne n'a jamais tenté, mais pour un seul plugin (j'en ai 30 dans mon espace de travail, mais pour temperer, il n'y en a que quelques-uns de vraiment très gros, je dirait en taille, il fait 1/5 du total), il dépasse la minute !! La bonne blague !

          Enfin, parlons-en de l'allocateur et de sa tendance à fragmenter… Tu dois savoir que windows x86 donne 2 Go de l'espace pour la partie utilisateur des process et 2 pour la partie noyau, et bien dans la pratique, on n'a JAMAIS réussi à dépasser les 1,5 Go… Et souvent à partir de 1,3 Go, ça commence à sérieusement être foireux pour les grosses alloc de plus de 100 Mo…
          Sous linux, jamais un soucs d'allocation tant que je demande de la mémoire disponible !
          Et c'est pas parce que ton allocateur s'appelle "L'Allocateur Qu'Il Est Trop Bien Pour Pas Fragmenter (tm) (r) (c) (trololil)" qu'il fragmente pas. À ce petit jeu, j'ai mangé des gateaux à l'huile de palme "raffiné" aujourd'hui…

          • [^] # Re: Oh les approximations pour prêcher sa paroisse

            Posté par  . Évalué à 0.

            a) A se demander si tu sais de quoi tu parles… Aucun cache ? Tu te moques de qui ?
            Mon petit doigt me dit que tu utilises un OS pre-Vista et que tu n'as jamais entendu parler de http://technet.microsoft.com/en-us/library/cc784562(v=ws.10).aspx

            Le test que tu decris fonctionne exactement comme sous Linux sur Windows 7 par exemple :

            findstr /S test *.cpp > res1.txt

            findstr /S test *.cpp > res2.txt

            sur un repertoire avec des sous-repertoires et milliers de fichiers s'execute enormement plus rapidement la 2eme fois que la 1ere

            b) Super, et tu as regarde pourquoi ton espace d'addresse est fragmente ? T'es sur que ce n'est pas parce que tes dlls sont loades a 48 endroits differents et fragmentent l'espace plutot que l'allocateur ? Si t'es sur un OS pre-Vista, LFH n'est pas l'allocateur par defaut non plus, faut ajouter le setting pour.

            Bref, tout ce que tu me dis, avec les infos que tu me donnes, me dit que tu fais une observation a 15 kilometres d'altitude, vois un resultat qui ne te plait pas, mais tu ne sais absolument pas ce qui cause le comportement que tu vois et tu supputes.

            • [^] # Re: Oh les approximations pour prêcher sa paroisse

              Posté par  . Évalué à 6.

              Mon petit doigt me dit que tu utilises un OS pre-Vista

              a) le dernier windows que j'ai utilisé, c'est 2000, je te parle des 2 collègues de mon bureau qui sont sous 7 professionnel avec les dernières mises à jour.
              Ils sontjuste à coté, les tests sont super simple tu sais…
              Et une fois encore, c'est pas parque que vous avez un super lien qui dit que c'est trop bien que c'est le cas.

              sur un repertoire avec des sous-repertoires et milliers de fichiers s'execute enormement plus rapidement la 2eme fois que la 1ere

              Ça reste ultra plus lent que chez moi les 2 fois.

              Super, et tu as regarde pourquoi ton espace d'addresse est fragmente ? T'es sur que ce n'est pas parce que tes dlls sont loades a 48 endroits differents et fragmentent l'espace plutot que l'allocateur ? Si t'es sur un OS pre-Vista, LFH n'est pas l'allocateur par defaut non plus, faut ajouter le setting pour.

              hum… comment dire…

              Bref, tout ce que tu me dis, avec les infos que tu me donnes, me dit que tu fais une observation a 15 kilometres d'altitude, vois un resultat qui ne te plait pas, mais tu ne sais absolument pas ce qui cause le comportement que tu vois et tu supputes.

              Oui ?? Et ?? C'est exactement ça le problème, sur ma machine, même à 32 kilomètres d'altitude, j'ai aucun souci, sur les autres, il y a ces soucis peu importe l'altitude.
              Et effectivement, je n'en connais pas la cause, mais je sais que :
              1) avec un système de fichier et un vfs performant, ils n'y sont pas.
              2) avec une gestion de la mémoire performante, ils n'y sont pas.
              J'en conclu donc avec un raisonnement ultra poussé qui dépasse de très très loin les capacités cognitives insoupconées de l'huitre, que windwos n'a aucun de ces deux points.
              Je pense que ça n'est pas trop fantaisiste comme supputation.

              Pour faire simple, certains de mes collègues viennent me demander de faire les recherches pour eux.

              Et au passage, j'ai la machine la plus vieille dans mon bureau, donc la moins performante, moins de coeurs d'exécution (on pourrait en parler aussi de ça tiens.. l'ordonnancement et la gestion des multiprocesseurs/multicoeur pour les taches en parallèles) et moins de ram.

              • [^] # Re: Oh les approximations pour prêcher sa paroisse

                Posté par  . Évalué à -2.

                a) le dernier windows que j'ai utilisé, c'est 2000, je te parle des 2 collègues de mon bureau qui sont sous 7 professionnel avec les dernières mises à jour.
                Ils sontjuste à coté, les tests sont super simple tu sais…

                Ouaip, super simple les tests, tes super tests ne disent pas par contre si le probleme est genre l'anti-virus qui intercepte toutes les requetes disque au hasard, ou autre, parce qu'au final tu fais un test sans meme comprendre ce que tu testes (par exemple que le soft utilise (Visual Studio) soit moins efficace que grep).

                hum… comment dire…

                Ben je sais pas, dis moi, t'as verfie ? Non.

                Oui ?? Et ?? C'est exactement ça le problème, sur ma machine, même à 32 kilomètres d'altitude, j'ai aucun souci, sur les autres, il y a ces soucis peu importe l'altitude.

                Et moi, et Zenitram, et bcp d'autres gens, te montrent des machines qui n'ont pas ce probleme, tournant sous cet OS dont tu dis qu'il en est incapable.

                1) avec un système de fichier et un vfs performant, ils n'y sont pas.

                Supputation, tu supputes que le FS de Windows n'est pas performant, alors que tu n'en sais fichtre rien.

                2) avec une gestion de la mémoire performante, ils n'y sont pas.

                Idem

                J'en conclu donc avec un raisonnement ultra poussé qui dépasse de très très loin les capacités cognitives insoupconées de l'huitre, que windwos n'a aucun de ces deux points.
                Je pense que ça n'est pas trop fantaisiste comme supputation.

                Si c'est totalement fantaisiste, tirer des conclusions sur le comportement d'un systeme quand tu ne comprends rien au systeme, c'est une idiotie.

                Et au passage, j'ai la machine la plus vieille dans mon bureau, donc la moins performante, moins de coeurs d'exécution (on pourrait en parler aussi de ça tiens.. l'ordonnancement et la gestion des multiprocesseurs/multicoeur pour les taches en parallèles) et moins de ram.

                Fais seulement, parles moi de l'ordonnancement et gestion multi-cpu/multi-coeur qu'on rigole, histoire que tu te ridiculises un peu plus.

                Serieusement, tu avoues toi-meme que tu n'as pas utilise ce systeme depuis 12 ans et tu veux venir me faire la lecon sur ce dont il est capable aujourd'hui ? Tu as pris combien de LSD ?

                • [^] # Re: Oh les approximations pour prêcher sa paroisse

                  Posté par  (site web personnel) . Évalué à 1.

                  Ouaip, super simple les tests, tes super tests ne disent pas par contre si le probleme est genre l'anti-virus qui intercepte toutes les requetes disque au hasard, ou autre, parce qu'au final tu fais un test sans meme comprendre ce que tu testes (par exemple que le soft utilise (Visual Studio) soit moins efficace que grep).

                  J'ai pu constater exactement les mêmes symptômes depuis longtemps sous Windows… l'écart est moins conséquent sous 7 que sous XP, mais il existe encore bel et bien. Y compris en utilisant les outils similaires (grep sous Windows), les perfs ne sont juste pas là. Personnellement, je n'ai jamais compris comment fonctionnait le cache de fichiers Windows, et dans tous les cas, ça marche mal, tout au moins pour ce que j'en fais, à savoir compiler et faire des recherches dans des fichiers.

                  Supputation, tu supputes que le FS de Windows n'est pas performant, alors que tu n'en sais fichtre rien.

                  En tous cas, ça marche très mal pour compiler, j'ai remarqué exactement la même chose depuis de nombreuses années.

                  2) avec une gestion de la mémoire performante, ils n'y sont pas.

                  Idem

                  Je n'ai pas bossé sérieusement en développement avec gestion de la mémoire sous Vista/7, mais j'approuve ! Du temps d'XP (et antérieurs), l'allocateur est à chier en fait du gruyère, conduisant à des impossibilités d'allouer plus de mémoire très rapidement.
                  Alors, oui, on peut le changer, mais celui par défaut, c'est à dire celui qui est utilisée par 95% des programmes était juste nul.

          • [^] # Re: Oh les approximations pour prêcher sa paroisse

            Posté par  (site web personnel) . Évalué à 3.

            il n'y a aucun cache

            Non mais qu'est-ce qu'il ne faut pas lire comme méga-énormes conneries. C'est fou cette capacité à s'auto-persuader que l'autre est nul, quand on sait ce qu'on veut à la fin. Toujours descendre l'autre, on s'en fout complet de l'objectivité. On parle des islamistes et de la Charia sinon c'est le mal, mais la on a la même chose pour les Linuxiens.

            Ou alors j'ai des disques durs non SSD qui vont à plusieurs Go par seconde. Non, juste qu'il y a du cache, quand j'analyse une première fois un fichier ça met 1 minute pour me charger 4 Go de fichier avec le CPU qui s’ennuie, et 2 minutes plus tard quand je l'analyse une deuxième fois ça met 5 secondes avec le CPU qui est à 100%. Normal, comme sous Linux. Je dois avoir une version de Windows super-méga-géniale par rapport à la tienne. Ou alors j'ai celle de base comme tout le monde.

            Et encore, fait une recherche dans les fichiers !!

            Je te conseille de faire une démo argumentée à ton boss, à qui tu démontreras ton gain de productivité avec Linux. Ton boss, comme tous les boss, aiment économiser des sous, avec tout ce que tu dis de mal sur Windows ce sera facile. L'excuse "c'est par habitude qu'on a Windows" ne tient pas face à mieux (ça tient quand c'est pareil).

            Ah oui, par contre, faudra des vrais chiffres avec la même chose de chaque côté, et pas une subjectivité des plus douteuses.

            Linux a plein d'avantages (dont un plus gros est d'être gratuit, dont un autre plus gros est d'être adaptable à plein de matos, et j'en passe), mais avec des textes de ce gabarit, le seul chose que les gens font dire sur Linux, c'est que les adorateurs de Linux n'ont aucun argument et sont des menteurs. Pas très vendeur. Si vous voulez convaincre les gens, commencez par arrêter avec vos mensonges, c'est mieux pour avoir un minimum de crédibilité (et ceux qui ne mentent pas : renvoyez les menteurs dans leurs buts, bref nettoyez un peu chez vous).

            • [^] # Re: Oh les approximations pour prêcher sa paroisse

              Posté par  . Évalué à 3.

              Je te conseille de faire une démo argumentée à ton boss, à qui tu démontreras ton gain de productivité avec Linux.

              Mon boss viens me demander de faire des recherches pour lui…

              Et dans certains cas, il les fait lui même… dans un linux dans une machine virtuelle sur son windows !!!!
              Oui oui, il préfère ça à l'outil de recherche integré dans vs 2010.

              Ah oui, par contre, faudra des vrais chiffres avec la même chose de chaque côté, et pas une subjectivité des plus douteuses.

              Je pense que la subjectivité d'attendre 5 fois plus n'est pas si douteuse que ça, et mêem si en vrai c'est notre méchante subjectivité qui nous à donné cette impression et que c'est que 3,8 fois plus, ça reste pas si mal.
              Fais le test toi même, et tu verras.

              Je te donne des chiffres sous linux que je viens de faire là :
              à froid (pas vraiment en fait) une recherche dans 20000 fichiers cpp/h, 35 secondes. La même juste après, 13 secondes.

              commencez par arrêter avec vos mensonges

              Menteur toi même ! T'as qu'à faire le test et tu verras.
              Ou mieux, tu viens et je te montre, et après tu t'excuses publiquement de m'avoir traité de menteur, ça te va comme deal ?

              • [^] # Re: Oh les approximations pour prêcher sa paroisse

                Posté par  (site web personnel) . Évalué à 3.

                Ou mieux, tu viens et je te montre,

                Tu me montres quoi? Que tu teste B, C, D différents (genre d'un côté grep simple et de l'autre MSVC qui fait plein d'autres choses) et tu conclues A qui n'a rien à voir.

                C'est a capacité à tester que je met en doute, et encore plus ta capacité à faire des conclusions. Absolument rien d'objectif. Que tu me le montres ne change rien : tu testes mal, et accuse celui que tu as envie. Si au moins tu avais fait genre un grep sous cygwin pour avoir la même base et tester l'OS…

                Encore une fois, tu as dis "il n'y a aucun cache", un simple test de lecture de fichier te montrera le contraire. Ou alors mes disques durs SATA de base sont vachement rapides à me balancer des Go/s…

              • [^] # Re: Oh les approximations pour prêcher sa paroisse

                Posté par  (site web personnel) . Évalué à 4.

                Mon boss viens me demander de faire des recherches pour lui…
                Et dans certains cas, il les fait lui même… dans un linux dans une machine virtuelle sur son windows !!!!
                Oui oui, il préfère ça à l'outil de recherche integré dans vs 2010.

                Donc en fait ce que tu montres c'est que l'outil codé en C, pour un besoin spécifique, est plus rapide que la recherche intégrée dans VS2010.

                Et si tu portes l'outil en C avec regexp perl sous windows, ça donne quoi comme résultat exactement ?

                • [^] # Re: Oh les approximations pour prêcher sa paroisse

                  Posté par  . Évalué à 1.

                  En même temps, entre une recherche par un outil qui doit ouvrir tous les fichiers un a un et les parcourir et la recherche par un outil qui a déjà les fichiers ouverts en cache, on pourrait penser que l'IDE part avec un très net avantage.

                  D'ailleurs la recherche VS2010, si elle utilise celle fournit par .NET, utilise en effet PCRE dans sa dernière version, qui est censé être plus efficace que l'outil de recherche de grep (cf la manpage de grep).

                  Donc non, VS n'a aucune excuse pour être plus lent que grep (et il l'est en effet, de beaucoup). Je conseille vivement l'utilisation de l'extension Reshaper qui améliore sensiblement cet état de fait.
                  Après pour les histoires de FS, je vous laisse tirer vos propres déductions, j'en suis personnellement incapable.

                  • [^] # Re: Oh les approximations pour prêcher sa paroisse

                    Posté par  (site web personnel) . Évalué à 5.

                    un outil qui a déjà les fichiers ouverts en cache

                    Il n'a pas forcément tous les fichiers ouverts en cache, non ?

                    Donc non, VS n'a aucune excuse pour être plus lent que grep

                    en fait la problématique est surtout de tirer la conclusion "fs windows est plus lent que fs linux" car "recherche vs plus lente que recherche c+grep"
                    Et donc il faudrait commencer par chercher avec le même outils sur les deux systèmes pour en tirer un début de conclusion (un début, pour en tirer une conclusion c'est même pas suffisant).
                    Et étant donné que C et les regexp perl existent aussi sous windows alors que vs2010 n'existe pas sous linux la première chose à faire est de tester l'outil sous windows.
                    Après on peut peut-être supputer des choses au niveau du système de fichier, mais avant absolument aucune.

    • [^] # Re: Oh les approximations pour prêcher sa paroisse

      Posté par  (site web personnel) . Évalué à 1.

      C'est clair qu'on les attend au tournant du packaging, de la diversité matérielle et de la diversité des lib. A priori, si des gros et des très gros éditeurs n'ont en gros que 2-3 config linux à leur catalogue, avec un gros max 2 distributions, que peut faire un petit éditeur ? ZeroInstall ?

      Je partage l'avis de Zenitram que ca restera avant tout Ubuntu, et peut-être une autre distrib si ils trouvent une part de marché significative de celle-ci sur les bureaux des utilisateurs…

      Exit gentoo, debian, archlinux, Mandritruc, Mageia. Suse et Fedora ont un peu leur chance. Ca n'empêchera pas des passionnés de faire à peu près le travail de portage…

      • [^] # Re: Oh les approximations pour prêcher sa paroisse

        Posté par  . Évalué à 3.

        pour tester un poil des binaire déjà compilés, généralement tu vire la libSDL qui est packagé avec et ça tourne tout seul ;)

        D'ailleurs je ne comprends pas pourquoi ils s'obstinent à vouloir la mettre, c'est plus une source de plantage qu'autre chose.

        Il ne faut pas décorner les boeufs avant d'avoir semé le vent

        • [^] # Re: Oh les approximations pour prêcher sa paroisse

          Posté par  . Évalué à 2.

          pour tester un poil des binaire déjà compilés, généralement tu vire la libSDL qui est packagé avec et ça tourne tout seul ;)

          D'ailleurs, ça aussi ça devrait progresser, la SDL. Un meilleur support des claviers etrangers serait pas du luxe (a moins que ça ait déjà été fait).

      • [^] # Re: Oh les approximations pour prêcher sa paroisse

        Posté par  . Évalué à 10.

        Je partage l'avis de Zenitram que ca restera avant tout Ubuntu, et peut-être une autre distrib si ils trouvent une part de marché significative de celle-ci sur les bureaux des utilisateurs…

        Ca n'a pas de sens, steam est une plateforme gratuite de distribution de logiciels. Se faire chier à la porter sous linux pour la restreindre à un sous ensemble d'utilisateurs serait plus qu'idiot.
        Ils vont faire comme google, openoffice ou mozilla, proposer au moins un tarball, au mieux, un deb, un rpm et un tarball, le tout générique avec la possibilité de le distribuer par dessus, pour les distros ou les sites de téléchargement comme sous windows.
        Probablement qu'ubuntu le proposera à travers son propre store.
        A moins qu'il y ait un accord d'exclu avec ubuntu, ça n'aurait pas de sens de changer leur modèle qui est de devenir "LA plateforme de téléchargement de jeux" et pas du tout "la plateforme de téléchargement de jeux d'ubuntu".

        Et valve n'est pas un petit éditeur. Grace à steam notamment.

        • [^] # Re: Oh les approximations pour prêcher sa paroisse

          Posté par  (site web personnel) . Évalué à 3.

          Mhhh, donc Canonical va mettre dans son store un concurrent, et pas "un concurrent gratuit", un concurrent commercial plus gros qu'eux ? Une forme d'agonie économique à long terme, AMHA.

          J'ai des doutes, personnellement. Quand une boite est réduit à prendre un pourcentage des ventes de rhythmbox, mozilla et banshee ( http://blog.magnatune.com/2010/03/magnatune-sends-check-to-gnome-foundation-thanks-to-rhythmbox.html , http://www.zdnet.com/blog/open-source/banshee-vs-ubuntu-linux-on-revenue-sharing/8296 etc ) pour se payer, je doute qu'elle laisse une autre boite proposer un catalogue de jeux mieux fournis et plus attractif, ou alors, pas gratuitement. Ce qui veut dire que soit Ubuntu va devenir moins rentable pour Valve si Canonical prends sa part ( ce qui va quand même fortement réduire l'incitation à porter les jeux si Canonical prends 75% comme pour Banshee ), soit les jeux vont être plus cher si Valve garde sa marge ainsi que Canonical et les éditeurs ( en plus d'être ubuesque ).
          Soit les éditeurs payent la différence, mais bon, pas besoin d'expliquer pourquoi c'est mal (tm).

          Faut quand même se souvenir que les jeux, c'est ce qui se vends le mieux sur le software center aujourd'hui.

          Donc je pense que steam va être mis de coté, sauf à vouloir se prendre une claque plus tard ( c'est ça d'avoir fait rentrer le proprio et le commercial sur sa plateforme )

          • [^] # Re: Oh les approximations pour prêcher sa paroisse

            Posté par  . Évalué à 5.

            je doute qu'elle laisse une autre boite proposer un catalogue de jeux mieux fournis et plus attractif, ou alors, pas gratuitement

            Sauf si Canonical comprend que les jeux sont un attracteur assez massif et peuvent l'aider à augmenter les parts de marché d'Ubuntu.

          • [^] # Re: Oh les approximations pour prêcher sa paroisse

            Posté par  . Évalué à 5.

            Mhhh, donc Canonical va mettre dans son store un concurrent, et pas "un concurrent gratuit", un concurrent commercial plus gros qu'eux ? Une forme d'agonie économique à long terme, AMHA.

            S'ils ne le mettent pas dans le store, il sera de toutes façon dispo ailleurs (On peut déjà le trouver sur pleins de sites pour windows). Le mettre dans le store c'est une manière d'être lié à ce succés, d'en retirer d'éventuel profit plus tard.
            Un exemple c'est les jeux indie bundle, ils s'achètent sur le bundle mais tu peux les activer ensuite dans le store. Le store n'est pas indispensable dans le process, c'est une commodité.

            Faut quand même se souvenir que les jeux, c'est ce qui se vends le mieux sur le software center aujourd'hui.

            Faut quand même se souvenir que les ventes par le software center sont microscopiques et le risque de perte est donc minime. Si canonical espère retrouver un peu de ses investissements, avoir valve sur ubuntu est une occasion d'importance.

            Quand une boite est réduit à prendre un pourcentage des ventes de rhythmbox, mozilla et banshee

            Je pense que c'était plus l'occasion de montrer leur store pardon software center comme plateforme cohérente que pour les sommes microscopiques que ça représentaient.
            Si je me souviens bien, le gars de magnatune a dit que les utilisateurs d'ubuntu représentaient beaucoup en téléchargement gratuit mais très peu , moins que les autres distros en terme de paiement. Donc clairement la stratégie de canonical n'est pas de recouper les couts avec les utilisateurs actuels, mais d'augmenter la base des utilisateurs pour être rentable en aval, et de présenter une plateforme crédible et complète pour que développeurs et partenaires la choisissent.
            D'un coté, c'est triste parce que c'est toujours la même problématique que mandriva, la situation a peu évoluée sur le fond et en démographie, de l'autre il faut reconnaitre que leur plateforme est plus aboutie, plus crédible et valve représenterait un succés de ce point de vue.

            • [^] # Re: Oh les approximations pour prêcher sa paroisse

              Posté par  (site web personnel) . Évalué à 3.

              Le mettre dans le store c'est une manière d'être lié à ce succés, d'en retirer d'éventuel profit plus tard.

              Sauf que "plus tard" ç'est aujourd'hui pour ce genre de plan de hier. Il y a des limites de temps à "on sera rentable plus tard", surtout quand Canonical a déjà dit il y a 2/3 ans "on va bientôt être à l'équilibre".

              Faut quand même se souvenir que les ventes par le software center sont microscopiques et le risque de perte
              est donc minime.

              Tu sembles avoir plus de chiffres que moi sur les ventes, donc est ce que tu peux partager, qu'on juge le "microscopique" ? ( parce que moi, je trouve rien, même si j'ai pas le sentiment que ça soit le grand succès ).

              Donc clairement la stratégie de Canonical n'est pas de recouper les couts avec les utilisateurs actuels, mais
              d'augmenter la base des utilisateurs pour être rentable en aval, et de présenter une plateforme crédible et
              complète pour que développeurs et partenaires la choisissent.

              Et donc, la monétisation de tout ça arrive comment ? Les développeurs, pour le moment, ils font des jeux, et Canonical ne va avoir sa part que via le software center ( cf ce que j'ai dit ). Surtout que j'ai un ami qui a vérifié pour moi, le même jeu ( amnesia ) vendu 20€ sur le software center, et 15€ sur Steam. Si le but de Canonical n'était pas de rentrer dans ses frais, le jeu serait à un prix plus compétitif. La, ça n'a aucun sens, sauf à se dire que Canonical refuse de faire du dumping parce qu'ils peuvent pas se le permettre ( et très franchement, je peux le comprendre ).

              Donc il reste les partenaires, ce qui est vague. Si tu parles des OEMs, le problème est simple, changer de plateforme coute de l'argent ( en terme de changement de process ), et soit Canonical fait des choses à pertes, soit est plus cher que Microsoft ( ne serais que par le volume ). Et pire encore, dans l'état actuel du marché de l'emploi, les couts de l'adaptation de l'OS sont payé via des ingés de Canonical. Soit aux frais du client => plus cher pour moins de vente, soit aux frais de Canonical => réduit les marges drastiquement, et habitue les clients à avoir des trucs gratos. Sans compter que c'est s'appuyer sur un marché ou Microsoft est fortement présent et que Microsoft est capable de faire chuter les prix bien plus que Canonical pourrait.

              Donc malheureusement, j'ai pas de grand espoir sur la rentabilité de Canonical à court terme, et c'est dommage pour le libre.

              • [^] # Re: Oh les approximations pour prêcher sa paroisse

                Posté par  . Évalué à 5.

                Sauf que "plus tard" ç'est aujourd'hui pour ce genre de plan de hier. Il y a des limites de temps à "on sera rentable plus tard", surtout quand Canonical a déjà dit il y a 2/3 ans "on va bientôt être à l'équilibre".

                Je suis bien d'accord, mais c'est pas parce qu'il faudrait déjà être plus loin qu'on en est déjà là.
                C'est ce que je disais ailleurs, sur le fond, la situation n'a apparemment pas changé fondamentalement depuis les début de canonical ni depuis mandriva ni depuis mandrake.
                La seule chose qui a changé c'est qu'ils font maintenant du développement pour créer une plateforme one + le store et surtout unity après avoir compris que la partie desktop de la stack linux ne mène nulle part. (calcul qu'a du faire google en interne il y a 10 ans).

                Tu sembles avoir plus de chiffres que moi sur les ventes, donc est ce que tu peux partager, qu'on juge le "microscopique" ? ( parce que moi, je trouve rien, même si j'ai pas le sentiment que ça soit le grand succès ).

                • En décembre, dans leurs 10 meilleures ventes le 10ème était un jeu tout pourri même pas au niveau d'un jeu flash gratuit.
                  OK. I won't keep it a secret. :) I've got about 25 or 26 sells for Memory Owl HD which gave me 10th place. To say I was a little surprised to even be on such list would be an understatement. :) Doesn't look too good for developers though maybe there is just too few paid apps so the list is short anyway.
                  Un autre jeu, mieux développé qui a été numéro un en mars, commentaire du développeur:
                  Thanks. I just wish it would reflect in monetary equivalent :(
                  Il a par ailleurs dit avoir fait 700 ventes autour de l'été 2011 où il y avait eu une promo à 3 dollars. Et il a déclaré faire 3% de ses ventes sur linux.

                • On pourrait imaginer que le 10ème ne fait pas beaucoup mais que le premier oui, par une espèce de miracle, mais canonical annonce quand ils font des grosses "ventes".
                  Qu'est ce qu'ils ont annoncé comme grosse vente? 10000 installation de jeux du humble bundle V.
                  C'est la seule.

                • Le hb V c'est 150 000 ventes linux (1/4 de 600 000 comme estimation). Donc les acheteurs pouvaient activer leurs soft sur USC gratuitement. Déjà, c'est pas des ventes, je ne sais pas s'il y avait un accord commercial derrière ni de combien mais là encore ça doit pas être bézeff vu que tout le boulot est fait par les autres.
                  Quant au chiffre, si 75% des acheteurs de bundle est sous ubuntu (estimation gentille d'après les download de magnatune et pas les achats de magnatune), seulement 11% des utilisateurs de ubuntu ont matérialisé cette offre gratuite. Donc le USC n'est même pas un outil dont l'ubiquité et l'importance est acquise au sein des utilisateurs de la distro.

                Et donc, la monétisation de tout ça arrive comment ?

                Ah mais je suis bien d'accord.
                Investir dans une solution pour front end users qu'on veut garder gratuite en faisant de l'argent dans le monde du serveur qui est déjà occupé par des plus gros, et libre en faisant de l'argent en vendant des softs proprio, c'est un double grand écart facial entre quatre chaises pas facile à réaliser.
                Mandrake puis mandriva s'y sont plantés; nul doute que shuttleworth qui fait le même chose mais en mieux sait comment résoudre cette quadrature du cercle et que ceux qui le soutiennent aveuglément depuis lors savent comment il va faire.
                Moi, pas.
                Un bouton paypal? Des mugs? Des t shirts? Des peluches?
                Un kickstarter libre pour financer des développements nécessaires et choisis par les utilisateurs?

        • [^] # Re: Oh les approximations pour prêcher sa paroisse

          Posté par  . Évalué à 4.

          Ca n'a pas de sens, steam est une plateforme gratuite de distribution de logiciels. Se faire chier à la porter sous linux pour la restreindre à un sous ensemble d'utilisateurs serait plus qu'idiot.

          Le problème, c'est que ça coûte en ressource de tester plein de distributions différentes et de corriger les bugs spécifiques (et selon mon expérience, ils sont plus nombreux pour les jeux à cause de la pile graphique, de la pile audio et des manettes). Donc, se limiter à Ubuntu, c'est estimer que le coût de portage sur les autres distribs n'en vaut pas la peine.

          « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

          • [^] # Re: Oh les approximations pour prêcher sa paroisse

            Posté par  . Évalué à 2.

            Le problème, c'est que ça coûte en ressource de tester plein de distributions différentes et de corriger les bugs spécifiques (et selon mon expérience, ils sont plus nombreux pour les jeux à cause de la pile graphique, de la pile audio et des manettes).

            Mais le support audio, graphique ou des manettes n'est pas spécifique à ubuntu.

            • [^] # Re: Oh les approximations pour prêcher sa paroisse

              Posté par  . Évalué à 6.

              Si parce qu'il y a des patchs spécifiques (ou des options par défaut) à chaque distribution et parfois ce sont des combinaisons de version qui pose problème qui pose problème, par exemple (fictif) Gnome shell 3.4 avec Mesa 8.0 et Linux 3.3. Alors ce n'est pas forcément spécifique à la distribution en tant que tel mais le fait est que tu ne retrouvera ce bug que dans une (ou un petit nombre de) distribution(s).

              « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

              • [^] # Re: Oh les approximations pour prêcher sa paroisse

                Posté par  . Évalué à 4.

                C'est vrai.
                Comme j'ai l'habitude d'utiliser les nvidia qui évitent une bonne partie de la stack et de ses problème, je suis un peu gaté.

                Il me semblait que puisque c'est valve qui fait les tests en internes, qui dirige les progrès dans la direction du support de leurs jeux en amonts, ils restreindraient le champ de leur support à des solutions génériques: driver nvidia version X, driver AMD version Y, intel version Y.
                Mais c'est vrai, avec les AMD et les intel, ça risque d'être plus compliqué vu qu'il faut garantir toute la stack aussi.

                D'un autre coté, il me semble qu'une fois le travail d'amélioration fait, les améliorations devraient se retrouver répercutées dans toute la stack, et que les distros qui sont intéressées par le grand public, les jeux, la 3D et qui ne sont pas dérivées d'ubuntu les inclueront immédiatement et du coup ça ne représenterait pas une grande différence avec ubuntu, et donc un grand intérêt pour valve de se restreindre à ubuntu puisque c'est eux qui font le travail de test et d'amélioration et pas ubuntu.

                • [^] # Re: Oh les approximations pour prêcher sa paroisse

                  Posté par  (site web personnel) . Évalué à 5.

                  Comme j'ai l'habitude d'utiliser les nvidia qui évitent une bonne partie de la stack et de ses problème, je suis un
                  peu gaté.

                  Ah oui, utiliser nvidia pour remplacer webmin et openssh pour le contrôle à distance permet d'avoir la même expérience partout :)

                • [^] # Re: Oh les approximations pour prêcher sa paroisse

                  Posté par  . Évalué à 4.

                  Je suis bien convaincu de cette uniformisation entre les distributions. Entre les logiciels qui ne sont pas très bien fini (par exemple, ils utilisent les chemins en dur au lieu des variables xdg) et les options par défaut des libs/programmes (avec 4 distributions différentes je n'ai vu 4 fonctionnement différent pour pulseaudio).

                  « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

                  • [^] # Re: Oh les approximations pour prêcher sa paroisse

                    Posté par  . Évalué à 2.

                    J'imagine que tu voulais dire:

                    Je suis pas bien convaincu de cette uniformisation entre les distributions

                    ?

                    avec 4 distributions différentes je n'ai vu 4 fonctionnement différent pour pulseaudio

                    Tu es très positif, l'emploi de la négation t'est difficile.

                    Les fonctionnements différents, c'était à version égale, ça avait un impact sur les jeux?
                    Les logiciels qui ne sont pas très bien fini, on parle de quel genre de logiciels qui impacteraient un programme tiers et qui si ils étaient réparés/amélioré sur ubuntu ne seraient pas réparés/amélioré ailleurs? A part unity?

                    • [^] # Re: Oh les approximations pour prêcher sa paroisse

                      Posté par  . Évalué à 4.

                      J'imagine que tu voulais dire:

                      Je suis pas bien convaincu de cette uniformisation entre les distributions

                      ?

                      Oui, j'ai écrit mon commentaire un peu vite et j'ai reformulé plusieurs fois, du coup, ça a laissé des marques, désolé.

                      Les logiciels qui ne sont pas très bien fini, on parle de quel genre de logiciels qui impacteraient un programme tiers et qui si ils étaient réparés/amélioré sur ubuntu ne seraient pas réparés/amélioré ailleurs? A part unity?

                      Je parle des jeux qui vont s'installer avec Steam. Par exemple (vécu, mais pas avec un jeu), le logiciel d'installation ne va faire qu'un lien dans le dossier Desktop pour pouvoir se lancer (pas dans le menu, peut-être, même pas dans le path) un utilisateur qui utilise Gnome 3 ne le verra pas sur son bureau (si j'ai bien compris, je n'ai pas encore testé Gnome 3), ce n'est pas très compliqué à corriger mais c'est pour donner une idée de ce qui arrive. Autre exemple, certaines distribution mettent /opt/bin dans le path, d'autre pas, si un développeur compte dessus, ça peut aussi poser problème. Je donne des exemples simple parce que je ne connais pas bien les problèmes qui peuvent arriver mais c'est pour donner une idée.

                      « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

    • [^] # Re: Oh les approximations pour prêcher sa paroisse

      Posté par  (site web personnel) . Évalué à 5.

      Pour l'instant, c'est pas Linux mais Ubuntu.

      Non, pour le moment c'est Nvidia

      Ça ne me dérange pas que pour les besoins d'un logiciels propriétaires que je n'utilise pas, certains améliorent le logiciel libre que j'utilise.
      Dans le cas présent, pour un logiciel propriétaire que je n'utilise pas, certains améliorent un autre logiciel propriétaire que je n'utilise pas non plus. Donc ça ne me fait ni chaud ni froid.

      Par contre, si leur travaille fait remonter des bugs dans le tracker de linux, de la pile mesa, de xorg, du son et des pilotes graphiques libres, etc. Là ce sera une excellente chose ! Si Nvidia réinvente la roue pour beaucoup de choses (pour réduire au minimum le diff entre son pilote windows et son pilote linux), ce n'est pas vrai du pilote Intel par exemple, et peut-être que certains bugs trouvés avec le pilote Intel seront en fait des bugs dans des sous-systèmes utilisés par les autres pilotes libre.

      Et même si leurs jeux ne seraient que packagés pour Ubuntu, les autres distributions bénéficieraient de ces correction de bugs.

      Pour le moment c'est surtout nVidia qui s'en sort… à suivre dans le futur, cet état de fait devrait changer je pense.

      ce commentaire est sous licence cc by 4 et précédentes

      • [^] # Re: Oh les approximations pour prêcher sa paroisse

        Posté par  . Évalué à 7.

        Pour le moment c'est surtout nVidia qui s'en sort… à suivre dans le futur, cet état de fait devrait changer je pense.

        En terme de performance.
        Ils ont commencé à améliorer les drivers intel, des ingés intel sont allés chez eux. Quelqu'un avait mis son blog en lien dans le dernière discussion/journal sur le sujet.

  • # Vivre le marketing Apple pour vendre du Linux

    Posté par  . Évalué à 9.

    « tourne de façon 20% plus performante »

    315 / 270.6 = 1,164…

    Franchement, moi j'aurais carrément dit 50 %. Et puis que c'est grâce à Gnome. Et puis on ne dit pas RMS mais La-maman-de-RMS/RMS car sinon c'est nier tout le travail qu'elle a fait, la pauvre.

    • [^] # Re: Vivre le marketing Apple pour vendre du Linux

      Posté par  . Évalué à 10.

      50% du code provenait de son père.

      • [^] # Re: Vivre le marketing Apple pour vendre du Linux

        Posté par  . Évalué à 9.

        Non, tout venait de la mère. Il a juste fallu l'apport des midi-chloriens pour qu'il devienne l'Élu.

        Article Quarante-Deux : Toute personne dépassant un kilomètre de haut doit quitter le Tribunal. -- Le Roi de Cœur

    • [^] # Re: Vivre le marketing Apple pour vendre du Linux

      Posté par  . Évalué à 2. Dernière modification le 02 août 2012 à 17:29.

      Oui et plus exactement on a :
      16.4% plus rapide sur Ubuntu 32bits avec le blob nvidia.
      Et ils vont maintenant voir à améliorer les prefs sur directx.

      • [^] # Re: Vivre le marketing Apple pour vendre du Linux

        Posté par  . Évalué à 3.

        Ce qui me fait penser que la comparaison est potentiellement biaisée en raison de la différence d'architecture entre les deux OS. D'après les tests de performance faits pour l'abi x32, le 64 bit représente 30% de gains sur des programmes de calcul, mais x86 représente 30% de gain sur des programmes mettant la pression sur la mémoire. Ces chiffres ne permettent pas de dire quoi que ce soit, si ce n'est qu'il est possible que cette comparaison soit invalidée une fois le passage à 64 bits effectué sur ubuntu (ou le contraire, des gains encore plus grands).

        • [^] # Re: Vivre le marketing Apple pour vendre du Linux

          Posté par  (site web personnel) . Évalué à 2.

          s'ils ont 32 go de mémoire, en 32bits ils utilisent du pae non ? ce qui signifie que la vitesse mémoire est quelque peu plombée non ?

          ce commentaire est sous licence cc by 4 et précédentes

          • [^] # Re: Vivre le marketing Apple pour vendre du Linux

            Posté par  . Évalué à 3.

            On se moque un peu de l'archiecture 32 ou 64 bits pour les jeux, l'essentiel des performances sont dues a la carte graphique qui est indépendante ( je crois qu'elles sont en 256 bit ou 384). Sous Windows il n'y a pas de différence de performances entre un jeu 32 et 64 bits.

            • [^] # Re: Vivre le marketing Apple pour vendre du Linux

              Posté par  (site web personnel) . Évalué à 6.

              Ça dépend. Si on a 300FPS, on est très probablement en situation où le CPU est un facteur limitant. Dans ces cas là, x86 vs. x86-64 va faire une différence.

              • [^] # Re: Vivre le marketing Apple pour vendre du Linux

                Posté par  . Évalué à 2.

                Oui c'est vrai, d'ailleurs dans les tests de CPU on fait tourner quelques jeux en résolution minimale afin d'arriver à un stade où la carte graphique se touche et le CPU commence à fatiguer. M'enfin la plupart des écrans sont bloqués à 60FPS et tu as surtout besoin de puissance lorsque le jeu est gourmand. Tourner à 300 ou 320FPS ce n'est pas une grosse différence.

          • [^] # Re: Vivre le marketing Apple pour vendre du Linux

            Posté par  . Évalué à 3. Dernière modification le 02 août 2012 à 21:57.

            s'ils ont 32 go de mémoire, en 32bits ils utilisent du pae non ? ce qui signifie que la vitesse mémoire est quelque peu plombée non ?

            Je ne vois pas le rapport. PAE (physical address extension), qui étend les adresses physiques à 36 bits et laisse les adresses virtuelles à 32 bits, n'a aucune incidence sur la vitesse de la mémoire.

            • [^] # Re: Vivre le marketing Apple pour vendre du Linux

              Posté par  (site web personnel) . Évalué à 2.

              Oup's, j'avais en mémoire un vieux troll à propos d'un système qui permettait de dépasser la limites théoriques des 4go en 32bit mais que ça rendait plus lent certains accès mémoire, et certains renchérissaient en disant que plutôt que de chercher un contournement subobtimal en 32bit, autant faire du 64bit… Mais ça parlait peut-être d'une autre techno qui n'est pas le PAE… Si la techno de mon souvenir n'est pas le PAE, et que le PAE n'a pas d'incidence (surtout qu'effectivement cela semble matériel), alors pardon j'ai rien dit (j'ai peut-être confondu avec bigmem).

              Mais si le PAE existe depuis au moins le Pentium Pro (d'après Wikipédia), pourquoi on n'en faisait pas avant ? Pourquoi le noyau de Squeeze n'utilise pas le PAE et qu'il faut attendre Wheezy pour l'avoir dans une Debian stable ? Et pourquoi on parlait j'usqu'à l'année dernière de cette limite des 4Go alors que le Pentium pro est sorti en 1995 ?

              ce commentaire est sous licence cc by 4 et précédentes

              • [^] # Re: Vivre le marketing Apple pour vendre du Linux

                Posté par  . Évalué à 2.

                Mais si le PAE existe depuis au moins le Pentium Pro (d'après Wikipédia), pourquoi on n'en faisait pas avant ?
                Ben parce que personne n'avait de machine avec 4 Go de RAM.

                • [^] # Re: Vivre le marketing Apple pour vendre du Linux

                  Posté par  (site web personnel) . Évalué à 2. Dernière modification le 02 août 2012 à 22:58.

                  On ne savait peut-être pas faire 4Go à l'époque du Pentium Pro, mais ça fait tout de même quelques années qu'on sait les fabriquer les 4Go ! Pourquoi avoir inventé le bigmem quand on a su faire plus de 4go alors que nos processeurs savaient déjà faire du pae ?

                  Pourquoi cette entrée de forum a existé ?

                  ce commentaire est sous licence cc by 4 et précédentes

              • [^] # Re: Vivre le marketing Apple pour vendre du Linux

                Posté par  . Évalué à 2.

                Oup's, j'avais en mémoire un vieux troll à propos d'un système qui permettait de dépasser la limites théoriques des 4go en 32bit mais que ça rendait plus lent certains accès mémoire, et certains renchérissaient en disant que plutôt que de chercher un contournement subobtimal en 32bit, autant faire du 64bit…

                Tu dois penser à Address Windowing Extensions, qui est un bidule spécifique à Windows.

                Pourquoi le noyau de Squeeze n'utilise pas le PAE et qu'il faut attendre Wheezy pour l'avoir dans une Debian stable ?

                Je n'en sais rien.

                Et pourquoi on parlait j'usqu'à l'année dernière de cette limite des 4Go alors que le Pentium pro est sorti en 1995 ?

                La limite des 4 Go s'applique de toute façon à l'espace d'adressage (virtuel) de chaque processus, ce qui peut être un point bloquant pour certaines applications.

          • [^] # Re: Vivre le marketing Apple pour vendre du Linux

            Posté par  . Évalué à 1.

            Même avec PAE, chaque processus est limité à 3 Go.

        • [^] # Re: Vivre le marketing Apple pour vendre du Linux

          Posté par  . Évalué à 1.

          Un jeu 32 bits n'a pas spécialement un énorme besoin intrinsèque de passer en 64 bits.

          • [^] # Re: Vivre le marketing Apple pour vendre du Linux

            Posté par  . Évalué à 4.

            Il y a quelques mois j'avais testé Nexuiz en 32 et 64 bits sur ma modeste machine, avec r600g. Y'avait une différence de FPS en faveur du 64 bits dont je ne crache pas dessus.

          • [^] # Re: Vivre le marketing Apple pour vendre du Linux

            Posté par  (site web personnel) . Évalué à 6.

            Ton affirmation est exacte.
            Par contre, un jeu x86 a un intérêt pas négligeable à passer en x86-64. Ce n'est pas l'espace d'adressage qui importe, mais le fait que x86-64 apporte de vraies améliorations à l'architecture : 8 registres supplémentaires, passage de paramètres dans les registres par défaut, calculs avec SSE et non x87 par défaut, et adressage relatif au pointeur d'instruction (utile pour les libs).
            Ces modifications là, et particulièrement le plus grand nombre de registres, peuvent apporter une amélioration de performance de l'ordre de 20% sur les tâches CPU. Un jeu vidéo peut en bénéficier.

            • [^] # Re: Vivre le marketing Apple pour vendre du Linux

              Posté par  . Évalué à 1.

              En pratique il n'y a pas de différence entre Crysis 64 bits et le 32 bits. Idem pour Half Life 2 (d'ailleurs ils sont revenus en 32 bits only). Ce ne sont que deux exemples mais de manière générale les jeux consomment très peu de CPU en comparaison de la carte graphique.

              Il y a une exception avec le cas des configurations en Crossfire et SLI, les bench ont toujours montré l'importance du CPU.

              • [^] # Re: Vivre le marketing Apple pour vendre du Linux

                Posté par  (site web personnel) . Évalué à 1.

                Je suis d'accord que la performance d'un jeu vidéo moderne dépend avant tout de la carte graphique. Par contre, un jeu ancien (par rapport au matériel), par exemple Doom 3 voire Quake 3, dans une situation où il affiche 300 images par seconde, est beaucoup plus lié au CPU d'après ce que j'ai lu.
                L'explication intuitive est qu'il y a des "frais fixes CPU" pour préparer chaque rendu d'image (assembler la liste des primitives, envoyer les textures, mais aussi simuler la physique, …).

                De toute façon, l'architecture x86-64 est assez indiscutablement supérieure (même si elle entraîne un surcoût en bande passante mémoire à cause de la taille des adresses absolues, surcoût dont j'ignore s'il a été scientifiquement mesuré). C'est bête de ne pas s'en servir. Le problème étant qu'on ne peut pas faire tourner une appli 64 bits sur un Windows 32 bits, dont je soupçonne qu'il reste majoritaire encore aujourd'hui.

                • [^] # Re: Vivre le marketing Apple pour vendre du Linux

                  Posté par  . Évalué à 4.

                  Par contre, un jeu ancien (par rapport au matériel), par exemple Doom 3 voire Quake 3, dans une situation où il affiche 300 images par seconde, est beaucoup plus lié au CPU d'après ce que j'ai lu.

                  Ce que j'avais lu à l'époque, c'était que les perfs des jeux Id était plus liée à la carte graphique et ceux basés sur le unreal engine, plus liés au CPU.

                • [^] # Re: Vivre le marketing Apple pour vendre du Linux

                  Posté par  . Évalué à 1.

                  Je suis d'accord sur l'intérêt du 64 bits, je tourne d'ailleurs sur Fedora x86_64 et je n'ai pas installé de paquet en 32 bits parce que je trouve que ça ne fait pas propre. Mais bon il faut avouer que quand tu as 300FPS sur un jeu tu te moques un peu d'avoir + ou - 20%, c'est fluide c'est tout.

                  • [^] # Re: Vivre le marketing Apple pour vendre du Linux

                    Posté par  . Évalué à 1.

                    Pas forcément, il vaut mieux 60fps vsync ou 120 que 300 sans vsync.

                    Certains jeux avec un haut framerate ne semblent pas fluides. Rapide oui mais leur apparence n'est pas fluide.

                    Je ne sais pas à quoi c'est du.

                • [^] # Re: Vivre le marketing Apple pour vendre du Linux

                  Posté par  (site web personnel) . Évalué à 3.

                  Le surcoût du 64bits est réel mais surtout à cause des caches, c'est ce qui a poussé la création de l'architecture x32

                  • [^] # Re: Vivre le marketing Apple pour vendre du Linux

                    Posté par  (site web personnel) . Évalué à 1.

                    Merci de nous rappeler l'existence de ce projet. On dirait qu'il y a assez peu de benchmarks qui ont été réalisés. Théoriquement l'idée est séduisante, en pratique j'aimerais voir si par exemple cela peut accélérer Firefox (dont je trouve qu'il a ralenti dans des proportions pires que l'accélération des CPU ces dernières années).

                • [^] # Re: Vivre le marketing Apple pour vendre du Linux

                  Posté par  . Évalué à 2.

                  L'architecture x86-64 est assez indiscutablement supérieure (même si elle entraîne un surcoût en bande passante mémoire à cause de la taille des adresses absolues, surcoût dont j'ignore s'il a été scientifiquement mesuré).

                  Il y a rarement des absolus. Le x86-64 n'est pas indiscutablement supérieur pour toutes les taches, justement à cause de l'impact de la taille des pointeurs sur la BP des bus et surtout sur l'occupation des caches (enfin bon une fois le cache miss suplémentaire atteint, le chargement d'un bloc depuis la ram risque d'être de taille un peu supérieur ce qui n'aide pas, bref les deux sont un peu liés). C'est probablement le problème principal, donc vivement x32 dans les cas où ça pose effectivement problème.

  • # FUD

    Posté par  (site web personnel) . Évalué à 4.

    Franchement un test avec une carte bien spécifique et un prog type optimisé avec au final une différence faible, ce n'est pas vraiment un argument technique convainquant (315 vs 303 FPS). Il n'est même pas dit que sur une CG moins performante Linux soit toujours devant.

    Ca sent le FUD pour convaincre les autres compagnies de production de jeu de les suivre dans leur plan business et à ne pas être seul à mettre ses roubignoles sur la table face à Microsoft.

    • [^] # Re: FUD

      Posté par  . Évalué à 10.

      Alors je t'aide: FUD: Fear Uncertainty and Doubt, donc quand Gabe Newell "Windows 8 is a catastrophe for everyone in the PC space.", ça c'est du FUD: une affirmation pour faire peur sans réelle justification.
      Quand un dev dit on a 315FPS dans X et 303FPS dans Y, ça ce n'est pas du FUD, c'est une information.

      Pour le reste je suis d'accord avec toi, Valve a tout intérêt à ce que d'autre producteurs de jeux fassent la même chose: avant de se battre pour avoir la plus grosse part du gâteau, il faut faire le gâteau!

      • [^] # Re: FUD

        Posté par  (site web personnel) . Évalué à -2.

        The cake is a lie…

      • [^] # Re: FUD

        Posté par  . Évalué à 3.

        quand Gabe Newell "Windows 8 is a catastrophe for everyone in the PC space.", ça c'est du FUD: une affirmation pour faire peur sans réelle justification.

        En même temps, c'est transparent : ils sont furax de voir débarquer l'appstore de windows 8 et s'inquiète pour l'avenir de steam. C'est un FUD assez honnête, finalement :-)

        • [^] # Re: FUD

          Posté par  . Évalué à 2.

          J'ai la même analyse mais ça n'en fait pas une remarque honnête pour autant: everybody != Valve.

  • # On s'en fout.

    Posté par  . Évalué à 1.

    Ils ont initié une campagne pour faire croire qu'ils aiment bien Linux parce que Microsoft lance son propre "store".

    Source plus performant? Et alors? Qu'est ce ça peut faire? des cartes de 2008 en tiraient déjà plusieurs centaines d'image par secondes.

    C'est un vieux moteur.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.