Bonjour à tous,
Il y a quelques jours, Nvidia communiquait sur le soi-disant effort d'ouverture de leur part quant à la mise à disposition de développeurs tiers d'informations sur les microcodes de leurs firmware.
Alors déjà on pouvait trouver leur comportement opportuniste lorsque l'on sait (ils l'admettaient d'ailleurs eux-mêmes) que les spec' fournies dans un premier temps étaient sans doute connues des codeurs du pilote libre Nouveau, grâce au reverse-engineering.
On se souvient également de l'amabilité adressée à leur attention par Linus Torvalds pour leur mauvaise relation avec le libre, ainsi que la potentielle perte d'un grand marché en Chine due à leur politique propriétaire fermée.
Mais aujourd'hui, si l'observation suivante est vraie, on peut vraiment s'interroger sur leur réel objectif vis-à-vis de Linux et sur leur honnêteté intellectuelle.
Nvidia aurait intentionnellement abaissé les performances de son driver Linux :
http://www.muktware.com/2013/10/nvidia-cripples-linux-drivers-windows/14883
Un utilisateur d'Ubuntu 12.04 possédant 4 écrans arrivait parfaitement à les faire fonctionner en mode multi avec la version 295 du pilote N'Vidia, mais plus avec la version 310 ni la 325.
En expliquant son problème et en posant la question sur le forum officiel de Nvidia, il obtient comme réponse (mais j'ignore si elle vient d'un dév' ou d'un employé de la marque) que le comportement observé est normal pour cette version du driver, et que la régression est due à un souci de parité avec le pilote Windows, qui ne peut supporter que 3 écrans !
Sans tomber dans la théorie du complot, nous étions largement habitués, pour des logiciels ou binaires propriétaires, à avoir moins d'options ou performances sur Linux, mais de là à volontairement dégrader les qualités d'un pilote Linux pour ne pas surpasser les autres OS, c'est tout de même fort de café…
Pourtant la documentation même de Nvidia explique bien que l'option Base Mosaic le permet :
This option can be used to extend a single X screen transparently across display outputs on each GPU. This is like SLI Mosaic mode except that it does not require a video bridge connected to the graphics cards.
A voir si dans la prochaine mise à jour le support de 4 écrans sous Linux reviendra.
Je serais curieux d'avoir l'avis de personnes qui connaissent le sujet (techniquement) mieux que moi - ce qui n'est pas très difficile !
Autres sources :
http://hardware.slashdot.org/story/13/10/05/0021237/nvidia-removed-linux-driver-feature-for-feature-parity-with-windows
http://www.tomshardware.com/news/nvidia-linux-basemosaic-ubuntu-parity,24519.html
# Ca aurait pu être bien pire!
Posté par Maclag . Évalué à 10.
Aujourd'hui ils veulent que leur pilote soit à parité avec Windows 7/8.
Imagine s'ils avaient eu la même politique à l'époque de Millenium: ça plante dès que tu t'en sers!
--------------> [ ]
# QA
Posté par claudex . Évalué à 10.
On peut imaginer que la plus grosse partie de la QA soit faite uniquement sur Windows, ça veut dire que les fonctionnalités spécifique à Linux doivent être testé à part, et ils n'ont pas envie de faire de la QA pour un écran en plus sous Linux. La fonctionnalité marchait mais elle n'était pas testée, il n'y avait donc aucune garantie qu'il n'y ait des bugs non détectés, donc ils préfèrent supprimer la fonctionnalité que devoir faire du support sur une fonctionnalité non testée.
« Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche
[^] # Re: QA
Posté par Xavier G. . Évalué à 7.
Possible et pertinent.
Mais, de la même manière qu'il existe des clauses dans les accords entre hôteliers et les centrales de vente comme Expédia les empêchant de proposer des prix de nuitées inférieurs à ceux vendus sur le site partenaire
et comme il y a sans doute des accords entre Microsoft et constructeurs permettant à ces derniers de bénéficier de conditions avantageuses sur le prix des OEM en volume s'ils ne commercialisent leurs ordinateurs qu'avec Windows préinstallé et non avec Linux ou sans OS :
Peut-on ainsi imaginer qu'il y a une contrepartie similaire entre MS et Nvidia imposant que les pilotes ne doivent pas fournir sur d'autres systèmes d'exploitations de meilleures performances que sous Windows, d'où une dégradation volontaire de ceux-ci sous Linux si la limitation est due non pas à la carte graphique ni à son driver, mais à Windows ? Ça paraît certes improbable, sauf que que cela reste plausible, et rien que ça en dit long sur les pressions économiques en jeu sur ce marché.
Ou effectivement c'est une tempête dans un verre d'eau, et l'explication est tout simplement basique : question d'assurance qualité pour Nvidia ou simple problème technique passager qui sera corrigé dans une prochaine mise à jour, sans rapport avec la polémique engendrée ? Dans ce cas, gageons que Nvidia s'expliquera en toute transparence, vue leur volonté d'ouverture.
[^] # Re: QA
Posté par claudex . Évalué à 8.
Si je me souviens bien de ce que j'ai lu sur le sujet, la fonctionnalité a été retirée (ou jamais activée) sous Windows parce qu'il y avait des problèmes de stabilité. Vu que la fonctionnalité n'est pas testée sous Linux, ces problèmes sont peut-être tout aussi présent (et ce n'est pas parce que ça marche chez un utilisateur que ça marche tout le temps).
Peut-être qu'il y a un accord avec Microsoft mais il n'y a pas l'air d'avoir d'intéressement pour Nvidia (ce n'est pas la puce graphique de la Xbox, MS ne peut pas se permettre de menacer ne pas signer les pilotes Nvidia…), ça me semble plus de la spéculation qu'autre chose.
« Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche
[^] # Re: QA
Posté par groumly . Évalué à 3.
Non, ca c'est la raison pour laquelle ms s'est prit leur proces anti trust et c'est explicitement interdit par l'accord de ms avec le doj. Et c'est verifie par le doj.
Linuxfr, le portail francais du logiciel libre et du neo nazisme.
[^] # Re: QA
Posté par Maclag . Évalué à 10.
Une solution bien plus élégante vis-à-vis des utilisateurs de la dite fonction aurait été de la désactiver par défaut et de proposer par une manipulation non triviale (pour éviter d'avoir des retours néagatifs si ça marche pas) pour l'activer avec un beau label "EXPERIMENTAL: à vos risques et périls! pas de support en cas d'activation! susceptible de faire exploser votre chaton!".
Maintenant je comprends tout-à-fait leurs contraintes QA.
Et si au lieu de désactiver sous Linux ils essayaient de corriger le problème sous Windows?
[^] # Re: QA
Posté par claudex . Évalué à 5.
C'est du boulot pour un truc qui ne doit pas être tellement utilisé. Je suis bien d'accord que ça aurait été mieux mais peut-être qu'ils ont estimé que ça coutait trop cher
Peut-être que le problème existe aussi sous Linux mais qu'il n'a pas été rencontré par l'utilisateur qui a reporté la disparition de la fonctionnalité.
« Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche
[^] # Re: QA
Posté par groumly . Évalué à 3.
Ou peut etre, tout simplement, que la feature marche tres mal, a un impact sur le development et la maintenance, et qu'elle est tres peut utilisee. Les ingenieurs en charge du drivers ont decide que c'etait pas la peine de perdre du temps a fournir une feature qui ne marche pas, et encore moins a perdre du temps sur des flags et autres.
Peut etre aussi que comme c'est une feature tres peu utilisee, ils ont decide de pas s'emmerder a l'ameliorer et ont fait passer qq chose de plus important dans leur roadmap.
Linuxfr, le portail francais du logiciel libre et du neo nazisme.
[^] # Re: QA
Posté par oinkoink_daotter . Évalué à 7.
Moi je me demande surtout si ce n'est pas une limitation arbitraire qui a été mise en place pour vendre du quadro qui apparemment gère cette friture (si on tapote "nvidia quadro 4 écrans" dans google)
[^] # Re: QA
Posté par Xavier G. . Évalué à 3.
Bingo ! D'après la dernière réponse du support technique (forum Nvidia, la parité avec Windows ne serait plus le critère principal à l'origine de ce bridage, mais pour les deux OS (d'où la nécessité d'uniformiser) la raison serait purement et bassement marketing :
Nvidia souhaiterait artificiellement limiter les Geforce à 3 écrans pour promouvoir les Quadro, qui elles en gèrent 4+ …
Bref, du pur business et (si c'est la vraie explication), pas de complot contre le libre, juste un sale comportement de vendeur, qui rappelle celui d'AMD bloquant le support HDMI audio suivant l'adaptateur utilisé ou, plus ancien, de Creative dépréciant volontairement ses pilotes Vista sur certaines cartes son afin d'obliger le client à racheter le nouveau modèle :(
# Autre source
Posté par Maxime (site web personnel) . Évalué à 2.
J'avais eu l'info en début de semaine sur Phoronix: http://www.phoronix.com/scan.php?page=news_item&px=MTQ3NDE
Il me semblait avoir lu un argument sensé sauf que je n'arrive pas à le retrouver :). J'espère que quelqu'un dans les commentaires nous fournira une explication.
# Whine
Posté par Octabrain . Évalué à -10.
"nous étions largement habitués, pour des logiciels ou binaires propriétaires, à avoir moins d'options ou performances sur Linux"
Il y a quelques années déjà, la perf des cartes nvidia était meilleure sous Linux que sous Windows. Et alors ? Ça va, ça vient, c'est pas bien grave, alors venir nous faire tout un journal de plainte… OSEF !
[^] # Re: Whine
Posté par Xavier G. . Évalué à 8.
C'est de l'actualité, cela concerne le logiciel libre et Linux, cela peut faire débat, alors ceux que ça n'intéresse pas ne sont pas obligés de lire, le titre du journal est suffisamment explicite :)
Pour ma part, je n'installe que les pilotes libres (dans mon cas avec une CG ATI), ne jouant pas, mais il n'empêche, le sujet mérite l'attention : Nvidia elle-même a communiqué le mois dernier pour mettre en avant son souhait de mieux coopérer avec les développeurs et aider le projet Nouveau.
En reliant à l'annonce de Steam OS, on peut considérer que c'est aussi une stratégie marketing et comm' chez eux, dans le but d'améliorer leur image et l'expérience utilisateur, sauf que dans le même temps ils déprécient leur propre driver Linux : contradictoire, non ?
# Manque la nimage
Posté par Enzo Bricolo 🛠⚙🛠 . Évalué à -1.
Pourtant elle est célèbre
[^] # Re: Manque la nimage
Posté par bubar🦥 (Mastodon) . Évalué à 4.
[^] # Re: Manque la nimage
Posté par yann-kaelig . Évalué à -2.
# Encouragements d'nvidia envers le libre
Posté par 태 (site web personnel) . Évalué à 10.
Il y a quelques jours nvidia communiquait sur leur publication de documentation pour améliorer les drivers libres, maintenant ils dégradent volontairement leurs drivers propriétaires. Si ce n'est pas un encouragement pour le libre, qu'est-ce qui en serait un ?
# beurre
Posté par barmic . Évalué à 4.
nVIDIA fait je pense une bonne partie de son beurre grâce à linux (plateforme tegra et HPC), donc je ne vois pas l'intérêt pour nVIDIA de volontairement faire ça. De plus je pense que ceux qui développent pour le drivers linux sont des utilisateurs de se même driver et ne souhaiteraient pas passer à Windows (ou un quelconque autre OS). Par contre il y a beaucoup moins de monde pour le driver linux que pour le driver windows (question de rentabilité, mais aussi parce que les drivers windows font des choses qui ne seront jamais faites sous linux par le driver comme la gestion de plusieurs bureau par exemple).
Bref je doute que ce soit volontaire.
Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)
[^] # Re: beurre
Posté par akimatsumoto . Évalué à 6.
Surtout que NVIDIA risque d être au coeur des steambox. Ils on tous intérêt a avoir le driver le plus performant possible pour attirer les joueurs
[^] # Re: beurre
Posté par bubar🦥 (Mastodon) . Évalué à 7. Dernière modification le 06 octobre 2013 à 18:23.
Marrant qu'on soit si peu nombreux à penser que, au contraire, il s'agit d'une pub incroyable :
« hey, les mecs, on a volontairement dégradé le driver linux pour qu'il soit au même niveau que celui de windows »
non mais … LOL
(la vraie bonne nouvelle aurait plutôt été une libération, mais c'est un autre sujet)
# On a vu pire ....
Posté par Graveen . Évalué à 6.
N'exagérons pas, ils limitent le nombre d'écrans pour avoir un comportement similaire avec celui de windows. Ca s'explique sans doute pour la recette des produits, et tout le bataclan.
En réalité, je ne vois pas le moindre intérêt pour nvidia de dégrader volontairement les performances. Risque communautaire énorme, plateforme différente, gestion différente, comparaison impossible…
Ton journal me semble aussi peu pertinent que ceux qui crient au loup.
[^] # Re: On a vu pire ....
Posté par Nicolas Boulay (site web personnel) . Évalué à 7.
L'intérêt est dans le fait de garder de bonne relation avec Microsoft. Ensuite, si ils ont fait cela une fois, pourquoi ne pas l'avoir fait avec d'autres performances, beaucoup moins facile à prouver ?
"La première sécurité est la liberté"
# je dois etre debile
Posté par NeoX . Évalué à 10.
Un utilisateur d'Ubuntu 12.04 possédant 4 écrans arrivait parfaitement à les faire fonctionner en mode multi avec la version 295 du pilote N'Vidia, mais plus avec la version 310 ni la 325.
en quoi est une reduction de performances que de n'avoir que 3 ecrans au lieu de 4
tout au plus c'est une reduction de fonctionnalité,
mais les performances, c'est plutot le nombre d'images affichables, la resolution maximale supportée, avec ou sans anti-alias…
[^] # Re: je dois etre debile
Posté par calandoa . Évalué à 9.
Ben voyons, c'est limpide : parce que le nombre d'écran multiplie les performances. Si tu as du 20 FPS sur chaque écran, avec 3 tu montes à 60 et 4 à 80 ! Tu m'étonnes que Microsoft a flippé sa race et a forcé Nvidia à faire marche arrière… des millions de gamers étaient sur le point de switcher !
# La goutte d'eau
Posté par reynum (site web personnel) . Évalué à -9.
ça y est ! c'est définitif je n'achèterai plus jamais de cartes Nvidia ! ni dans les fix que j'assemble ni dans dans les portables (même si trouver un clevo sans avec une carte 3D autre que Nvidia n'est pas toujours facile) !
(Cri de guerre) NVIDIA F**K YOU !!!
kentoc'h mervel eget bezan saotred
[^] # Re: La goutte d'eau
Posté par Paul POULAIN (site web personnel, Mastodon) . Évalué à 6.
Ne jamais dire jamais. Si nvidia était racheté par RH, qui ouvrait à 100% ses drivers, toussa, je suis bien sûr que tu changerais d'avis ;-)
[^] # Re: La goutte d'eau
Posté par reynum (site web personnel) . Évalué à 1.
Pas sûr ATI fait aussi de bonnes cartes et sa politique est plus ouverte, et même si Nvidia s'ouvrait, ATI l'aurait fait en premier et du coup je pourrais privilégier cet effort d'évolution de pensée.
kentoc'h mervel eget bezan saotred
# Hum
Posté par kursus_hc . Évalué à 3.
Franchement si hypocrisie il y a elle est plutôt dans ton journal. En gros une boîte vire de son driver une feature non testée et utile à 0,005% des utilisateurs, et tu cries au complot. Peut mieux faire.
[^] # Re: Hum
Posté par hercule_savinien . Évalué à 9.
Ces comme tous ces gens qui gueulent parce que des restrictions empêchent d'installer un OS perso sur un téléphone, ou bien parce qu'il n'y a pas de driver pour une imprimante donnée à destination de leur OS marginal qui n'a même pas 1% de part de marché.
Les gens sont gonflés quand même…
Le FN est un parti d'extrême droite
[^] # Re: Hum
Posté par kursus_hc . Évalué à 0.
Rien à voir, on ne parle pas de quelque chose de marginal mais de quelque chose d'inexistant. Pourrais-tu me donner le nombre de personnes que tu as croisé dans ta vie utilisant 4 écrans ?
[^] # Re: Hum
Posté par hercule_savinien . Évalué à 10.
Oui je le peux. Ce nombre est 0.
Tout comme je ne connais aucune personne utilisant GNOME.
Faut-il supprimer GNOME ?
Le FN est un parti d'extrême droite
[^] # Re: Hum
Posté par oao . Évalué à 2. Dernière modification le 08 octobre 2013 à 16:25.
Oui. Gnome est une feature de trop.
[^] # Re: Hum
Posté par ondex2 . Évalué à 3.
Je connais plusieurs personnes (moi compris), travaillant avec 4 écrans ou plus. Et pour ne rien gâcher, on utilise des cartes Nvidia…
Inexistant tu disais ?
[^] # Re: Hum
Posté par claudex . Évalué à 2.
Donc vous supportez les pilotes propriétaires, vous êtes donc inexistant à mes yeux ;)
« Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche
[^] # Re: Hum
Posté par kursus_hc . Évalué à 2.
Comment peux-tu utiliser plus de 4 écrans avec ta carte nvidia alors que le pilote ne le permet pas ?
[^] # Re: Hum
Posté par Thomas Debesse (site web personnel) . Évalué à 2.
linux ? permettait ?
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Hum
Posté par kursus_hc . Évalué à 2.
plus de
[^] # Re: Hum
Posté par Thomas Debesse (site web personnel) . Évalué à 1.
À ce que j'avais cru comprendre, c'est que sous Windows il était impossible de gérer plus de trois écran, et que sous Linux il n'était pas testé de gérer plus de trois écrans. Vu comme cela, l'ensemble «plus de quatre» appartient à l'ensemble «plus de trois», mais peut-être ai-je mal compris ?
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Hum
Posté par Thomas Debesse (site web personnel) . Évalué à 2.
Personnellement je n'ai pas encore utilisé 4 écrans, par contre pendant un an j'ai utilisé 3 écrans avec deux cartes nvidia, et d'un jour au lendemain le pilote a été dissocié et je ne pouvais qu'installer le pilote qui gérait la première carte nVidia, ou bien n'installer que le pilote de la seconde carte. (la seconde était jugée trop vieille alors qu'elle avait été acheté un an avant cette affaire).
Du jour au lendemain, j'ai perdu mes trois écrans et ai été limité à deux, par une décision unilatérale de nVidia. Mon achat n'a été utile qu'un an.
Comme c'était proprio, je n'ai eu que mes yeux pour pleurer. En effet, on peut faire tourner plusieurs pilotes libres différents sur deux cartes différentes, mais on ne peut pas faire tourner deux pilotes différents sur deux cartes différentes dès qu'un de ces pilotes est le bloub d'nVidia parce qu'ils ne font pas qu'installer un pilote mais modifier en profondeur des tas de trucs qui cassent les autres pilotes (t'as pas un GNU/Linux mais un GnvidiaU/LiNVIDIAux).
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Hum
Posté par claudex . Évalué à 5.
C'est en cours de changement via l'implémentation d'une libgl qui permettra de choisir l'implémentation http://www.phoronix.com/scan.php?page=news_item&px=MTQ0NzU En plus, nvidia est en train de préparer des pilotes qui permettront à plusieurs modules nvidia d'être chargés en même temps. Après, ça reste du prorio.
« Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche
[^] # Re: Hum
Posté par Le Gab . Évalué à -1.
Il y a une pelleté de JackyPC's sur le net. :/
On peut rajouter ce genre de journal dans le sondage d'il y a quelques jours? Le journalisme façon Clubic-M6, non merci.
[^] # Re: Hum
Posté par Xavier G. . Évalué à 2. Dernière modification le 08 octobre 2013 à 14:08.
Ce n'est pas du journalisme. J'ai exposé des faits, sourcé les éléments, donné mon opinion, posé des questions sur un sujet qui peut faire débat et rentre totalement dans la thématique de LinuxFr. Personne n'est obligé de le lire ou d'y participer.
En ce qui me concerne, je n'ai toujours pas la réponse à ma question, les bribes données par Nvidia étant insuffisantes, mais les éclairages et hypothèses apportées par d'autres intervenants sont intéressants.
[^] # Re: Hum
Posté par Thomas Debesse (site web personnel) . Évalué à 2.
moué, il me semblait que 100% des utilisateurs utilisaient une fonctionnalité qu'ils sont chacun 0,005% à utiliser.
Ces chiffres pifométriques sortent de mon chapeau mais indiquent une réalité qu'il ne faut pas négliger : tout le monde est marginal quelque part.
En supprimant des usages marginaux préexistant on prend le risque de perdre des utilisateurs de ce qui n'est pas marginal mais qui fonctionnait avec le marginal.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Hum
Posté par kursus_hc . Évalué à 0.
Oui donc le pilote serait passé de 128 écrans simultanés à 124 que ça aurait été la même histoire. En gros on reproche le principe plus que la réalité, et vu que personne n'utilise 4 écrans en même temps il n'y a bien que ça à reprocher. Bien sûr on oublie de penser qu'une feature inutile en moins à maintenir c'est plus de gens qui bossent sur les fonctions importantes, comme je sais pas moi les performances par exemple, dont bénéfieront 100% des utilisateurs. Mais c'est pas grave.
[^] # Re: Hum
Posté par Thomas Debesse (site web personnel) . Évalué à 6.
Enfin là, avec 128 écrans la difficulté ne porte pas sur le nombre d'écran mais sur le nombre de cartes graphiques. Sans compter que ça nécessite un nombre impressionnant de slots PCIe, ce qui demande de faire un cluster de carte mères… À 128 écrans, le problème il est matériel, pas logiciel.
À 4 écrans, le problème il est logiciel. 4 écrans, ça ne semble pas si rare que ça, on trouve facilement des solutions dans le commerce pour particulier.
4 écrans, c'est une utilisation disponible sur un paquet de cartes accessibles au particulier. Il y a des tas de bonnes grosses cartes de gamer pour jean-kevin qui savent gérer matériellement 4 écrans (sans même compter le SLI et autres mécanismes accessibles au grand public, ou tout simplement l'utilisation de deux cartes). La personne qui achète une telle carte et qui y branche 4 écrans s'attend à ce que ça marche. Et encore, à bien regarder le marché, il n'y a même pas besoin d'aller chercher les cartes surgonflées qui coûtent un rein.
Par exemple chez nVidia:
4 têtes : 2 DVI, 1 HDMI, 1 VGA : 84€
Par exemple chez AMD:
4 têtes : 2 displayPorts, 1 HDMI, 1 DVI : 97€
J'ai trouvé ça en faisant une recherche rapide, on peut peut-être trouver moins cher et des ports plus pratiques…
4 têtes, c'est moins de 100€ dans le commerce.
Pour information, AMD commercialise une carte low profile avec 4 displayPorts accessible à 138€.
Bref, 4 écrans ça se fait avec du matos grand public.
AMD a une clientèle pour des cartes graphiques de poste de travail à quatre écrans sans bidouiller les adaptateurs.
nVidia a certainement une clientèle pour un tel usage, mais l'ignorait. Il y a déjà une personne qui s'est pris le mur.
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Hum
Posté par ahuillet (site web personnel) . Évalué à 2.
Attention, 4 écrans ce n'est pas la même chose que 4 "heads". Sur pas mal de cartes, même si tu peux physiquement brancher 4 écrans (ce qui reste assez rare), tu ne peux pas afficher 4 choses différentes…
[^] # Re: Hum
Posté par Maclag . Évalué à 2.
Si on regarde le log du nombre d'écrans par utilisateur, je suis presque sûr que ça ressemble à une loi normale.
A partir de là, à nVidia de décider où est la queue, correspondant aux besoins des utilisateurs "marginaux".
128, ça me semble beaucoup. 4, apparemment, c'est suffisant pour que quelqu'un l'ait remarqué.
[^] # Re: Hum
Posté par kursus_hc . Évalué à 1. Dernière modification le 08 octobre 2013 à 03:59.
Exact, même si l'on ne peut pas dire que le web s'enflamme sur le sujet, je viens de parcourir google et niveau protestation on a déjà fait plus présent, pour ne pas dire que tout le monde s'en fout.
Encore une fois une fonctionnalité en moins à maintenir c'est un gain quelque part ailleurs. Peut-être même que sur le long terme la similarité des pilotes linux/windows sera bénéfique pour le pilote linux.
Je défend ma position initiale sur le ton faussement outré du journal. Quand je vois que le pilote BSD rivalise -voire plus- avec celui de windows 8 je pense qu'on peut trouver mieux comme sujet sur l'hypocrisie.
[^] # Re: Hum
Posté par oao . Évalué à 2.
Tu arrives à avoir une loi normale avec des valeurs discrètes ?
[^] # Re: Hum
Posté par Maclag . Évalué à 5.
Non, mais un truc qui
je pense que je peux, oui.
[^] # Re: Hum
Posté par wismerhill . Évalué à 3.
Une Loi_de_poisson me semble plus appropriée.
[^] # Re: Hum
Posté par oao . Évalué à 2.
Oui, plutôt, c'est à vérifier mais au moins ça serait possible. Une loi normale ce n'est pas juste une courbe en cloche (et sur des entiers naturels tu ne peux d'ailleurs pas avoir de courbe en cloche). C'est devenu un terme employé n'importe comment, un peu comme certaines personnes disent exponentiel pour dire croissant convexe. Les mots n'ont plus de sens quand ils ont tous les sens.
[^] # Re: Hum
Posté par arnaudus . Évalué à 1.
Je pense surtout que tu es une quiche en stats :-)
Une loi de probabilité peut être définie de manière empirique (sur la base de données). Mais quand on n'a pas de données, on peut essayer de la prédire de manière théorique. Une distribution normale est attendue quand la variable aléatoire est la somme de nombreuses variables inconnues (et log-normale quand c'est le produit). Or, il est assez évident que le nombre d'écrans n'est vraisemblablement pas une somme ni d'un produit, c'est probablement une discrétisation par troncation d'une variable "budget" qui pourrait être une distribution exponentielle qui commence au prix d'un seul écran : si le prix d'un écran est de 150€, le budget min est de 150; si on a 200€, on achète un écran de meilleure qualité, et si on a 300€, on achète deux écrans (c'est une première approximation). La discrétisation d'une exponentielle est la loi géométrique, prob(nb ecrans=k) = p(1-p)k-1; où 1-p pourrait être la probabilité d'obtenir une rallonge supplémentaire auprès de son boss sachant qu'on a déja au moins un écran. La grosse hypothèse, c'est que le boss soit également disposé à acheter un deuxième écran quand on en a déja un, qu'un troisième quand on en a déja deux, etc.
Si on considère que le nombre moyen d'écrans est de 1.5 (en fait, j'en sais rien), alors p = 2/3. Ça ferait 3.7% des utilisateurs avec 4 écrans ou plus. Si on part sur une log normale de moyenne 1.5 (et de std 1 sur l'échelle log parce que je n'ai pas envie de faire les calculs), on a p(k>4) = 6.6%. Presque du simple au double! La log-normale a une queue lourde, et je ne pense pas que la distribution du nombre d'écrans ait cette caractéristique : je connais beaucoup de gens avec un seul écran, pas mal avec deux, mais presque personne avec trois, et il existe très probablement très peu de gens avec 5 ou 6 écrans, ce que permettrait la log-normale.
Donc tout ça pour dire : ton truc avec la normale et la log-normale, c'est sorti de ton chapeau, les propriétés de la distribution ne correspondent pas à un modèle réaliste de la distrib du nombre d'écrans. Tu ne peux pas regarder vaguement la forme d'une distribution et la coller comme ça à un phénomène.
[^] # Re: Hum
Posté par Maclag . Évalué à 1.
Alors que ça:
Perso, j'ai qu'un seul écran, et c'est pas un problème de budget, mais plutôt que je ne saurais pas quoi faire d'un deuxième.
De même que je pense qu'un mec qui se fait ch… à placer sur un seul bureau puis configurer 4 écrans a une assez bonne idée de ce qu'il veut en faire.
Du coup, non, je ne m'aventure pas à affirmer le pourquoi du comment en modélisant la probabilité d'avoir N écrans. Je n'ai pas de données, je ne m'en cache pas!
Tu n'as pas de données, tu inventes un modèle, tu regardes autour de toi (N=10 ou 20?) et hop: conclusion!
Perso je ne connais absolument personne dans la vraie vie avec plus qu'un seul écran. Je ne vais pas en conclure que p~0.01
[^] # Re: Hum
Posté par arnaudus . Évalué à 4. Dernière modification le 09 octobre 2013 à 17:19.
On est d'accord que, sur le coup, ni toi ni moi n'avons de données quantitatives (c'est ce qui rend l'exercice intéressant). On a quand même quelques indications : 1) il existe des gens qui ont plus d'un écran, au moins jusqu'à 4, et 2) les gens qui ont deux écrans sont assez rares, les gens qui en ont plus de deux existent, mais à trop faible proportion pour que nous en connaissions.
Et à partir de là, tu pars sur une distribution log-normale discrétisée. Ce que je voulais te montrer, c'est que c'était un choix absurde, qui n'était absolument pas adapté à la situation. Si tu ne crois pas à l'histoire de budget, pars juste du principe qu'il existe une probabilité p pour avoir besoin d'un écran supplémentaire, ça marche aussi. En tout cas, la loi log-normale discrétisée est absurde du point de vue de la modélisation, alors qu'une loi géométrique a beaucoup plus de sens. En particulier, visiblement, tu ne connaissais pas les propriétés "heavy-tail" de la log-normale, qui prédisent une grosse proportion d'utilisateurs de nombreux multi-écrans, chose qui est peu vraisemblable.
J'ai essayé sur un ton un peu humouristique d'élaborer autour du commentaire de oao, qui essayait de t'expliquer qu'il n'est pas forcément utile de balancer "log-normal" parce que c'est la seule distribution asymétrique que tu connaisses. Il existe tout plein de distributions discrètes qui seraient adaptées au problème ; j'ai proposé la distribution géométrique en première approximation, mais ça pourait très bien être une autre, je m'en balance.
OK, alors en fait, ce qui s'est passé, c'est que je t'ai vu en train d'essayer d'enfoncer une vis avec un marteau. Je t'apporte un tournevis et t'explique comment on s'en sert, et tu me réponds "ah ah, t'es naze, ça ne sert à rien de visser ce truc". La prochaine fois, je m'abstiendrai. Continue à croire qu'il est pertinent de voir des lois log-normales partout, moi je m'en fous un peu…
[^] # Re: Hum
Posté par Zenitram (site web personnel) . Évalué à 4.
Faut croire que certains veulent même plus, et c'est même un produit
# Nvidia travaille avec Valve
Posté par saltimbanque (site web personnel) . Évalué à 5.
L'intérêt de Nvidia se situera de moins en moins du côté de Microsoft.
Un post récent de chez eux à propos de SteamOS : http://blogs.nvidia.com/blog/2013/10/04/steam-machines/
Mais ce n'est qu'un exemple.
[^] # Re: Nvidia travaille avec Valve
Posté par Thomas Debesse (site web personnel) . Évalué à 6.
Surtout que vu qu'nVidia a perdu le marché Xbox One et celui de la Playstation 4 (ouille ça doit faire mal), nVidia doit se sentir copain de galère avec Steam en chantant de concert « faut vraiment que la SteamBox marche sinon ça va pas être cool à vivre ».
ce commentaire est sous licence cc by 4 et précédentes
[^] # Re: Nvidia travaille avec Valve
Posté par Xavier G. . Évalué à 2.
Exact, l'alliance avec Valve sur SteamOS est un enjeu majeur pour Nvidia :
http://www.phoronix.com/scan.php?page=news_item&px=MTQ3ODc
Quoi qu'il en soit, et pour revenir à l'échange mis en place sur les spécifications du matériel dans le but d'améliorer Nouveau, même si cette ouverture est dicté par des impératifs commerciaux, on ne peut que se réjouir de l'avancée qu'elle représente.
[^] # Re: Nvidia travaille avec Valve
Posté par saltimbanque (site web personnel) . Évalué à 3.
Relativisons
[^] # Re: Nvidia travaille avec Valve
Posté par Renault (site web personnel) . Évalué à 5.
Vu les marges ridicules du marché des consoles, je ne pense pas que nVidia avait besoin de ce lourd investissement.
AMD étant dans une situation précaire, s'assurer un marché peu rentable mais énorme est important pour eux.
N'oublions pas que les consoles sont vendues peu chères, les constructeurs ne touchent pas grand chose des ventes et je suppose que Sony et Microsoft ont demandé à AMD comme nvidia de prostituer leurs prix et le plus faible a accepté d'aller plus loin pour s'assurer le marché : logique.
Je ne pense pas que nVidia perde au change.
[^] # Re: Nvidia travaille avec Valve
Posté par Maclag . Évalué à 5.
D'un autre côté, c'est le genre de marché emblématique que tu souhaites gratter pour l'image: la console de jeu, si c'est pas centré sur les perfs graphiques, je ne sais pas ce que c'est!
[^] # Re: Nvidia travaille avec Valve
Posté par Renault (site web personnel) . Évalué à 3.
C'est très mal connaitre le marché des consoles.
Une console c'est un PC de jeu low cost. Une fois que tu as compris ça, tu comprends que nVidia s'en contre fou.
Car tout l'intérêt de la console réside dans le modèle unique pour abaisser les coûts de production au maximum, les marges sont ridicules au point que les éditeurs des consoles ne sont rentables que grâce à la vente des jeux..
Pour parvenir à ce but aussi, les performances sont basses. Regarde les caractéristiques de la Xbox One et de la PS4 qui vont sortir : les PC de gamers sont déjà plus puissants avant même leurs sorties.
Et c'est normal, ils veulent faire des consoles peu chères, tu ne crois pas que la carte graphique choisie sera dans le haut de gamme et tiendra la route pendant 5-7 ans (temps de vente de la console).
L'avantage de la console c'est que grâce au modèle unique, les optimisations grâce à la connaissance de la bête permette malgré tout de sortir leur épingle du jeu pour tenir la comparaison un moment.
Donc compte tenu du marché et des marges, le marché des console n'est pas un bon marché pour les constructeurs. La faible rentabilité (mais presque acquise) intéresse les petits constructeurs qui peuvent avoir une rentrée financière garantie et des usines qui tournent, nVidia a d'autres problématiques. C'est d'ailleurs à cause de ces faibles marges que les consoles se rapprochent de plus en plus vers l'architecture des ordinateurs classiques, mais aussi que leur abandon sera un jour sans doute inéluctable.
[^] # Re: Nvidia travaille avec Valve
Posté par Maclag . Évalué à 7.
C'est là que tu rates un élément essentiel:
Quand on parle de performances graphiques, on ne veut pas toujours ignorer le facteur coût, et donc la performance graphique peut être considérée dans une enveloppe budgétaire donnée (sinon on dirait que globalement tout ce qui est sur le marché c'est de la merde parce que les stations 3D pour les pros éclatent tout le monde).
Je doute qu'nVidia s'en contrefoute. Si j'étais à leur tête, je préfèrerais qu'on voit un beau logo nVidia sur chaque console vendue qu'un logo ATI, même si la marge est à chier, parce que je sais que beaucoup de monde va voir ce logo et l'associer avec les consoles: machines à faire des beaux jeux vidéo grâce à mes produits.
[^] # Re: Nvidia travaille avec Valve
Posté par Renault (site web personnel) . Évalué à 3.
L'image de marque est peu touchée par le marché des consoles.
Je ne sais pas si tu en as acheté, mais tu ne vois jamais la marque du constructeur des composants (éventuellement sur l'emballage qui sera vite jeté ou dans le grenier). Sur un ordinateur c'est affiché en permanence via une vignette. Cela fait grandement la différence car pour te l'avouer, j'ignore le constructeur des cartes graphiques de toutes les consoles que j'ai eu. Donc j'imagine encore moins le quidam moyen s'en souvenir et que ça ait un impact sur les ventes là ou il y a de la marge.
Je pense honnêtement que nvidia a fait des offres pour en vendre aux prochaines consoles, mais je pense que nVidia est près à le faire mais pas à n'importe quel prix (avoir une marge un minimum intéressant pour eux) là où AMD dans sa situation est prêt à aller plus bas pour ne serait-ce tourner les usines et rapporter un peu de sous.
[^] # Re: Nvidia travaille avec Valve
Posté par CHP . Évalué à 1.
Moui, en meme temps les gens ignorent totalement la marque de la carte graphique présente dans leur console. Dans leur PC, ils savent.
[^] # Re: Nvidia travaille avec Valve
Posté par xcomcmdr . Évalué à 4.
Sur la Gamecube et la Wii, y'a le logo d'ATI…
"Quand certains râlent contre systemd, d'autres s'attaquent aux vrais problèmes." (merci Sinma !)
[^] # Re: Nvidia travaille avec Valve
Posté par Zenitram (site web personnel) . Évalué à 2.
Pour 99% des gens utilisateur de PC, non plus.
Ben oui, la plupart ont du Intel par exemple et s'en foutent complet, ils ne le voient pas (il y a certes des stickers un peu partout, pas mal ne les énlèvent pas, mais ils ne savent pas à quel composant ça correspond).
[^] # Re: Nvidia travaille avec Valve
Posté par CHP . Évalué à 2.
En effet.
J'aurais du être plus précis, je parlais des joueurs. Le joueur qui joue sur console, il se fout de savoir quelle est la carte graphique a l'interieure de sa boite. Le joueur qui joue sur PC, il connait sa configuration
[^] # Re: Nvidia travaille avec Valve
Posté par Zenitram (site web personnel) . Évalué à 3.
Toujours pas : 99% des joueurs sont des "casual gamers" ou des gens qui veulent juste "que ça marche" ("eh, salut, monte moi un PC pour jouer à xxx s'il te plait", j'en ai en stock) et se foutent aussi complet de la marque.
tu voulais sans doute parler d'une infime tranche de la population de joueurs PC qui veulent "la crème de la crème" et lisent les tests. Désolé de te décevoir, mais ça reste marginal (pas autant que les gens avec 4 écrans, mais pas loin)
C'est très loin d'être la majorité des "joueurs PC" comme tu décris.
[^] # Re: Nvidia travaille avec Valve
Posté par CHP . Évalué à 2.
Ca dépend de ce qu'on appelle gamer. Si tu considère ma belle soeur qui fait un angry birds sur sa tablette entre deux pages facebook comme une joueuse, alors tu as raison.
[^] # Re: Nvidia travaille avec Valve
Posté par Le Gab . Évalué à 4.
Vous avez surtout oublié que ce sont les pro qui ont amené nVidia sous Linux et non les gameurz.
Le marché du Jeu Video, c'est du bonus.
[^] # Re: Nvidia travaille avec Valve
Posté par Sytoka Modon (site web personnel) . Évalué à 2.
Oui, enfin j'attends toujours Catia et Soliworks sous GNU/Linux… Quand à Ansys, leur merde de Workbench tourne mal car c'est du .NET 32 bits qui tourne via un émulateur (oui, ils osent vendre cela dans leur coffret Linux).
[^] # Re: Nvidia travaille avec Valve
Posté par CHP . Évalué à 1.
Je dirais plutot que le marché du pro sous linux, c'est du bonus, par rapport au marché gamer.
[^] # Re: Nvidia travaille avec Valve
Posté par Le Gab . Évalué à 0.
T'es sûr? ILM, Pixar, Dreamworks, Autodesk ça fait pas le poids contre les 2 gars qui jouent à Nexuiz ou UT 2003?
[^] # Re: Nvidia travaille avec Valve
Posté par CHP . Évalué à 1.
Je parlais du marché gamer global, pas du marché gamer sous linux.
Et sinon, non, j'ai pas de sources.
# parano
Posté par adakite . Évalué à 1.
Il y a un probleme d'interpretation la. Je vais en vexer plus d'un mais faut arreter un peu la crise de parano:
Le corps des drivers est le meme (ou presque) pour l'ensemble des OS (Win, nux, Solaris et FreeBSD). C'est clairement specifie dans la docs pour devs qui vient avec CUDA par exemple. Et ca se verifie d'ailleurs a l'usage sous CUDA (qui passe necessairement pas les drivers GPU). Une grosse part de leurs clients/usagers en desktop sont sous Windows 7 et 8. Or ces OS ne gerent pas (ou pas bien) le 4 ecrans. Du coup ils ont fait en sorte que les drives marchent pour ces OS. Donc bah non, il n'y a pas d'hyprocrisie ou de volonte de "degrader" des drivers sous Linux, c'est de la pure parano. Mais comme le code initial est le meme bah de facto la "degradation" se fait pour tout le monde. C'est leur maniere de bosser, on peut le critiquer en soit, mais c'est pas une volonter de brider Linux: Nvidia est present sur un bon paquet de cluster HPC en apportant de l'acceleration GPGPU via CUDA (et donc via les drivers GPU). Or 100% de ces solutions sont sous linux. C'est une enorme source de revenues pour nvidia (je bosse pour est un de leur plus gros client et je peux vous dire qu'ils ne voient pas linux avec mepris bien au contraire; C'est preuve en est :
leurs drivers sont les meilleurs et de [tres] loin sous linux, c'est pas discutable. D'ailleurs Torvalds se plante la-dessus, ou alors est de mauvaise foi, mais bon passons. Non serieusement, croire une seconde qu'il y a volontairement de la degradation sous Linux c'est une anerie, de la naivete voir de la connerie. J'ai pas de part chez eux oh que non et je me fiche bien de les defendre, mais faut juste arreter la parano deux secondes. Maintenant oui avoir des drivers libres serait ideal, mais c'est pas pour demain surtout si on veut serieusement (ie., visualisation scientifique, GPGPU etc.) utiliser son GPU.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.