Ça dépend aussi avec quoi tu copies : j'avoues que j'ai le réflexe terminal, et que je n'utilise pas souvent nautilus, mais cette bouse fait ramer mon ordi comme c'est pas permis lors d'une simple copie de fichier (et je parle même pas d'une copie depuis un share samba ...) : CPU quasi à 50%, etc ... alors qu'avec un bon vieux cp, pas de problème.
Je te conseille un petit oprofile quand ton système rame, pour savoir d'où ça vient :
oprofile --init
oprofile --setup --vmlinux=/boot/vmlinux
oprofile --reset
oprofile --start
[lancer la copie, attendre un peu ...]
oprofile --stop
Puis un petit opreport -l après, et regarde ce qui vient en haut. Enlève le '-l' pour avoir le classement par appli. Chez moi il passait plein de temps à faire du malloc() et d'autres joyeusetés (à quoi ça sert d'utiliser un buffer constant pour la copie, alors qu'on peut s'amuser à le redimensionner à chaque fois \o/ ...)
Il y a plusieurs modèles économiques dans le libre, qui permet de faire vivre des entreprises comme des associations :
- les entreprises qui vendent du service autour de linux : les grandes boites qui fabriquent des distributions (RedHat, Novell, Mandrake, etc...) vendent leur OS comme n'importe quelle autre en le faisant payer si tu désires une belle boite, une documentation papier, un support personnel ou alors un plus gros support pour une entreprise.
- les associations, ou alors les groupes qui n'ont pas d'intérêts commerciaux, comme Debian, vivent des donations des particuliers et aussi des entreprises (va voir sur kernel.org ou ils citent des donations de HP, etc ...), ainsi que du travail offert par des bénévoles
- les boites qui développent des logiciels avec double licence (MySQL AB, TrollTech, etc ...) qui offrent une licence proprio à ceux qui payent, ou font des versions "custom" de leurs logiciels
- surement plein d'autres
Même linuxfr, qui n'a pas de pub (merci beaucoup !), vit uniquement de donations, et surtout de l'effort de bénévoles.
C'est vrai que c'est triste qu'un site qui permette à chacun d'apprendre à jouer de la musique, plutôt que d'en avaler à la radio tous les jours, disparaisse ainsi.
Mais soyons logiques et regardons ce que ce site faisait : il distribuait des tablatures/partitions copyrightées. C'est aussi grâce à ces ½uvres que le compositeur (qui est souvent différent de l'interpète) peut gagner un peu de sous. Vous allez me dire que les partitions c'est souvent très cher, et que celles-ci (sur olga.net) ont souvent été retranscrites à l'oreille, je serai complètement d'accord avec vous. Le fait que ce soit passé plus "innaperçu" que le "traffic" de musique copyrightée est sûrement dû au fait que cela concerne beaucoup moins de monde (les musiciens, ou ceux qui veulent le devenir). Mais n'empêche que cela pose toujours le même problème : quel équilibre trouver pour le droit d'auteur dans la société de l'information d'aujourd'hui ?
En fait, il manque vraiment un débat sur le fond du droit d'auteur, qui se retrouve aujourd'hui complètement bouleversé par la facilité de communication de l'information grâce au numérique. Et pas seulement en France, mais partout dans le monde, car je ne pense pas qu'on puisse changer la législation tout seul dans notre coin. Je veux dire un vrai débat, pas comme DADVSI, qui n'était que la pour punir les "pirates" et imposer les MTP, solutions "pansement" à un problème beaucoup plus grave.
Il faudrait que tout le monde réfléchisse, au lieu de se battre entre ceux qui voudraient du tout gratuit (impossible) et ceux qui tiennent à leurs droits d'auteurs comme s'ils allaient en mourrir si on leur en prenait un morceau.
Je trouve ça très motivant également de découvrir de nouveaux langages, même pas forcément pour coder avec. J'ai regardé Smalltalk, qui m'a appris que certaines choses existent depuis bien plus longtemps qu'on ne le croit. J'ai aussi été beaucoup impressioné par Scala ( http://scala.epfl.ch/ ), sur lequel j'ai fait un journal il y a quelques temps : http://linuxfr.org/~benoar/18916.html . En bref, découvrir de nouveaux concepts, et pour cela, lire beaucoup de publications sur de nouveaux langages, de nouveaux paradigmes, de nouvelles méthodes. Et donc lire lambda-the-ultimate ;-)
Pour ce qui est de la pratique, utiliser un nouveau système permet de s'intéresser à son fonctionnement : j'ai beaucoup été intéressé par l'Objective-C quand j'ai eu un Mac.
Ce qui me motive à coder aujourd'hui, c'est les portages (justement sur le nouveau système que j'avais découvert, mais également sur linux), le débuggage sur des choses qui t'embêtent vraiment (ça fait beaucoup réfléchir), ou l'optimisation (des fois je lance un oprofile sur une appli qui rame vraiment, et je regarde ce qui va pas ... le problème c'est que la plupart du temps ça vient d'applis énormes, genre X11, et que quand t'essaye de comprendre l'archi et que tu te retrouves avec un backtrace de 50 lignes avec des noms de fonctions incompréhensibles, tu te démotives vite).
Sinon pour vraiment te démotiver à bosser dans le monde professionnel, lis http://thedailywtf.com/ . Là tu n'auras vraiment plus envie de bosser dans une boite, et tu ne saura même plus où te lamenter d'avoir choisi cette voie ...
Je n'ai ni de mandriva, ni ce modem, mais en regardant dans la doc, tu peux peut-être trouver quelque chose, en particulier ici : http://eciadsl.flashtux.org/doc.php?file=eciadsl_install&(...)
Tu n'as pas dit comment tu as installé ce driver, aussi.
Mais d'après le
Aug 16 20:29:47 P4 pppoe[11160]: ioctl(SIOCGIFHWADDR): Session 0: No such device
, je penche pour un problème de driver, donc peut-être l'histoire de la suppression de DABSUB (dans la doc).
tar tfj monarchive.tar.bz2 | xargs rm -rf
À ajuster avec z pour une archive gzippée. Bon, le rm -rf ça peut être un peu dangereux, à utiliser avec précaution (par exemple si l'archive contient des chemins absolus; normalement tar les enlève par défaut quand on crée une archive).
Je pense que l'architecture de l'Itanium n'a pas eu de succès car elle est très spéciale (VLIW) et que pour des processeurs généralistes, cela n'a pas beaucoup d'intérêt (comme l'explique bien lasher, plus bas).
Par contre, je trouve que le PowerPC a fait ses preuves, et que son développement est parti dans la bonne direction (pour son ISA); tout ce qui lui manque, c'est un bon contrôlleur mémoire (un peu comme chez AMD), et des "petites" optimisations intelligentes comme sait le faire Intel. Et aujourd'hui, quand on voit que la XBox360 et la PS3 en sont équipées, ça montre que c'est un processeur qui a encore de l'avenir !
Après, la balle est du côté des programmeurs : améliorer les compilateurs, mieux gérer la parallélisation du code (car ces nouveaux PPC sont multi-c½urs), etc ... Le nombre de "bidouilleurs" d'assembleur x86 a toujours été énorme par rapport à ceux s'intéressant au PPC. Si on avait des mecs aussi doués sur des PPC (donc des machines accessibles au grand public, puisque c'est ça qui a fait l'avantage du x86 aussi) ça pourrait donner quelque chose de vraiment bien.
Mais putain c'est la faute à linux si OS X sait pas lire le ext3/reiserfs/whatever ?
Là tu va me dire qu'il existe un driver pour lire le ext2/3 sous OS X, mais qu'il marche mal. Et ça va encore être la faute à ces incompétants de programmeurs de logiciels libres...
J'avais toujours ressenti la programmation en assembleur comme quelque chose de très compliqué, car beaucoup d'instructions avaient des spécificitées très spéciales et toutes différentes. Les différentes manière d'adresser la mémoire, les conventions "exotiques" de certaines opérations. Bien sûr, je ne connaissais que l'assembleur x86.
Quand je me suis intéressé de plus près au fonctionnement exact d'un processeur (que je n'avais pas encore bien saisi), je me suis tourné vers l'architecture PowerPC, car je venais juste d'en acquérir un. Et là, d'un coup, tout m'a parru beaucoup plus clair. Tout est beaucoup plus logique, beaucoup plus simple. J'ai lu comment fonctionnait une MMU, ce qui se passait lors d'un changement de contexte, comment marchaient les interruptions, etc... Et ça m'a tout de suite beaucoup plus plu que quand j'avais approché l'architecture Intel.
Je veux bien avouer que ce genre de choses n'intéresse qu'une toute petite fraction de personnes. Mais quand on se plonge vraiment dedans, on comprend tout de suite mieux ceux qui adorent cette architecture. J'ai toujours dans l'esprit d'écrire un compilateur pour cette architecture, car cette tâche me semble beaucoup plus simple avec un ppc. Effectivement, écrire de l'assembleur ppc directement n'a pas forcément grand intérêt car il est très verbeux, et les variantes de ses instructions sont assez nombreuses (mais le nombre d'instructions de base est très réduit : c'est un RISC). À part peut-être optimiser à la main des routines en Altivec, ce que j'ai fait et qui est très instructif également.
En tous cas, je trouve ça dommage que cette architecture ne soit plus accessible au grand public (oui, les prochaines grosses consoles contiennent des ppc, mais je ne pense pas que leur ouverture aux développeurs sera énorme; l'aspect théorique est bien documenté, mais pour pratiquer, je pense qu'on ce sera tout de suite beaucoup plus restreints). J'aimerais bien que mon prochain ordinateur soit encore un ppc. Peut-être qui si les moyens que mets Intel dans le développement de ses processeurs étaient investis dans l'amélioration du PowerPC, on aurait vraiment une architecture qui éclate toutes les autres (oui, je suis un doux rêveur).
Les partitions remontées en RO, ça doit être parce que tu as la journalisation activée. Je sais c'est con d'être obligé de l'enlever, mais le support de l'écriture avec le journal est encore expérimentale. Par contre ça fait un bout de temps qu'elle est présente dans le kernel (2003 je crois), mais je crois que ça intéresse pas assez de monde pour avoir besoin de le corriger. Mais ya juste un flag à changer pour essayer, mais après on ne garantie rien pour tes données.
Sinon pour le wpa, depuis le 2.6.17 le driver broadcom utilise la stack de devicespace, et doit donc supporter WPA.
Bon alors pour cette histoire de partition HFS+, moi j'ai compilé le fsck de Darwin sur mon linux ppc, et quand j'ai un problème de "plantage après la veille" (que je n'ai plus du tout depuis que je suis en 2.6.17, avant, en 2.6.14, j'avais quelques rares fois des plantages au réveil _quand il y avait un périph USB branché_, sinon aucun pb), et bien un petit fsck, et je remonte ma partition tranquille.
Je crois qu'en fait vous vous trompez de problème dans votre débat. Ce que j'essaye de montrer dans l'article, c'est comment les fournisseurs d'information, de création "humaine", celles qui ont une valeur (intellectuelle), veulent controler leur utilisation.
En effet, une banque n'a pas vraiment d'intéret à utiliser TPM, puisque controler ce que fait le client des données qu'elle lui envoie n'est d'aucun intéret pour elle. Idem pour un fournisseur d'accès : il ne crée aucune information à valeur ajoutée, il ne fait que transmettre ce que les autres lui envoient.
Par contre, tous les fournisseurs de contenus, que ce soit en ligne, ou sur différents médias, eux, ils souhaitent vraiment brider les utilisateurs dans les possibilités qu'ils ont de manipuler l'information qui leur est envoyée. Et c'est en cela que contrôler ce que peut faire la machine du "client" est important à leurs yeux : ils ne veulent pas de "violation" de leur propriété intellectuelle, et avec TCPA, c'est eux qui décideront des règles avec lesquelles on joue, pas les lois votées par les gouvernements ! Imaginez tous les journaux en ligne, tous les sites produisant des articles, des images, des vidéos, et tous les "producteurs" de créations intellectuelles distribuées par d'autres biais : pour eux, pouvoir contrôler leur propriété est un avantage énorme auquel ils ne refuseront sûrement pas.
Je ne vois pas l'intérêt de signer tous les composants matériels, si l'OS est déjà certifié : c'est déjà (pour moi) une garantie suffisante qu'il obéira à certaines règles en ce qui concerne le matériel présent sur la machine. Et si un distributeur de contenu sait qu'il a en face de lui un Windows Vista, et que Microsoft a passé des contrats avec les majors leur certifiant qu'il respectera avec son OS les droits des auteurs (puisqu'en plus ce sera sûrement fait avec son propre système de DRM intégré à WMP), alors ce n'est pas la peine de certifier tout le matériel : Windows sera déjà certifié comme étant une version originale de Microsoft (non crackée, puisque certifiée) et qu'en conséquence, il vérifiera lui même que tout va bien au niveau matériel avant de sortir un son ou une image sur un des périphériques.
Pourtant dans le document il est indiqué qu'à l'origine, normalement, il n'y a pas d'EK définie, et qu'il faut le faire à la première activation du TPM. Mais après, en effet, il n'existe aucun moyen de la modifier, même en resettant le TPM. À moins, comme tu dis, d'avoir les moyens d'un gouvernement.
Par contre, je trouve ça bizarre que tu dises que l'EK sera d'office initialisée par Sony/Microsoft, car cela détruirai la seule utilité de ce TPM en dehors de la domination du monde par le Méchant Capitalisme : que les entreprises certifient elles-mêmes leurs ordinateurs, avec leurs clés et leurs systèmes bien à elles (comme linux, par exemple ...)
J'ai vu que tu avais pas mal participé au journal précédent sur TCPA (il y a quasiment un an exactement ! http://linuxfr.org/2005/08/18/19442.html ) avec Jérome Herman, et que tu as l'air de vraiment bien connaître le sujet (et toutes ses controverses), ça m'arrangerai que tu me dises si j'ai pas trop dit de conneries dans mon article... merci.
Bizarre cette "déformation" de notre langue : si FAT32 avait était standarisé, il serait devenu une "norme", mais ce n'est effectivment qu'un "standard" imposé par Microsoft. D'où la confusion dans la tête des gens ?
Comment peut on cacher un brevet ? il n'est pas rendu public
Heu, le but de base des brevets, c'est de rendre les inventions publiques...
Dans le cas présent, c'est plutôt l'inverse, donc, une société qui a "caché" ses brevets, mais je dirais plutôt qu'elle a tout fait pour que les autres ne les voient pas.
J'aimerais m'essayer à une petite analogie (surement un peu foireuse, j'aime bien les analogies, mais elles sont rarement complètement adéquates) avec le monde des formats "fermés"/propriétaires, car j'y fait allusion à la fin de mon article mais sans trop m'étaler :
Je vois beaucoup de commentaires qui indiquent que TCPA n'est pas dangereux en lui-même, ce que je dis aussi dans l'article, et ce qui est vrai : ce sont les intentions de ceux qui l'emploieront qui comptent. Mais plusieurs choses me font penser qu'elles ne sont pas très bonnes .
Tout d'abord, la manière d'ammener les choses : fait dans le silence, ou alors présenté dans un but légitime (le stockage sécurisé de clés) mais différent du but final (qui est quand même annoncé clairement par l'Alliance TCPA et Intel avec LaGrande, ou AMD avec ... (j'ai oublié), qui sont clairement plus que de simples technologies de puces stockant des clés).
Ensuite, même si TCPA n'est pas directement un DRM, il a toutes les capacités pour faire respecter les "droits" en empêchant les applications d'accéder à certaines données, ou en certifiant qu'elles ne feront pas des choses contraires aux droits donnés à l'utilisateur (en certifiant seulement les applications listées par les majors comme étant respectueuses de leurs droits).
De plus, on constate que la restriction des possibilités de manipulation des données offertes à l'utilisateur est un système de plus en plus utilisé, et même requis sur les nouveaux supports, comme les HD-DVD ou les Blu-ray Disc.
Avec tout cela, je vois donc mal comment une opportunité comme TCPA de "contrôler" (brider) les utilisateurs pourrait être laissée de côté par les industriels et les grands distributeurs d'information.
Aujourd'hui, on peut contourner pas mals de leurs protections, et même souvent sans s'en rendre compte (je vois des fois dans les commentaires des mecs ne pas savoir que leur CD était protégé mais qu'il marchait quand même sur leur PC, et quand vous lisez un DivX, c'est bien que quelqu'un à l'origine a (surement) contourné CSS, si c'est un film). Bon, c'était déjà moyennement légal car souvent utilisé à des fins de contrefaçon (OK je fais une énorme généralité, mais si on parle autant du P2P, c'est un peu pour ça)(et non je ne crois pas à la copie privée à travers le P2P), maintenant c'est complètement illégal en France depuis quelque jours. Mais techniquement, c'est toujours possible, et je pense que pas mal d'entre vous ne s'en privent pas. (je ne vous demande pas de débattre si la loi est juste ou pas, hein) Mais le jour où ce sera techniquement impossible, comment feront nous tous ? Ce sera le cas avec TCPA si les géants de l'information adoptent cette technologie afin de s'en servir comme DRM.
J'en arrive donc avec mon analogie (oui, je met le temps...) :
Aujourd'hui, le monde des formats propriétaires dans le multimédia est assez vivace, et plein d'informations circulant dans des formats comme WMV, Flash, etc... Le fait, pour moi et mon analogie, d'utiliser les codecs win32 ou le plugin flash sous linux, est une manière de "cracker" ce système, qui empêche normalement les systèmes libres d'y accéder (puisque ce sont des formats propriétaires, qui n'ont pas de spécifications ouvertes). Vous avez donc la possibilité technique de "contourner" ces "protections", même si légalement, ça peut être discutable (et oui, vous pouvez copier le flux issu des WMV même s'ils contiennent des restrictions de droits, par exemple).
Moi, j'utilise une plateforme non-x86, en l'occurence un PowerPC. Ce qui fait que je n'ai pas la possibilité technique d'utiliser vos "cracks". Quand bien même j'abandonnerai mes idéaux de liberté pour essayer de "contourner" les "protections" des formats propriétaires, je ne pourrai même pas. Quand vous, avec un x86, vous faites tout pour ne pas utiliser ces formats, mais qu'un jour vous avez un besoin "urgent" d'y accéder une fois, vous pouvez toujours installer le "crack" qu'il faut : vous en avez la possibilité technique.
J'invite quiconque a un peu de volonté à refuser d'utiliser tout format proprio et surfer sur le net aujourd'hui. Aucune entorse possible, pas d'échapatoire possible. Comme dans le monde de TCPA. Et encore, aujourd'hui, le nombre de sources d'informations disponibles dans un format ouvert est assez majoritaire. Mais qu'en sera-t-il quand TCPA aura envahi les ordinateurs de tout le monde silencieusement ?
J'avoue que je fais peut-être l'amalgame entre format proprio et MTP. Mais pour moi, ça revient au même : des données dans un format qu'on ne connait pas (sauf que les MTP on parfois un aspect "protection physique", ou analogique, mais c'est quand même assez rare, cf. certains lecteurs CDs anciens qui ne lisent pas les CDs "copy-protected"). Les deux sont à combattre. Ici, on se bat pour des formats ouverts, contre les MTP. Et TCPA peut très probablement devenir une forme de DRM, tellement restrictive que le libre n'aura aucun moyen d'y remédier, à part de créer son propre monde de l'information. D'un côté, je suis en train de me dire que plutôt que de le combattre, c'est à ça qu'il faut se préparer ?
Pour ta première question, oui il est possible que ton OS certifié aie une faille. Mais à ce moment là, il va se faire black-lister (ou "dé-certifier") et tu ne pourra plus accéder à ton joli monde de confiance. Le seul moyen de revenir à une situation "normale" sera d'effectuer une mise à jour qui corrigera la faille.
Ensuite, pour les clés, la première fois que tu actives le TPM, il t'es demandé une "endorsment key" qui est la clé qui permettera de déterminer si tout le reste est valide ou pas (je suis pas totalement sûr de moi, mais c'est ce que j'ai compris), bref, qui dira si les clés suivantes seront les bonnes ou pas. Microsoft conseille de mettre cette clé à son compte, si tu souhaites que ce soit eux qui déterminent la validité du reste (cf. http://www.microsoft.com/windowsvista/privacy/privacy_ctp.ms(...) ). Donc ensuite, c'est les applications validées par cette première clé qui auront la charge de récupérer d'autres clés. Et à priori, si ces applications sont certifiées par la première clé, c'est qu'elles sauront bien où aller chercher les "bonnes" clés suivantes.
Les distribution GNU/Linux chercheront à fournir une telle chaîne de confiance. Cela sera possible avec des binaires "certifiés". La majorité des utilisateurs utilisent des binaires "précompilé", donc cela ne posera pas de problème à ceux-là. Peut-être verra-t-on quelques moyens de faire "certifier" les binaires "personnalisés", probablement contre rémunération que seul les entreprises pourront s'offrir, peut-être de manière communautaire...
On a déjà ce genre de chose avec l'histoire des platines DivX "libres" qui utilisent linux, mais n'autorisent que certains binaires signés. Pour moi, aurotiser seulement quelques versions certifiées à l'aide de $$ par des grandes boites, ce n'est pas faire du logiciel libre.
Et pour ce qui est de faire certifier des binaires "persos", à mon avis c'est complètement impossible : avant de certifier un logiciel, les autorités TCPA regardent ce qu'il est possible de faire avec ton logiciel, et toute fonction n'allant pas dans le sens de leur préceptes (empêcher de copier un contenu copyrithé, emêcher de lire des contenus non-autorisés, expirés, avoir une petite backdoor pour la NSA, etc ...) te fera refuser la certification.
Il est clair qu'informer les gens est crucial si on veut contrer cette technologie (sa réussite dépend vraiment du fait qu'elle passe sans que personne ne s'en rende compte, selon moi).
J'ai aussi rencontré les problèmes dont tu parles : personnes ne comprenant pas très bien, se disant que c'est pas grave. Ou des personnes me prenant pour un parano ou un mec croyant à une conspiration mondiale...
J'aimerais bien informer plus de monde, mais même si des personnes m'ont dit que mon style était bon, je ne pense pas savoir bien vulgariser ce problème : en général, j'ai beaucoup de mal à me faire comprendre des personnes non-techniques, et c'est un peu pour ça que je l'ai posté ici, sur linuxfr. Ce texte est peut-être bon comme article pour un site de linuxien, mais je ne sais pas du tout comment m'y prendre pour informer les gens autrement.
C'est vrai que des journées d'information seraient pas mal, mais encore faudrait-il qu'ils soient un minimum sensibilisés au problème. Prendre exemple sur RMS pour écrire des tracts, pourquoi pas, mais sans compréhension des enjeux de leur part, ça va être dur (et si on met en gros "Risque pour la société de l'information toute entière", on va encore nous prendre pour des paranos).
Un gros problème, je pense, c'est que beaucoup de gens ne comprennent déjà rien à l'informatique, et donc laissent tomber tous les problèmes qui s'y rapportent. Ils faudrait déjà leur expliquer ce qu'est le numérique, pourquoi un ordinateur ça ne marche pas de la même manière qu'une machine à café ("bah oui, pourquoi ya le choix entre 10000 choses alors que ma machine à café, il suffit d'appuyer sur un bouton ?"), ce qu'est une donnée / un format de donnée, etc ... Ya pas mal de boulot avant de faire comprendre tout ça.
Merci des compliments. Oui j'ai hésité à le passer en dépêche sur la fin, mais au début je ne pensais pas faire un article aussi long. Et puis il y a aussi la fin, un peu trop personnelle à mon goût pour une dépèche, et puis peut-être aussi les histoires d'appel au boycott interdit en France, toussa...
Faudrait que je le retravaille un petit peu. Il y a aussi le fait qu'on est en plein mois d'août, et que je me disais que c'était peut-être pas le bon moment pour intéresser un maximum de gens, mais là j'avais pris l'initiative de l'écrire hier soir, alors c'est sorti comme ça.
Pour les ordinateurs de bureau, j'avoue ne pas avoir eu le courage de chercher. Faire ces recherches m'a déjà pris pas mal de temps, mais le tout c'est d'aller chercher les spécifications précises de la machine sur le site du constructeur, et de rechercher ce qui se rapporte aux TPM ou autres choses "Trusted", qu'on retrouve généralement dans la rubrique "sécurité".
Le problème c'est qu'on est jamais sur qu'il n'y a pas eu un oubli (volontaire ou involontaire) lorsque ce n'est pas indiqué (ça me parait louche que Acer soit le seul à ne pas proposer de machines sans puces TPM, même s'il ne fabrique que des machines pour le grand public).
Pour ce qui est du "en option", oui, je pense que ça veut vraiment dire ce que ça veut dire. Mais par contre, pour Asus par exemple, on ne peut pas commander de machines directement sur leur site, et ce sont donc les revendeurs (en France) qui choisissent quels modèles seront proposés au public (Asus offre plein de possibilités de configurations différentes pour ces machines, et les revendeurs n'en choisissent que certaines, en plus c'est généralement les même pour tout un pays). S'ils ont le choix d'ajouter des options, genre TPM, qui ne doit pas être cher, je pense qu'ils le feront; ça fait toujours "bien" d'avoir plein d'options en plus sur les machines qu'on vend...
Pour ce qui est d'exiger cette puce pour que l'ordinateur soit fonctionnel, je pense que c'est de la parano de linuxien : les constructeurs n'ont aucun intérêt à empêcher l'utilisation de linux sur ces machines, juste pour le plaisir de faire chier les libristes. Par contre, lorsqu'on démarrera sur un système non-certifié, on n'aura plus accès au "monde de confiance" des données protégées par TCPA, et seuls les informations libres pourront circuler entre des machines non-certifiées (ou des informations protégées par des protections logicielles, qui seront alors classées au rang de "jouet technologique" d'antant).
Mais il est clair que plus cette puce se répand, plus le risque est grand de voir arriver des informations accessibles uniquement aux systèmes certifiés, et dans un effet d'entraînement, de voir ce genre de machines proposées au grand public, et des constructeurs qui ne pourront rien faire d'autre que de proposer des machines ainsi équipées pour ne pas perdre des ventes, même s'ils sont idéologiquement contre (j'aimerais bien en trouver des comme ça, quand même).
Je pense tout de même que la diffusion de TCPA se fera dans le silence le plus total, car le seul moyen pour que ça marche, c'est qu'au moment où les fournisseurs de contenus offriront des données protégées, les gens auront déjà du matériel qui puisse le lire. Ce n'est pas comme avec la HD, ou les commerciaux balancent "Achetez la nouvelle télé SuperHD-machin-chose, elle a une qualité 100x supérieure à votre ancienne !" pour convertir les gens : là, je vois mal des mecs sortir "Achetez notre nouvel ordi avec TPM ! Il n'a rien de mieux que votre ancien, mais en plus il vous bride dans votre liberté d'utiliser vos données !". Il faut que la transition se fasse en douceur : d'abord on infiltre ces puces dans le marché, qui ont aujourd'hui peu d'utilité, ou alors une utilité autre que la certification de la machine (qui est, je pense, le but "ultime" du projet TCPA) : par exemple le stockage sécurisé de clés, l'accélération du chiffrement (je ne dis pas que ce n'est pas utile, je dis juste que c'est une utilisation "détournée"). Et une fois qu'une majorité des ordinateurs en seront équipés, on pourra proposer des contenus "sécurisés" par TCPA. Ceux qui n'étaient pas encore convertis le seront par effet de masse ("Ha, tu peux pas lire le document que je t'ai envoyé ? C'est ton ordi qu'est trop pourri, regarde, tu l'as acheté ya au moins 3 ans ! Il a pas de TPM !"). Puis alors les emmerdes commenceront à arriver, mais ce sera "normal" : "L'informatique c'est comme ça !". J'espère seulement qu'un jour les gens se réveilleront. Mais s'ils attendent jusque là, il sera trop tard.
Simplement produire du code natif, ce n'est pas difficile: au pire il suffit d'embarquer des bouts de l'interpréteur dans l'exécutable et pouf, tu as un programme natif.
Pour ceux qui s'intéressent à l'aspect théorique de la construction de compilateurs à partir d'interpréteurs, voire ce lien qui parle d'évaluation partielle et surtout des différentes projections Futurama : http://www.jadetower.org/muses/archives/000419.html
La notation utilisée est du genre Haskell, et ça fait se tordre l'esprit assez longtemps avant de capter quelque chose.
[^] # Re: ^-^
Posté par benoar . En réponse à la dépêche ShaKe, un défragmenteur pour GNU/Linux. Évalué à 4.
Je te conseille un petit oprofile quand ton système rame, pour savoir d'où ça vient :
oprofile --init
oprofile --setup --vmlinux=/boot/vmlinux
oprofile --reset
oprofile --start
[lancer la copie, attendre un peu ...]
oprofile --stop
Puis un petit opreport -l après, et regarde ce qui vient en haut. Enlève le '-l' pour avoir le classement par appli. Chez moi il passait plein de temps à faire du malloc() et d'autres joyeusetés (à quoi ça sert d'utiliser un buffer constant pour la copie, alors qu'on peut s'amuser à le redimensionner à chaque fois \o/ ...)
# Plein de moyens différents
Posté par benoar . En réponse au message linux gratuit mais comment !!!. Évalué à 9.
- les entreprises qui vendent du service autour de linux : les grandes boites qui fabriquent des distributions (RedHat, Novell, Mandrake, etc...) vendent leur OS comme n'importe quelle autre en le faisant payer si tu désires une belle boite, une documentation papier, un support personnel ou alors un plus gros support pour une entreprise.
- les associations, ou alors les groupes qui n'ont pas d'intérêts commerciaux, comme Debian, vivent des donations des particuliers et aussi des entreprises (va voir sur kernel.org ou ils citent des donations de HP, etc ...), ainsi que du travail offert par des bénévoles
- les boites qui développent des logiciels avec double licence (MySQL AB, TrollTech, etc ...) qui offrent une licence proprio à ceux qui payent, ou font des versions "custom" de leurs logiciels
- surement plein d'autres
Même linuxfr, qui n'a pas de pub (merci beaucoup !), vit uniquement de donations, et surtout de l'effort de bénévoles.
[^] # Re: liens ?
Posté par benoar . En réponse au message Install webcam : opération pieds-de-biche.... Évalué à 2.
# Avis mitigé
Posté par benoar . En réponse au journal La fin de olga.net?. Évalué à 2.
Mais soyons logiques et regardons ce que ce site faisait : il distribuait des tablatures/partitions copyrightées. C'est aussi grâce à ces ½uvres que le compositeur (qui est souvent différent de l'interpète) peut gagner un peu de sous. Vous allez me dire que les partitions c'est souvent très cher, et que celles-ci (sur olga.net) ont souvent été retranscrites à l'oreille, je serai complètement d'accord avec vous. Le fait que ce soit passé plus "innaperçu" que le "traffic" de musique copyrightée est sûrement dû au fait que cela concerne beaucoup moins de monde (les musiciens, ou ceux qui veulent le devenir). Mais n'empêche que cela pose toujours le même problème : quel équilibre trouver pour le droit d'auteur dans la société de l'information d'aujourd'hui ?
En fait, il manque vraiment un débat sur le fond du droit d'auteur, qui se retrouve aujourd'hui complètement bouleversé par la facilité de communication de l'information grâce au numérique. Et pas seulement en France, mais partout dans le monde, car je ne pense pas qu'on puisse changer la législation tout seul dans notre coin. Je veux dire un vrai débat, pas comme DADVSI, qui n'était que la pour punir les "pirates" et imposer les MTP, solutions "pansement" à un problème beaucoup plus grave.
Il faudrait que tout le monde réfléchisse, au lieu de se battre entre ceux qui voudraient du tout gratuit (impossible) et ceux qui tiennent à leurs droits d'auteurs comme s'ils allaient en mourrir si on leur en prenait un morceau.
[^] # Re: Change de branche
Posté par benoar . En réponse au journal Pourquoi aimez-vous coder ?. Évalué à 2.
Pour ce qui est de la pratique, utiliser un nouveau système permet de s'intéresser à son fonctionnement : j'ai beaucoup été intéressé par l'Objective-C quand j'ai eu un Mac.
Ce qui me motive à coder aujourd'hui, c'est les portages (justement sur le nouveau système que j'avais découvert, mais également sur linux), le débuggage sur des choses qui t'embêtent vraiment (ça fait beaucoup réfléchir), ou l'optimisation (des fois je lance un oprofile sur une appli qui rame vraiment, et je regarde ce qui va pas ... le problème c'est que la plupart du temps ça vient d'applis énormes, genre X11, et que quand t'essaye de comprendre l'archi et que tu te retrouves avec un backtrace de 50 lignes avec des noms de fonctions incompréhensibles, tu te démotives vite).
Sinon pour vraiment te démotiver à bosser dans le monde professionnel, lis http://thedailywtf.com/ . Là tu n'auras vraiment plus envie de bosser dans une boite, et tu ne saura même plus où te lamenter d'avoir choisi cette voie ...
# Plop
Posté par benoar . En réponse au message pilote EciAdsl fait planter linux. Évalué à 2.
Tu n'as pas dit comment tu as installé ce driver, aussi.
Mais d'après le , je penche pour un problème de driver, donc peut-être l'histoire de la suppression de DABSUB (dans la doc).
# Et pour récupérer un dé-tarrage foiré
Posté par benoar . En réponse au journal Décompression d'archive intelligente. Évalué à 9.
tar tfj monarchive.tar.bz2 | xargs rm -rf
À ajuster avec z pour une archive gzippée. Bon, le rm -rf ça peut être un peu dangereux, à utiliser avec précaution (par exemple si l'archive contient des chemins absolus; normalement tar les enlève par défaut quand on crée une archive).[^] # Re: Savoir regarder à l'intérieur
Posté par benoar . En réponse au journal Au revoir PowerPC. Évalué à 2.
Par contre, je trouve que le PowerPC a fait ses preuves, et que son développement est parti dans la bonne direction (pour son ISA); tout ce qui lui manque, c'est un bon contrôlleur mémoire (un peu comme chez AMD), et des "petites" optimisations intelligentes comme sait le faire Intel. Et aujourd'hui, quand on voit que la XBox360 et la PS3 en sont équipées, ça montre que c'est un processeur qui a encore de l'avenir !
Après, la balle est du côté des programmeurs : améliorer les compilateurs, mieux gérer la parallélisation du code (car ces nouveaux PPC sont multi-c½urs), etc ... Le nombre de "bidouilleurs" d'assembleur x86 a toujours été énorme par rapport à ceux s'intéressant au PPC. Si on avait des mecs aussi doués sur des PPC (donc des machines accessibles au grand public, puisque c'est ça qui a fait l'avantage du x86 aussi) ça pourrait donner quelque chose de vraiment bien.
[^] # Re: C'est triste.
Posté par benoar . En réponse au journal Au revoir PowerPC. Évalué à 5.
Là tu va me dire qu'il existe un driver pour lire le ext2/3 sous OS X, mais qu'il marche mal. Et ça va encore être la faute à ces incompétants de programmeurs de logiciels libres...
# Savoir regarder à l'intérieur
Posté par benoar . En réponse au journal Au revoir PowerPC. Évalué à 6.
Quand je me suis intéressé de plus près au fonctionnement exact d'un processeur (que je n'avais pas encore bien saisi), je me suis tourné vers l'architecture PowerPC, car je venais juste d'en acquérir un. Et là, d'un coup, tout m'a parru beaucoup plus clair. Tout est beaucoup plus logique, beaucoup plus simple. J'ai lu comment fonctionnait une MMU, ce qui se passait lors d'un changement de contexte, comment marchaient les interruptions, etc... Et ça m'a tout de suite beaucoup plus plu que quand j'avais approché l'architecture Intel.
Je veux bien avouer que ce genre de choses n'intéresse qu'une toute petite fraction de personnes. Mais quand on se plonge vraiment dedans, on comprend tout de suite mieux ceux qui adorent cette architecture. J'ai toujours dans l'esprit d'écrire un compilateur pour cette architecture, car cette tâche me semble beaucoup plus simple avec un ppc. Effectivement, écrire de l'assembleur ppc directement n'a pas forcément grand intérêt car il est très verbeux, et les variantes de ses instructions sont assez nombreuses (mais le nombre d'instructions de base est très réduit : c'est un RISC). À part peut-être optimiser à la main des routines en Altivec, ce que j'ai fait et qui est très instructif également.
En tous cas, je trouve ça dommage que cette architecture ne soit plus accessible au grand public (oui, les prochaines grosses consoles contiennent des ppc, mais je ne pense pas que leur ouverture aux développeurs sera énorme; l'aspect théorique est bien documenté, mais pour pratiquer, je pense qu'on ce sera tout de suite beaucoup plus restreints). J'aimerais bien que mon prochain ordinateur soit encore un ppc. Peut-être qui si les moyens que mets Intel dans le développement de ses processeurs étaient investis dans l'amélioration du PowerPC, on aurait vraiment une architecture qui éclate toutes les autres (oui, je suis un doux rêveur).
[^] # Re: C'est triste.
Posté par benoar . En réponse au journal Au revoir PowerPC. Évalué à 4.
Sinon pour le wpa, depuis le 2.6.17 le driver broadcom utilise la stack de devicespace, et doit donc supporter WPA.
[^] # Re: C'est triste.
Posté par benoar . En réponse au journal Au revoir PowerPC. Évalué à 4.
[^] # Re: Les TPM sont dangeureux, remote attestation
Posté par benoar . En réponse à la dépêche TCPA/TPM : la déferlante silencieuse. Évalué à 3.
En effet, une banque n'a pas vraiment d'intéret à utiliser TPM, puisque controler ce que fait le client des données qu'elle lui envoie n'est d'aucun intéret pour elle. Idem pour un fournisseur d'accès : il ne crée aucune information à valeur ajoutée, il ne fait que transmettre ce que les autres lui envoient.
Par contre, tous les fournisseurs de contenus, que ce soit en ligne, ou sur différents médias, eux, ils souhaitent vraiment brider les utilisateurs dans les possibilités qu'ils ont de manipuler l'information qui leur est envoyée. Et c'est en cela que contrôler ce que peut faire la machine du "client" est important à leurs yeux : ils ne veulent pas de "violation" de leur propriété intellectuelle, et avec TCPA, c'est eux qui décideront des règles avec lesquelles on joue, pas les lois votées par les gouvernements ! Imaginez tous les journaux en ligne, tous les sites produisant des articles, des images, des vidéos, et tous les "producteurs" de créations intellectuelles distribuées par d'autres biais : pour eux, pouvoir contrôler leur propriété est un avantage énorme auquel ils ne refuseront sûrement pas.
[^] # Re: Trusted computing = remote attestation= windows drm obligatoire
Posté par benoar . En réponse à la dépêche TCPA/TPM : la déferlante silencieuse. Évalué à 3.
[^] # Re: Validité du concept ?
Posté par benoar . En réponse à la dépêche TCPA/TPM : la déferlante silencieuse. Évalué à 2.
Par contre, je trouve ça bizarre que tu dises que l'EK sera d'office initialisée par Sony/Microsoft, car cela détruirai la seule utilité de ce TPM en dehors de la domination du monde par le Méchant Capitalisme : que les entreprises certifient elles-mêmes leurs ordinateurs, avec leurs clés et leurs systèmes bien à elles (comme linux, par exemple ...)
J'ai vu que tu avais pas mal participé au journal précédent sur TCPA (il y a quasiment un an exactement ! http://linuxfr.org/2005/08/18/19442.html ) avec Jérome Herman, et que tu as l'air de vraiment bien connaître le sujet (et toutes ses controverses), ça m'arrangerai que tu me dises si j'ai pas trop dit de conneries dans mon article... merci.
[^] # Re: FAT 32
Posté par benoar . En réponse au journal Les brevets c'est sympa!. Évalué à 1.
[^] # Re: Cacher un brevet
Posté par benoar . En réponse au journal Les brevets c'est sympa!. Évalué à 2.
Heu, le but de base des brevets, c'est de rendre les inventions publiques...
Dans le cas présent, c'est plutôt l'inverse, donc, une société qui a "caché" ses brevets, mais je dirais plutôt qu'elle a tout fait pour que les autres ne les voient pas.
# Petite comparaison avec le monde des formats fermés
Posté par benoar . En réponse à la dépêche TCPA/TPM : la déferlante silencieuse. Évalué à 4.
Je vois beaucoup de commentaires qui indiquent que TCPA n'est pas dangereux en lui-même, ce que je dis aussi dans l'article, et ce qui est vrai : ce sont les intentions de ceux qui l'emploieront qui comptent. Mais plusieurs choses me font penser qu'elles ne sont pas très bonnes .
Tout d'abord, la manière d'ammener les choses : fait dans le silence, ou alors présenté dans un but légitime (le stockage sécurisé de clés) mais différent du but final (qui est quand même annoncé clairement par l'Alliance TCPA et Intel avec LaGrande, ou AMD avec ... (j'ai oublié), qui sont clairement plus que de simples technologies de puces stockant des clés).
Ensuite, même si TCPA n'est pas directement un DRM, il a toutes les capacités pour faire respecter les "droits" en empêchant les applications d'accéder à certaines données, ou en certifiant qu'elles ne feront pas des choses contraires aux droits donnés à l'utilisateur (en certifiant seulement les applications listées par les majors comme étant respectueuses de leurs droits).
De plus, on constate que la restriction des possibilités de manipulation des données offertes à l'utilisateur est un système de plus en plus utilisé, et même requis sur les nouveaux supports, comme les HD-DVD ou les Blu-ray Disc.
Avec tout cela, je vois donc mal comment une opportunité comme TCPA de "contrôler" (brider) les utilisateurs pourrait être laissée de côté par les industriels et les grands distributeurs d'information.
Aujourd'hui, on peut contourner pas mals de leurs protections, et même souvent sans s'en rendre compte (je vois des fois dans les commentaires des mecs ne pas savoir que leur CD était protégé mais qu'il marchait quand même sur leur PC, et quand vous lisez un DivX, c'est bien que quelqu'un à l'origine a (surement) contourné CSS, si c'est un film). Bon, c'était déjà moyennement légal car souvent utilisé à des fins de contrefaçon (OK je fais une énorme généralité, mais si on parle autant du P2P, c'est un peu pour ça)(et non je ne crois pas à la copie privée à travers le P2P), maintenant c'est complètement illégal en France depuis quelque jours. Mais techniquement, c'est toujours possible, et je pense que pas mal d'entre vous ne s'en privent pas. (je ne vous demande pas de débattre si la loi est juste ou pas, hein) Mais le jour où ce sera techniquement impossible, comment feront nous tous ? Ce sera le cas avec TCPA si les géants de l'information adoptent cette technologie afin de s'en servir comme DRM.
J'en arrive donc avec mon analogie (oui, je met le temps...) :
Aujourd'hui, le monde des formats propriétaires dans le multimédia est assez vivace, et plein d'informations circulant dans des formats comme WMV, Flash, etc... Le fait, pour moi et mon analogie, d'utiliser les codecs win32 ou le plugin flash sous linux, est une manière de "cracker" ce système, qui empêche normalement les systèmes libres d'y accéder (puisque ce sont des formats propriétaires, qui n'ont pas de spécifications ouvertes). Vous avez donc la possibilité technique de "contourner" ces "protections", même si légalement, ça peut être discutable (et oui, vous pouvez copier le flux issu des WMV même s'ils contiennent des restrictions de droits, par exemple).
Moi, j'utilise une plateforme non-x86, en l'occurence un PowerPC. Ce qui fait que je n'ai pas la possibilité technique d'utiliser vos "cracks". Quand bien même j'abandonnerai mes idéaux de liberté pour essayer de "contourner" les "protections" des formats propriétaires, je ne pourrai même pas. Quand vous, avec un x86, vous faites tout pour ne pas utiliser ces formats, mais qu'un jour vous avez un besoin "urgent" d'y accéder une fois, vous pouvez toujours installer le "crack" qu'il faut : vous en avez la possibilité technique.
J'invite quiconque a un peu de volonté à refuser d'utiliser tout format proprio et surfer sur le net aujourd'hui. Aucune entorse possible, pas d'échapatoire possible. Comme dans le monde de TCPA. Et encore, aujourd'hui, le nombre de sources d'informations disponibles dans un format ouvert est assez majoritaire. Mais qu'en sera-t-il quand TCPA aura envahi les ordinateurs de tout le monde silencieusement ?
J'avoue que je fais peut-être l'amalgame entre format proprio et MTP. Mais pour moi, ça revient au même : des données dans un format qu'on ne connait pas (sauf que les MTP on parfois un aspect "protection physique", ou analogique, mais c'est quand même assez rare, cf. certains lecteurs CDs anciens qui ne lisent pas les CDs "copy-protected"). Les deux sont à combattre. Ici, on se bat pour des formats ouverts, contre les MTP. Et TCPA peut très probablement devenir une forme de DRM, tellement restrictive que le libre n'aura aucun moyen d'y remédier, à part de créer son propre monde de l'information. D'un côté, je suis en train de me dire que plutôt que de le combattre, c'est à ça qu'il faut se préparer ?
[^] # Re: Validité du concept ?
Posté par benoar . En réponse à la dépêche TCPA/TPM : la déferlante silencieuse. Évalué à 3.
Ensuite, pour les clés, la première fois que tu actives le TPM, il t'es demandé une "endorsment key" qui est la clé qui permettera de déterminer si tout le reste est valide ou pas (je suis pas totalement sûr de moi, mais c'est ce que j'ai compris), bref, qui dira si les clés suivantes seront les bonnes ou pas. Microsoft conseille de mettre cette clé à son compte, si tu souhaites que ce soit eux qui déterminent la validité du reste (cf. http://www.microsoft.com/windowsvista/privacy/privacy_ctp.ms(...) ). Donc ensuite, c'est les applications validées par cette première clé qui auront la charge de récupérer d'autres clés. Et à priori, si ces applications sont certifiées par la première clé, c'est qu'elles sauront bien où aller chercher les "bonnes" clés suivantes.
# double...
Posté par benoar . En réponse au journal linux pour mon père. Évalué à 10.
Comme par exemple "Veuillez ne pas retourner en arrière afin de ne pas reposter votre journal" ?
[^] # Re: ... c'est plus fort que toi !
Posté par benoar . En réponse au journal TCPA/TPM : La déferlante silencieuse. Évalué à 3.
On a déjà ce genre de chose avec l'histoire des platines DivX "libres" qui utilisent linux, mais n'autorisent que certains binaires signés. Pour moi, aurotiser seulement quelques versions certifiées à l'aide de $$ par des grandes boites, ce n'est pas faire du logiciel libre.
Et pour ce qui est de faire certifier des binaires "persos", à mon avis c'est complètement impossible : avant de certifier un logiciel, les autorités TCPA regardent ce qu'il est possible de faire avec ton logiciel, et toute fonction n'allant pas dans le sens de leur préceptes (empêcher de copier un contenu copyrithé, emêcher de lire des contenus non-autorisés, expirés, avoir une petite backdoor pour la NSA, etc ...) te fera refuser la certification.
[^] # Re: Trusted/Treacherous Day
Posté par benoar . En réponse au journal TCPA/TPM : La déferlante silencieuse. Évalué à 5.
J'ai aussi rencontré les problèmes dont tu parles : personnes ne comprenant pas très bien, se disant que c'est pas grave. Ou des personnes me prenant pour un parano ou un mec croyant à une conspiration mondiale...
J'aimerais bien informer plus de monde, mais même si des personnes m'ont dit que mon style était bon, je ne pense pas savoir bien vulgariser ce problème : en général, j'ai beaucoup de mal à me faire comprendre des personnes non-techniques, et c'est un peu pour ça que je l'ai posté ici, sur linuxfr. Ce texte est peut-être bon comme article pour un site de linuxien, mais je ne sais pas du tout comment m'y prendre pour informer les gens autrement.
C'est vrai que des journées d'information seraient pas mal, mais encore faudrait-il qu'ils soient un minimum sensibilisés au problème. Prendre exemple sur RMS pour écrire des tracts, pourquoi pas, mais sans compréhension des enjeux de leur part, ça va être dur (et si on met en gros "Risque pour la société de l'information toute entière", on va encore nous prendre pour des paranos).
Un gros problème, je pense, c'est que beaucoup de gens ne comprennent déjà rien à l'informatique, et donc laissent tomber tous les problèmes qui s'y rapportent. Ils faudrait déjà leur expliquer ce qu'est le numérique, pourquoi un ordinateur ça ne marche pas de la même manière qu'une machine à café ("bah oui, pourquoi ya le choix entre 10000 choses alors que ma machine à café, il suffit d'appuyer sur un bouton ?"), ce qu'est une donnée / un format de donnée, etc ... Ya pas mal de boulot avant de faire comprendre tout ça.
[^] # Re: Propose une nouvelle !
Posté par benoar . En réponse au journal TCPA/TPM : La déferlante silencieuse. Évalué à 2.
Faudrait que je le retravaille un petit peu. Il y a aussi le fait qu'on est en plein mois d'août, et que je me disais que c'était peut-être pas le bon moment pour intéresser un maximum de gens, mais là j'avais pris l'initiative de l'écrire hier soir, alors c'est sorti comme ça.
[^] # Re: et les ordinateurs de bureau ?
Posté par benoar . En réponse au journal TCPA/TPM : La déferlante silencieuse. Évalué à 7.
Le problème c'est qu'on est jamais sur qu'il n'y a pas eu un oubli (volontaire ou involontaire) lorsque ce n'est pas indiqué (ça me parait louche que Acer soit le seul à ne pas proposer de machines sans puces TPM, même s'il ne fabrique que des machines pour le grand public).
Pour ce qui est du "en option", oui, je pense que ça veut vraiment dire ce que ça veut dire. Mais par contre, pour Asus par exemple, on ne peut pas commander de machines directement sur leur site, et ce sont donc les revendeurs (en France) qui choisissent quels modèles seront proposés au public (Asus offre plein de possibilités de configurations différentes pour ces machines, et les revendeurs n'en choisissent que certaines, en plus c'est généralement les même pour tout un pays). S'ils ont le choix d'ajouter des options, genre TPM, qui ne doit pas être cher, je pense qu'ils le feront; ça fait toujours "bien" d'avoir plein d'options en plus sur les machines qu'on vend...
Pour ce qui est d'exiger cette puce pour que l'ordinateur soit fonctionnel, je pense que c'est de la parano de linuxien : les constructeurs n'ont aucun intérêt à empêcher l'utilisation de linux sur ces machines, juste pour le plaisir de faire chier les libristes. Par contre, lorsqu'on démarrera sur un système non-certifié, on n'aura plus accès au "monde de confiance" des données protégées par TCPA, et seuls les informations libres pourront circuler entre des machines non-certifiées (ou des informations protégées par des protections logicielles, qui seront alors classées au rang de "jouet technologique" d'antant).
Mais il est clair que plus cette puce se répand, plus le risque est grand de voir arriver des informations accessibles uniquement aux systèmes certifiés, et dans un effet d'entraînement, de voir ce genre de machines proposées au grand public, et des constructeurs qui ne pourront rien faire d'autre que de proposer des machines ainsi équipées pour ne pas perdre des ventes, même s'ils sont idéologiquement contre (j'aimerais bien en trouver des comme ça, quand même).
Je pense tout de même que la diffusion de TCPA se fera dans le silence le plus total, car le seul moyen pour que ça marche, c'est qu'au moment où les fournisseurs de contenus offriront des données protégées, les gens auront déjà du matériel qui puisse le lire. Ce n'est pas comme avec la HD, ou les commerciaux balancent "Achetez la nouvelle télé SuperHD-machin-chose, elle a une qualité 100x supérieure à votre ancienne !" pour convertir les gens : là, je vois mal des mecs sortir "Achetez notre nouvel ordi avec TPM ! Il n'a rien de mieux que votre ancien, mais en plus il vous bride dans votre liberté d'utiliser vos données !". Il faut que la transition se fasse en douceur : d'abord on infiltre ces puces dans le marché, qui ont aujourd'hui peu d'utilité, ou alors une utilité autre que la certification de la machine (qui est, je pense, le but "ultime" du projet TCPA) : par exemple le stockage sécurisé de clés, l'accélération du chiffrement (je ne dis pas que ce n'est pas utile, je dis juste que c'est une utilisation "détournée"). Et une fois qu'une majorité des ordinateurs en seront équipés, on pourra proposer des contenus "sécurisés" par TCPA. Ceux qui n'étaient pas encore convertis le seront par effet de masse ("Ha, tu peux pas lire le document que je t'ai envoyé ? C'est ton ordi qu'est trop pourri, regarde, tu l'as acheté ya au moins 3 ans ! Il a pas de TPM !"). Puis alors les emmerdes commenceront à arriver, mais ce sera "normal" : "L'informatique c'est comme ça !". J'espère seulement qu'un jour les gens se réveilleront. Mais s'ils attendent jusque là, il sera trop tard.
[^] # Re: Le passage Mono dans le document
Posté par benoar . En réponse au journal Mono et Gnome. Évalué à 2.
Pour ceux qui s'intéressent à l'aspect théorique de la construction de compilateurs à partir d'interpréteurs, voire ce lien qui parle d'évaluation partielle et surtout des différentes projections Futurama :
http://www.jadetower.org/muses/archives/000419.html
La notation utilisée est du genre Haskell, et ça fait se tordre l'esprit assez longtemps avant de capter quelque chose.