herodiade a écrit 808 commentaires

  • [^] # Re: vista, l'écran, toussa

    Posté par  . En réponse au journal eeePC d'Asus, le carton ?. Évalué à 4.

    > Si vous avez des questions précises ou des tests que vous voudriez faire sur la machine et sur le système, dites le moi, ca peut intéresser des gens :)

    Et bien.. puisque tu le propose, c'est bien volontier !

    J'adorerai voir la sortie des commandes suivantes, pour savoir en gros ce qu'il a dans le ventre à l'achat :
    - dmesg
    - lspci -v
    - lsusb
    - dpkg -l
    - fdisk -l /dev/sda, mount et df -h
    - uname -a
    - acpi -V
    - lsmod
    - lshal
    - lshw

    Merci d'avance :)
  • [^] # Re: Mon avis, votre avis ?

    Posté par  . En réponse à la dépêche Revue de presse - janvier 2008. Évalué à 10.

    > J'aimerais bien trouver un jour des articles m'expliquant le fonctionnement de trucs comme udev, hald, dbus ....

    Là je suis 100% sur ta longueur d'ondes ! J'ajouterai gstreamer, gconf, pulseaudio, consolekit et policykit.

    Composer un linux from scratch pour l'embarqué (donc sans ces choses), configurer un service réseau sophistiqué, virtualiser, enfin toutes ces activités réputées avancées sont en général largement et solidement documentées par ailleurs.

    Mais, et c'est une sorte de paradoxe, le fonctionnement, l'interaction (entre eux : c'est complexe !) et la configuration des daemons de base constituants le socle du desktop complet moderne et fd.o-compliant (bien que ces logiciels ne soient pas exclusivement dédiés au desktop), qui évoluent très vite (les vieux tutos sont souvent dépassés) est très mal couverte (ou se résume à la config rapide avec une gui). Personnellement, lorsque j'ai un gnome ou kde qui se comporte bizarrement à cause de ces composants (dbus, hal, serveurs son, etc.), je suis saisi d'anxiété parce que je ne sais pas réparer (ni trouver la doc pour le faire), alors qu'un bon viel apache qui déconne ne m'inquiète pas plus que ça.

    En somme la partie "bas niveau" ou "l'arrière coure" du desktop linux devient de plus en plus souple et puissante, mais complexe, et cela est fort mal documenté pour ceux qui ne veulent pas se contenter d'une config automagique ou par gui.

    De bons articles expliquant leur fonctionnement, leur interaction, leur configuration from scratch (par ex. pour les intégrer dans son linux embarqué sur pda, ou que-sais-je), et surtout, comment les améliorer (ie. "comment tester en cli si le comportement de mon dbus relatif à mon matos est sain", "comment rectifier par conf l'ordre de détection et choix des codecs par gstreamer", "mes touches multimédia ne sont pas supportées, que dois-je changer dans hal", "ma clef usb n'est pas automontée, que/comment patcher") serait du pain béni.
  • [^] # Re: JavaScript

    Posté par  . En réponse à la dépêche Matthew Szulik quitte Red Hat, tests de performance JavaScript et Valgrind 3.3.0. Évalué à 1.

    Hmm, nous n'utilisons pas les mêmes versions en fait (et visiblement les devs / gros patchs continuent d'aller bon train entre chaque béta de FF 3). Ici :

    Mozilla/5.0 (X11; U; Linux i686; fr; rv:1.9b2) Gecko/2007121016 Firefox/3.0b2

    Ce qui n'exclue pas bien entendu la possibilité d'un problème chez moi (mais dans ce cas je ne saurais expliquer pourquoi le FF 2.0 standard d'Ubuntu sur la même machine n'a pas ce problème avec dflp, ni pourquoi les autres sites chargés en js que je fréquente habituellement n'ont pas ce problème avec mon FF 3.0b2).

    Bon de toutes façons, si ce n'est pas un problème avec mon setup particulier, les rapports de bugs ne tarderont pas après la sortie de FF 3.0 : j'y verrai plus clair le moment venu.
  • [^] # Re: JavaScript

    Posté par  . En réponse à la dépêche Matthew Szulik quitte Red Hat, tests de performance JavaScript et Valgrind 3.3.0. Évalué à 2.

    > Firefox 3.0 beta 2 apporte de grandes améliorations.

    Au passage, je signale que la consultation des pages de linuxfr rame horriblement avec Firefox 3.0 (beta2).

    La navigation et le scroll des pages est très très lourd et lent, lorsqu'on est loggué (nb : je n'ai aucune extension active, et n'ai pas ce problème avec Firefox 2.0). C'est un bug de Firefox, ou un problème dans le js de dflp ?
  • [^] # Re: Enooorme !

    Posté par  . En réponse au journal La Flame War de l'année ?. Évalué à 2.

    Tient, par exemple celle-ci m'a bien fait marrer :)

    La question est celle d'un openbsdiste quelquonque, surpris du message envoyé par RMS sur la liste de diffusion openbsd-misc, la réponse en dessous est de RMS :


    > Why don't you ask Theo, whom you once praised, about OpenBSD?

    Because he tends to be unfriendly


    Et quelques messages plus tard (la phrase du haut est de RMS, celle du bas la réponse de TdR) :


    > I see you are being your usual friendly self ;-}.

    Yes, and you are being the usual slimy hypocritical asshole.


    Je doit être encore très gamin, parce que ça m'a fait rigoler aux éclats :). Stallman s'était même fendu d'un smiley pour tempérer sa critique hardie du bout des lèves :)
  • [^] # Re: Enooorme !

    Posté par  . En réponse au journal La Flame War de l'année ?. Évalué à 2.

    > c'est que Theo s'est abaissé aux attaques ad hominem et aux insultes alors que RMS est resté courtois et on topic.

    C'est mal connaître TdR que de penser qu'il lui faille s'« abaisser » pour envoyer un flot de jurons. On pourrait dire ça de quelqu'un de poli qui insulte malgré lui, parce qu'il est sorti de ses gonds et qui le regrettera.

    Mais TdR pratique les insultes à froid, et à haut débit (de la même façon qu'il est hyper intransigeant sur la qualité du code, au point d'affirmer ses opinions sans diplomatie aucune). C'est un style quoi, son flot d'injures. Une sorte de gauloiserie. C'est comme un dessin animé de South Park ou Beavis et Butthead : on ne dira pas qu'ils « s'abaissent » pour être injurieux : c'est leur style même.

    C'est aussi pour cette raison qu'on peut aimer, ou trouver un intéret à lire ce genre de troll, s'en délecter ou s'en offusquer, en parler, passer le lien à ses amis et tout. Comme pour le plaisir d'un dessin animé iconoclaste et vulgaire (ou d'une intervention tv de notre regrété Gainsbourg), on peut être amusé par ce personnage haut en couleur et par ses réactions outrancières. Ça fait partie du folklore maintenant. Et moi, j'ai bien besoin de personnages comme ça, pour contraster avec - et exorciser - la grisaille diplomatique et vide du monde informatique business dans lequel je baigne au quotidien. Et vous, qu'est-ce qui vous a fait lire le troll ? En quoi il vous intéresse ?
  • [^] # Re: Tss

    Posté par  . En réponse au journal La Flame War de l'année ?. Évalué à 2.

    > Oui mais grâce à lui j'aurai appris la méthode de surf de RMS. Cela valait le coup amha tellement c'est étrange.

    Dans le même genre, on apprend ici de Rob Landley (dev Busybox, et proche d'un autre allumé de première, Eric S. Raymond) que Stallman ne ferme pas les voitures à clef, même dans les grandes villes, et même celles qu'ils a emprunté à ses amis :

    Ok, you see above where I said I [Rob Landley] drove up to Boston to interview him [Richard Stallman] in 2000"? Spoke face to face? (He borrowed my car and left it unlocked on the streets of Boston, and gave me a shirt someone had just given to him, because he refuses to wear anything that has writing on it and it says "snow" with a picture of a snowflake over the pocket. I still have the shirt.)"


    Où est la limite entre « ferme sur son éthique », « intégriste et déconnecté jusqu'au ridicule » ?

    http://lwn.net/Articles/227154/
    http://lwn.net/Articles/227534/
  • [^] # Re: Force de frappe

    Posté par  . En réponse au journal knol un concurrent de wikipedia. Évalué à 2.

    Il serait étonnant que Google s'abstienne de privilégier une page Knol même médiocre (mais qui leur rapporte de l'argent car potentiellement remplie de Google AdSense) par rapport à une page Wikipédia (qui ne leur rapport rien, pour cause de politique antipub).

    J'imagine que ça les démange depuis un moment : ils redirigent énormément de traffic vers Wikipédia, et n'en tirent aucun bénéfice, puisque WP est un des rares gros sites dénués de pubs. Pour eux, c'est pour ainsi dire de l'argent perdu ou un manque à gagner.

    Il y a donc de fortes chances pour que Knol fagocite une bonne partie des lecteurs de Wikipédia (lorsqu'il y aura assez de contenu sur Knol, hein, ça se fera pas du jour au lendemain). Mais aussi, et c'est plus gênant, fagocite une bonne partie des rédacteurs. Les enjeux et la pertinence du « libre » échappe désormais grandement à la plupart des contributeurs de wp (faites un tour sur la partie communautaire de wp pour vous en rendre compte), par contre l'attrait de la reconnaissance (surtout pour les scientifiques et chercheurs) en voyant son nom et ses qualités cités en gros sur l'article, ou l'attrait de l'argent (Google annonce qu'ils reverseront une part des bénéfices adsense aux rédacteurs) pourrait rendre wikipédia peu attrayante, pour certains contributeurs, en comparaison avec Knol.

    Le bon coté des choses, c'est que, comme les rédacteurs de Knol n'ont pas à négocier ou discuter du contenu de leurs articles avec d'autres gens raisonnables/une communauté, cette plateforme devrait nous (wp) délester des dingos allumés qui veulent informer le monde de leurs délires et tentent en permanence de contourner leur éviction de wp (à la Mario Scolas, Jean-Pierre Petit, Vdrpatrice, La glaneuse, Nezumi, etc. pour ceux qui connaissent), ce qui fait perdre beaucoup de temps aux wikipédiens, rends l'ambiance parfois délétère, et fait fuire les nouveaux contributeurs sérieux.
  • [^] # Re: Explications : la crainte des brevets dormants par les grosses boite

    Posté par  . En réponse au journal Nokia refuse la standardisation d'OGG au sein du W3c. Évalué à 2.

    > La peur de "brevets dormants" sur Ogg/Theora c'est au mieux du FUD, au pire

    Je souscris au terme : « FUD », fear, uncertainty, and doubt, littéralement, ça décrit bien le problème.

    > au pire incomplet : cette peur existe aussi pour de la technologie propriétaire,
    > quand bien même tu te serais acquitté des licences afférentes.

    Heu... il a été répondu moultes fois à cette question dans les autres commentaires (par exemple pour expliquer que les risques concernant AAC/h.264 sont assez faibles). Les as-tu lu avant de poster ?

    Bon, changeons d'explication. On va faire très simple : admettons que les risque de brevets dormants dans mp3, h.264 et dans Ogg/Theora soient exactement les mêmes.

    Sous la contrainte du marché, Apple, Microsoft, Nokia, Sony et les autres ont été plus ou moins contraint de prendre le risque d'implémenter et distribuer le support mp3 et h.264 (d'ailleurs, Microsoft s'est planté, et ban, 1.5 milliard de dollars. Source : [http://news.bbc.co.uk/2/hi/business/6388273.stm]).

    Est-ce que pour autant ils souhaitent reprendre, de nouveau, un tel risque en distribuant d'autres codecs pour le fun ?

    Car avoir pris le risque pour mp3 et h.264 ne réduit en rien le risque d'implémenter et distribuer Ogg/Theora en plus du reste. Bref, même si les risques étaient identiques, ils ne souhaitent certainement pas doubler (ou tripler, ou...) les chances de payer une addition très salée, de plusieurs centaines millions de dollars. Ça ne me fait pas plaisir, mais je peut le comprendre.

    > Par ailleurs, en Europe les brevets logiciels étant encore illégaux

    Je ne crois pas qu'ils aient vraiment besoin de breveter en Europe. Il suffit que le brevet soit valable au Texas pour contraindre les grands acteurs internationaux à acheter des licences. Une fois la licence achetée, je vois mal en quoi il serait plus économique pour Nokia & co. d'utiliser Ogg/Theora en Europe.

    À mon avis, si on veut résoudre les problèmes tels que la domination des codecs brevetés, il vaut mieux ne pas se voiler la face ou ignorer hypocritement les causes des problèmes. À ce sujet, je soutiens complètement l'appel de GeneralZold plus bas : il faut, le plus possible, diffuser des contenu (musiques, films, clips) utilisant ces codecs. Les riches compagnies n'accepteront de les adopter que s'il y a une pression du marché (besoin et large utilisation par leurs clients, par exemple) suffisante pour prendre le risque (dès qu'une première de ces grandes entreprise aura essuyé les plâtres en prenant le risque, ça ira plus vite).
  • [^] # Re: Explications : la crainte des brevets dormants par les grosses boite

    Posté par  . En réponse au journal Nokia refuse la standardisation d'OGG au sein du W3c. Évalué à 2.

    > 1) Les brevets logiciels ne sont toujours pas valide en Europe (Est-ce que le marché Européen est trop petit pour eux ???)

    Heu... je te rappelle qu'on parle ici de la recommandation de Ogg dans une norme internationale.
    Tu crois sérieusement que les développeurs de navigateurs et les distributeurs de contenus vont implémenter et distribuer un support HTML5 qui ne marcherai qu'en Europe mais pas au Texas ?

    > 2) Il peut y avoir des brevets dormants même sur des techno dont ils ont acheté les droits

    Il y a des risques sur tout. Mais des risques plus ou moins importants. Le droit de la propriété intellectuelle, ce n'est pas de l'informatique, ce n'est pas 0 ou 1. Je pense avoir assez longuement indiqué pourquoi le risque de brevets dormants sur les technologies MPEG4 est considéré comme suffisamment faible par l'ensemble de l'industrie (l'adoption par l'industrie, c'est un fait, pas une spéculation). Ça ne me fait vraiment pas plaisir, mais c'est comme ça.

    > Non, Nokia utilise la langue de bois.

    Mais oui, et leurs avocats n'ont rien compris, alors ils racontent ce qui leur passe par la tête, pour le plaisir de bavasser sans savoir. Heureusement que tu es là, tu pourrai leur expliquer que « 1) il n'y a aucun risque, et 2) il y a des risques partout, et 3) Amende ? cf. 1 ».
  • [^] # Re: Explications : la crainte des brevets dormants par les grosses boite

    Posté par  . En réponse au journal Nokia refuse la standardisation d'OGG au sein du W3c. Évalué à 6.

    > Seconde question : Pourquoi Nokia ou n'importe quelle grosse firme bardé d'avocats utiliserait Linux ?

    Je n'ai aucune certitude sur ce point, seulement des hypothèses :

    1) Parce que d'autres très grosses et très riches sociétés (comme IBM, NEC, Oracle, Cisco/Linksys) ont distribué Linux avant eux, sans être attaquées. C'était facile pour elles, car elles ont commencé à distribuer Linux avant la furie des dépôts de - et procès pour - brevets logiciels. Il me semble (de mémoire) avoir lu des mails de devs Apple, sur la mailing-list du WHATWG, qui disaient au sujet de Ogg, en substance : « trouvez une grande société prête à prendre le risque de distribuer en premier ces codecs et containeurs, et nous suivrons peut-être - s'ils ne sont pas attaqués - mais nous ne voulons pas essuyer les plâtres. ». En somme, ils pensent vraisemblablement que la pratique à montré que le risque avec Linux est raisonnable, et que ça reste à faire pour le Ogg.

    2) Parce que les technologies utilisées dans le noyau (et les quelques composants inclus par exemple dans un N800) sont peut-être moins stratégiques, donc moins susceptibles de brevets. Ou sont mieux connues depuis longtemps (c'est ce que répond Linus Torvalds au sujet du FUD Microsoft sur les brevets du noyau Linux : il estime que les techniques utilisées dans le noyau sont très connues et vieilles, donc soient expirées, soient prédatent la période de fureur de dépôts de brevets logiciels (la fin des 90's), et Linus juge improbable le risque que Linux enfreigne un brevet). Ou sont l'objet du status quo de la « paix nucléaire » entre grandes firmes susceptibles d'avoir des brevets (qui ne sont que rarement les patent trolls, dans ce cas). À l'inverse certains domaines comme les codecs multimédias (ou encore, m'a-t-on dit, la cryptographie elliptique) sont de véritables champs de mines, où les découvertes brevetables sont récentes, où l'on dépose du brevet à tours de bras, souvent rachetés par les petites sociétés « patent troll », et où l'on défend ses brevets devant les tribunaux.

    Remarquez que cette « menace latente de brevets dormants » n'est évidement pas un jugement basé sur un calcul certain, absolu, et mathématique (comme nous, informaticiens, les aimons, mais comme les avocats de la propriété intellectuelle n'en rencontrent jamais dans la nature), mais plus vraisemblablement le résultat d'une évaluation des risques pondérée. Les sociétés distribuant du Linux violent les brevets de Microsoft sur le double click ou sur les bureaux virtuels, mais personne ne s'en inquiète (et pour cause). Dans le cas du noyau Linux, certaines distributions ont jugé important le risque que Microsoft détienne ET défende un brevet dormant (il faut les deux pour qu'il y ai risque), et ont accepté le racket de MS, d'autres en ont jugé autrement.

    Pour étayer, je rappelle que Nokia distribue justement du Linux avec ses N700, N800 et N810. L'OS pré-installé sur ces appareils inclus aussi le support mp3, le real audio, le flash et d'autres, mais pas le support Ogg. Pourtant ça leur est reproché publiquement dans nombre des articles que la presse informatique consacre à ces appareils, et ils sont probablement informés de ce souhait par les développeurs tiers et utilisateurs de Maemo. Pourtant ça ne leur coûterait rien en développement. Pourtant ça ne changerai pas la donne du marché, ça ne suffirait pas à imposer ou rendre le Ogg très populaire (pour ceux qui voient la main dans l'ombre de Microsoft partout). Et c'est sans rapport avec l'établissement d'une norme HTML (pour ceux qui pensent que c'est du à un lobbying contre le libre dans le WHATWG ou le W3C). En fait, ça montre assez bien la probable crainte d'un risque légal, puisque l'enjeu stratégique et les contraintes techniques sont nulles (et les enjeux commerciaux contraires à leur décision).

    En réponse à ton autre question :
    > est-ce qu'une société détenant un brevet n'est pas tenue de le défendre lors d'une violation ?

    J'ai entendu dire qu'on doit le défendre, en France, si on a connaissance de la contrefaçon. Mais la France n'est pas concernée par ces brevets logiciels de toutes façons. Pour le reste, je ne sais pas. Mais un constat : la contrefaçon de brevets sur le mp3 dans les logiciels lame, mad, etc. n'a pas conduit Fraunhofer, Thomson, ou Alcatel à poursuivre les petites organisations qui les distribuent (comme Debian/SPI, sourceforge et Canonical). Ce qui ne les empêche pas de se faire payer des royalties par ailleurs, et n'a pas empêché Alcatel de gagner en février 2007 un procès contre Microsoft pour violation de leur brevet concernant le mp3 (avec à la clef, un amende de 1.5 milliard de dollars requise contre MS ! de quoi rendre les grosses boites prudentes).
  • [^] # Re: Ce journal n'est pas honnête

    Posté par  . En réponse au journal Nokia refuse la standardisation d'OGG au sein du W3c. Évalué à 8.

    > Par contre, Theora a effectivement des brevets (détenus par ON2). Des brevets qui n'ont aucune contrainte pour l'utilisateur. Bref des sortes de faux brevets.

    Ces brevets, comme ceux du MPEG-LA (pour les brevets touchant AAC et H.264) ne les concernent pas vraiment : ils ont acheté des licences (brevets MP3, AAC, ...), ou la société à révoqué ses droits d'exploitation sur les brevets (brevets ON2). nb au passage : la participation à la normalisation ISO de H.264/MP4/AAC à imposé aux participants (justement, les développeurs de ces technologies) à dévoiler (disclose) les brevets qu'ils possèdent au grand jour. Apple et Nokia peuvent donc être sur de s'être acquitté de tout les droits d'utilisation.
    Ce qui inquiète Nokia (et Apple), c'est les potentiels brevets dormants.

    > Je crois que Nokia a simplement fait une boulette en qualifiant ogg de propriétaire. Trop de précipitation

    Pas vraiment de la précipitation. Regarde les liens dans mon message en-dessous : Nokia et Apple avaient déjà indiqué leur opposition à l'inclusion de ces codecs et containeurs en février 2007 (il y a presque 10 mois), lorsque cet ajout sur les codecs fut inséré dans la spec d'HTML5 en cours d'élaboration. Et leur argument était à cette époque le même qu'aujourd'hui (enfin, au moins les points 1 et 2 énuméré ci-dessus).

    > Attendons si Nokia change de discours.

    Aucune chance, et pour compléter ce journal : http://html5.org/tools/web-apps-tracker?from=1142&to=114(...)
    Et hop ! les références à Ogg, Vorbis et Theora ont disparu du draft HTML5 ! L'affaire est close, circulez, il n'y a rien à voir.
  • # Explications : la crainte des brevets dormants par les grosses boites

    Posté par  . En réponse au journal Nokia refuse la standardisation d'OGG au sein du W3c. Évalué à 10.

    J'avais déjà indiqué le problème ici en Juin dernier, avec des sources officielles de Nokia et Apple indiquant leurs motivations (cf. en bas).

    Il s'avère que le fond du problème est plus subtil. C'est vers février 2007 (voir le lien vers mon commentaire plus bas, qui contient les liens vers quelques messages savoureux de la mailing-list du WHATWG de cette époque) que cette question fut vivement débattue sur la mailing-list du WHATWG, le groupe qui définissait la norme HTML5 avant que le W3C ne prenne le relai, à la mi-2007.

    Nokia et Apple sont les deux grandes sociétés très riches à participer au WHATWG (Microsoft ne participait pas aux dicussions de ce groupe de travail). Or l'argument central et décisif des développeurs Nokia et Apple était que leurs services juridiques leur avait défendu d'intégrer Ogg/Vorbis/Theora, qu'ils ne peuvent donc pas l'implémenter, justement parce qu'ils sont riches.

    Pourquoi les avocats ont-ils proscrit l'implémentation de Ogg ? et bien, c'est très vicieux. Parce que ces formats sont potentiellement susceptibles de contenir des brevets dormants, qui couteraient très cher si une société aux poches suffisamment larges commençait à les distribuer. Une amende pour la violation de ce type de brevets coute plusieurs centaines de millions d'euros (cf. le cas de Microsoft et le brevet touchant son implémentation du support MP3, par exemple).

    Nokia et Apple préfèrent utiliser des normes telles que AAC ou H.264, qui sont brevetées, mais dont elles ont acheté les droits d'exploitation, et qui ne sont probablement pas couverts pas des brevets dormants ( 1) parce que le détenteur d'un tel brevet aurait déjà tenté de le rentabiliser en faisant des procès à toutes les très grandes sociétés implémentant ces normes, 2) parce que les sociétés impliqués dans le dév de ces normes sont bien connues, 3) parce que leur normalisation à l'ISO impliquait la révélation des brevets des participants).

    Etant donné les sommes faramineuses que rapporte un procès pour violation de brevet contre une grande société, si quelqu'un en possède un brevet qui touche Ogg, Vorbis ou Theora, - et c'est une hypothèse tenable, car ce domaine est un champs de mine - il attend certainement qu'une société suffisamment riche distribue ces technologies pour sortir du bois, et faire un procès-jackpot. Alors qu'attaquer dès à présent Red Hat, Opera ou Novell serait se démasquer pour des queues de cerises. C'est pourquoi aucun des plus riches acteurs de l'informatique (comme Microsoft, Nokia ou Apple) ne distribueront probablement jamais ces codecs. C'est ce qu'ont expliqué les développeurs de Nokia et d'Apple sur la mailing-list du WHATWG.

    Ainsi Ogg, Vorbis et Theora sont victimes des brevets logiciels ! justement parce qu'ils ne peuvent pas prouver ne pas violer des brevets. Aussi, on peut reprocher à Nokia et Apple d'être frileux, mais ils ne sont pas responsables. La brevetabilité logicielle est responsable. De nos jours, une technologie sensible apparemment non brevetée peut-être encore plus « pestiférée », pour les riches industriels, qu'une technologie aux brevets biens connus. Le système est pourri.

    Ici pour les détails, références et liens : http://linuxfr.org/comments/837342.html#837342
  • # La réponse de Zack Rusin à la "KHTML Future FAQ"

    Posté par  . En réponse à la dépêche Le projet Webkit clarifie ses règles. Évalué à 10.

    La réponse de Zack Rusin, développeur important de Qt (ex employé de Trolltech) au blog d'Harri Porten est à la fois cinglante et rigolote :

    http://zrusin.blogspot.com/2007/10/khtml-future.html

    Son argument final m'a convaincu : un intérêt majeur de converger autour d'un seul moteur, si possible le moteur utilisé par Apple/Safari, c'est que ce moteur sera testé et supporté par les webdesigners, surtout pour les gros sites (gmail, google documents, etc.). Un KHTML divergent de Webkit et utilisé par 1% des surfeurs, fut-il techniquement meilleur (et c'est improbable), sera de toutes façons moins supporté par les sites web que le moteur intégré dans Safari. Or pouvoir afficher correctement les sites webs (même les sites passablement défectueux) est quand même le but premier d'un navigateur.
  • [^] # Re: solidité du modèle de développement

    Posté par  . En réponse au journal L'impossible mission Olivennes. Évalué à 4.

    > Mais les problèmes et questions que posent Wikipédia
    > sont d'actualité.

    Précisément, le sénateur Masson fait ici écho à la récente suggestion d'un député de son camp, Jean-Pierre Grand, qui s'est proposé, il y a une semaine, de réclamer une modification de la loi pour que les hébergeurs dont Wikipédia, les blogs, les forums, ...) soient pénalement responsables des contenus publiés, et imposent en conséquence un filtrage a priori des contenus écrits par les utilisateurs. Certains médias très en vue avaient déjà soufflé le concept. Une idée grandiose.

    > Le statut pénal de sites comme Wikipédia n'est pas clair

    Le statut pénal de sites comme Wikipédia est parfaitement clair, et défini dans le cadre de la LCEN (depuis juin 2004).

    Lorsque tu constate un contenu diffamatoire sur un site, tu peut adresser à l'hébergeur un courrier recommandé pour en exiger le retrait. Dès lors que il est prévenu, l'hébergeur est responsable du contenu, et est censé l'effacer « dans un bref délai ». C'est pour ça, d'ailleurs, que la Fondation Wikimedia a été acquittée lors de son premier procès en France, en octobre : non pas pour avoir été jugée « irresponsable » (comme le prétendaient les articles très orientés du quotidien Le Monde), mais parce que justement elle avait honoré ses responsabilités dès qu'elle a été prévenue.

    > Tout ça pour dire que je n'ai pas trouvé cette question si
    > choquante, mais un peu à côté de la plaque et enfonçant
    > des portes ouvertes...

    Les questions au gouvernement sont souvent des prémices diplomatiques habituels avant une proposition de loi, lorsqu'on fait partie du même groupe / camps que le gouvernement. Et - faut-il le rappeler - certains groupes de médias papiers/traditionnels (en position de lobbying), et certains élus et gouvernants, voient d'un mauvais oeil le développement de contenus "user generated" sur internet. Ça tombe bien, puisque, justement, le gouvernement envisagent de réformer la loi sur l'économie numérique.
  • [^] # Re: solidité du modèle de développement

    Posté par  . En réponse au journal L'impossible mission Olivennes. Évalué à 8.

    D'ailleurs, je saisis l'occasion pour indiquer des logiciels et protocoles de peer-to-peer visant à garantir l'anonymat et la confidentialité de leurs utilisateurs, et généralement décentralisés :
    * ANts_P2P (GPL)
    * Freenet (plusieurs implémentations, certaines en GPL)
    * GNUnet
    * Mute_(logiciel)
    * Entropy
    * WASTE
    * Rodi
    * Nodezilla
    * Perfect Dark (pour les Windowsiens Japonais)
    * RShare
    * I2Phex
    * Marabunta
    * StealthNet

    Et quelques systèmes de fichiers pour Linux offrant des fonctionnalités de deniable encryption (ou « déni plausible ») :
    * TrueCrypt
    * PhoneBookFS (basé sur Fuse)
    * StegFS
    * FreeOTFE

    Si vous étes admins, pensez à activer le support SSL de vos MTA aussi. La question n'est pas le piratage. Il s'agit de garantir l'anonymat et la confidentialité, notre vie privée quoi, quelles que soient les décisions de notre gouvernement actuel. Pour rappel notre président nous avais pondu la pire copie, parmis tout les candidats, lors du questionnaire soumis par l'APRIL durant la présientielle. Des délires comme :

    http://www.senat.fr/basile/visio.do?id=qSEQ071102679&idt(...)

    ...peuvent toujours nous tomber sur le coin du nez.
  • [^] # Re: solidité du modèle de développement

    Posté par  . En réponse au journal L'impossible mission Olivennes. Évalué à 3.

    Heu, mais... en pratique, il peut se passer la même chose avec des logiciels proprio (cf. l'exemple de Winny plus bas). Qui peuvent aussi, et au passage, faire des réseau utilisant des méthodes de chiffrement et d'anonymat robustes (encore faut-il ne pas oublier de chiffrer/anonymiser aussi l'accès aux forums web depuis l'appli !).

    Lisez les articles sur Winny et son successeurs Share (qui ont réussi là où Freenet ne parviens pas à décoller : ces logiciels sont les plus populaires au Japon, très loin devant les réseau e2k ou bittorrent), c'est assez instructif.

    Le plus important pour nous c'est désormais de réunir une masse critique d'utilisateurs autour d'un réseau anonyme et chiffré. Même pour échanger légalement des contenus libres. Pour gagner le respect de la vie privée, contre les institutions... et de force.
  • [^] # Re: Réponses en vrac

    Posté par  . En réponse au journal Fedora abandonne Xen. Évalué à 5.

    Excellente (et si claire !) explication, merci beaucoup !

    > (bien sûr, n'hésitez pas à demander toute précision)

    Bon alors je ne vais pas me géner, tu semble si bien connaitre le sujet !, profitons-en ;)

    Pense-tu qu'une des petites solutions « outsiders » comme Virtualbox, OpenVZ/Virtuozzo ou Parallels peut percer et changer la donne ? Et le gros travail fait sur les containers (je crois que la virtualisation des PIDs a été intégrée dans le 2.6.24, bientôt peut-être le réseau), ça pourrai favoriser une solution plutôt qu'une autre ?

    Sur le plan « politique » ou marketing, j'ai aussi beaucoup de mal à comprendre la stratégie et les possibilités restantes pour Citrix. XenSource/Citrix semble coincé entre la solution Microsfto-microsoftienne à venir prochainement (Hyper-V/Viridian je crois, pas encore sortie) d'un coté (qui sera sans doute favorisée par les gens qui veulent un bon support officiel pour cet OS), vmware d'un autre coté (qui semble dominer totalement le marché, en termes de ventes aux entreprises, et comment lui piquer son marché ?), Xen sous Red Hat et SuSE de l'autre (qui bénéficient des développements libres de XenSource, mais vendent eux-même le support), et le grand potentiel de KVM sous Linux + le fait que les processeurs pour serveurs x86 auront tous à court terme le support HVM intégré, et enfin, la concurrence de libvirt/virt-manager et des divers outils libres pour l'administration de la virtualisation qui ne manqueront pas de se développer rapidement. Même le marché des serveurs Apple semble, si j'ai bien compris saturé et dominé par une autre solution (Parallels).

    Alors, à moyen terme, que va pouvoir vendre XenSource/Citrix ?
    (du support pour Xen sous Windows ? mais vmware et la virtualisation de MS sont mieux placés (pas pour des raisons techniques, mais...) - du support pour Xen sous Linux ? oui mais RH et SuSE le font aussi, et sont là encore, mieux placés - des outils d'administration ? oui mais libvirt et ses amis ne manqueront pas d'évoluer et d'être bien intégrés dans les distros...).

    Et enfin : est-ce que XenSource/Citrix a vraiment intéret à ce que le support dom0 soit bien et rapidement intégré dans le noyau vanilla (ce qui signifie faciliter la tache aux concurrents que sont RH et SuSE, mais signifie aussi ne pas prendre plus de retard par rapport aux concurrents comme kvm) ?

    PS : concernant le contenu du journal : je ne comprends absolument pas pourquoi Iznogood écrit (et même titre) « Fedora abandonne Xen », alors que la page qu'il cite en lien écrit noir sur blanc : « Since people seeem to use Xen, we have decided not to drop it ». Pour ce que j'ai compris du lien indiqué, les développeurs Fedora/RH ont simplement décidé de mettre le paquet sur une intégration de Xen de meilleure qualité pour Fedora 9 (pas étonnant, puisque cette Fedora servira de base pour la prochaine RHEL, on ne perds pas le nord...), en évitant de disperser en backports longs et inutiles, et en essayant de merger ce qu'ils peuvent dans le noyau standard (« hopefully even have a lot of this stuff merged in LKML »). Je n'appelerai pas ça « abandon », en ce qui me concerne. En outre, vu que de gros morceaux de Xen sont déjà mergés dans le noyau standard, que SuSE vends aussi du Xen (donc pas seulement RH), je vois mal comment Xen pourrait disparaitre, être abandonné ou « sentir le sapin ».
  • [^] # Re: Il commence à être de plus en plus intéressant ce mini-PC :-)

    Posté par  . En réponse à la dépêche Asus répond aux accusations de violation de code sous licence GPL. Évalué à 9.

    Oui, ce n'est pas encore la machine parfaite. Mes griefs :

    * Au lieu de prendre la totale Intel (pilotes « tout libre », bien supportés et bien maintenus), Asus à choisi, pour certains composants importants, des chipsets problématiques (qui ne marchent pas out of the box avec d'autres distros), et pour des constructeurs qui ne méritent pas un si gros marché Linux, vu leur manque de coopération (ne donne pas les spécifications de leurs produits). Trois composants nécessitent donc des pilotes bancals, pas/peu intégrés dans les noyaux standards (et nécessitant, pour certains, des blobs binaires) : le Wi-Fi Atheros AR5007EG/AR5BXB63, l'ethernet Attansic/Atheros L2, et le modem Connexant HSF.

    * Le choix de n'avoir pas immédiatement reversé (et au passage, fait auditer et corriger) leur code (les modifs du fameux module asus_acpi, relatifs à la violation de GPL) au développeurs noyau. Ce qui fait que ce module est mal audité, et pas intégré dans les distributions actuelles.

    * Le connecteur mini-PCI Express a disparu des modèles récemment sortis d'usine (pourtant, la fonctionnalité est toujours intégrée au à la carte mère, Asus a simplement fait une économie de bout de chandelle en enlevant un bête connecteur). On perds beaucoup en évolutivité.

    * Une mesquine étiquette mal placée dissuade l'ouverture de l'emplacement permettant d'accéder à (et donc d'upgrader) la barrette de ram, sous peine d'annulation de la garantie.

    * Choix d'un partenaire (Xandros) qui est plus connu pour se compromettre en acceptant les accords avec Microsoft qu'en reversant des contributions au libre (oui, on est déjà vendredi \o/).

    * Choix d'une distribution utilisant des logiciels assez anciens (on passe à coté de toutes les récentes améliorations relatives à l'économie d'énergie). D'où une autonomie assez faible (pour un portable 7", underclocké, avec disque SSD).

    Mais sinon, je crois que je vais aussi en acheter un (ou ma copine le fera) :)
  • [^] # Re: Oui mais...

    Posté par  . En réponse à la dépêche La BnF s'oriente vers le logiciel libre. Évalué à 3.

    > En revanche, je ne sais pas ce qui ce passe lorsque c'est une personne morale qui détient le copyright (est-ce possible en france ?)

    Oui, par exemple dans le cinéma, les maisons de production jouissent généralement de l'exploitation. Ça relève de ce qu'on appelle les droits_voisins.

    Comme l'interprétation d'ailleurs (un droit voisin aussi), dont le terme n'est pas décès de l'auteur + 70 ans, mais date de l'enregistrement (ou de la première exposition au publique) + 50 ans. Bref le commentaire grand-parent avait raison.
  • [^] # Re: Enregistrement d'une collection audio de mots japonnais

    Posté par  . En réponse au journal RPG pour apprendre le japonais. Évalué à 2.

    > Puisqu'il s'agit d'idéogrammes, sont-ils tous prononçables tels quels?

    Oui ils peuvent être lus tels quels, comme être lus groupés dans de nouveaux mots.

    > Il me les faudrait ces transcriptions

    Pour énorme une liste xml avec la prononciation :
    http://www.csse.monash.edu.au/~jwb/j_jmdict.html

    Les prononciations y sont écrites en kana, mais tu peut translitérer les kanas en rōmaji, sans perte, assez simplement.
    Par exemple avec du perl, après avoir installé le module et les dictionnaires avec un :
    env FTP_PASSIVE=1 sudo cpan -i Lingua::JA::Romanize::Japanese

    #!/usr/bin/perl
    use Lingua::JA::Romanize::Japanese;
    my $conv = Lingua::JA::Romanize::Japanese->new() || die $!;
    print $conv->chars(join(" ", @ARGV)) ."\n";
  • [^] # Re: Enregistrement d'une collection audio de mots japonnais

    Posté par  . En réponse au journal RPG pour apprendre le japonais. Évalué à 3.

    Quelques suggestions :

    * Les 1850 tōyō kanji ::
    http://fr.wikipedia.org/wiki/T%C5%8Dy%C5%8D_kanji

    * Les 1006 gakunenbetsu kanji haitōhyō :
    http://fr.wikipedia.org/wiki/Gakunenbetsu_kanji_hait%C5%8Dhy(...)
    (d'ailleurs, si certains d'entre vous ont du temps, ce serait chouette de bleuir tout ces liens rouges, un exemple d'article bien fichu sur un kanji : http://fr.wikipedia.org/wiki/Kanji:%E5%AD%90 ;).

    * Ici quelques centaines de kanjis de base avec des mots composés, du vocabulaire :
    http://www.labouret.net/japonais/kanji.html.fr
    et http://www.labouret.net/japonais/vocabulaire.html
  • [^] # Re: Politique culturelle et accès au domaine public : pour quoi militer

    Posté par  . En réponse à la dépêche La BnF s'oriente vers le logiciel libre. Évalué à 3.

    >> ses concurrents (Google, Yahoo, MS)
    > ah tiens, j'aurais plutôt pensé Hachette, Lafont, Hersant...

    Lorsque j'écrit que Google, Yahoo et MS sont leurs concurrents, je raporte simplement la position publiquement affichée des décideurs et dirigeants de la BnF. Depuis l'annonce de Google Print, la direction de la BnF a toujours considéré les moteurs de recherche « américains » comme des compétiteurs, et des menaces pour la culture française. Aussi on-t-ils refusé à Google la possibilité de numériser les ouvrages de la BnF.

    Pourtant, le fait que Google Print (avec un budget annoncé de +150 M$) ou Microsoft numérisent parallèlement à leur propres projets (Gallica, budget 100% public, de seulement 3.5 M$) ne devrait rien leur enlever, n'est-ce-pas ?

    > le choix d'une licence libre permettrait de faire rayonner le français et connaître notre littérature au plus grand nombre

    C'est tout à fait ça. Mais la perception chez nos dirigeants est bien différente. Jeanneney voit dans les projets américains une « volonté hégémonique d'imposer une culture anglo-saxonne » (sic, cf. [http://www2.cnrs.fr/presse/journal/2404.htm]). Pour lui le contenu n'est rien sans l'index de qualité (comprendre : qui hiérarchise l'information), d'où ces tentatives pour garder un contrôle franco-français (même dans les projets européens) sur l'ensemble et pour barrer la route aux moteurs de recherche (et leurs indexes diaboliques et américains). Si vous avez accès aux archives (payantes...) du Monde, cet article sur ce point a fait grand bruit à l'époque : http://www.lemonde.fr/cgi-bin/ACHATS/acheter.cgi?offre=ARCHI(...)

    L'ex-président de la BnF a même publié un livre sur ce ton : [http://www.press.uchicago.edu/cgi-bin/hfs.cgi/00/216412.ctl]. Bien entendu, les petits rois des médias papiers applaudissent des deux mains : [http://passouline.blog.lemonde.fr/livres/2005/04/jeanneneygo(...)].

    Ce qui permet surtout aux médias étrangers de se moquer de la France, à juste titre [http://www.telegraph.co.uk/arts/main.jhtml?xml=/arts/2007/01(...)]. Comme les wikipédiens français d'ailleurs : [http://referencenecessaire.wordpress.com/2007/06/22/jean-noe(...)], qui habilement rapproche les coûteux et castafioresques délires des élites de la BnF avec ceux ayant conduit au projet Géoportail ([http://www.geoportail.fr/], avec le succès planétaire qu'on lui connait - il suffisait pourtant de libérer les données). C'est pourquoi j'indiquais le texte d'Alexandre Moatti paru dans le Monde (cf. plus haut).
  • [^] # Re: Politique culturelle et accès au domaine public : pour quoi militer

    Posté par  . En réponse à la dépêche La BnF s'oriente vers le logiciel libre. Évalué à 7.

    > La correction en mode wiki me semble être une bonne voie

    Tout à fait d'accord, mais je crois que c'est sans espoir, du moins si l'on attend que ça vienne des décisionnaires institutionnels. Il y a une très forte culture du contrôle top down (disons, un élitisme déplacé, et une très faible confiance à l'égard du bas peuple travail communautaire), dans le milieu (à ce sujet, avez vous déjà essayé de visiter la BnF ?). Et des responsabilités institutionnelles qui rendraient l'opération délicate. Le contrôle des corrections a posteriori est très difficile (ou plutôt, il rends la tache vaine, car contrôler serait probablement aussi coûteux que de corriger directement).

    Lisez ce que Jean-Noël Jeanneney (ex-directeur de la BnF, et à l'initiative des décisions actuellement mises en oeuvre) dit de Wikipédia ([http://www.lepoint.fr/content/societe/article?id=189153], en bas de l'article) : « Wikipédia n'est pas réellement en mesure de filtrer à coup sûr les erreurs. », « besoin d'un comité de lecture qui fasse autorité », « utopie de la gratuité », etc. Bien sûr, l'avenir le contredira (de même que la BnF a dû partiellement céder sur l'accès gratuit et la numérisation, malgré qu'ils en aient) ; mais dans moins de 10 ans ? je n'y crois pas.

    Une solution alternative, qui sera sans doute mise en ½uvre (reste à savoir si ce sera à grande échelle), consistera à court-circuiter leur processus décisionnel et leur site web : il y aura certainement des personnes pour développer des outils permettant d'aspirer les scans sur Gallica2/Europeana, de les traiter numériquement, et de les pousser dans Wikisource ou Commons, où les corrections et les responsabilités sont gérées par la communauté (en fait, ça se fait déjà en aspirant le contenu du Gallica actuel et le convertissant au format ouvert intermédiaire DjVu, cf. [http://fr.wikisource.org/wiki/Aide:Cr%C3%A9er_un_fichier_DjV(...)]). Le fait qu'ils fuient l'indexation par Google fera que Wikisource sera mieux référencé, et attirera préférentiellement les contributeurs, de toutes façons. Bref, il faut vraiment tout faire nous même dans ce pays ;).

    Nous avons surtout besoin d'outils d'OCR et de preprocessing libres et performants.
  • # Politique culturelle et accès au domaine public : pour quoi militer

    Posté par  . En réponse à la dépêche La BnF s'oriente vers le logiciel libre. Évalué à 10.

    Reste à savoir ce qui sera numérisé en priorité (les ½uvres les plus plébiscitées le seront-elles ?), sous quelles conditions l'accès, et la rediffusion de ces ½uvres sera-t-il permis (ou facilité), si la BnF permettra un accès ouvert à ses concurrents (Google, Yahoo, MS) en utilisant les standards du web, si logiciel d'OCR utilisé sera libre, etc. Il est aussi question dans le dossier de presse indiqué dans la dépêche de mettre en ligne, mais de façon restreinte et approuvée par le SNE, les documents encore protégés par le droit patrimonial ; les technologies ne sont pas indiquées, la possibilité de DRM n'est pas exclue.

    Les licences d'exploitation abusives, comme le choix de ne pas diffuser numériquement les « bijoux de famille » lorsqu'ils relèvent du domaine publique, et d'en vendre l'accès contre rémunération est une pratique courante chez les conservateurs du patrimoine en France, bibliothèques comme musées. Les maisons d'éditions, qui ne peuvent pas risquer de se voir couper les accès ultérieurs aux ½uvres conservées, jouent le jeu et payent la rançon indue. Concernant la numérisation, il est probable que la BnF cherche à compliquer les copies hors site des ½uvres numérisées (par exemple, mais pas seulement, pour pouvoir se financer avec des encarts publicitaires).

    Vous êtes-vous déjà demandé, par exemple, pourquoi on ne peut pas trouver sur internet (par ex. sur flickr ou commons.wikipedia.org) l'intégralité - ou au moins une partie significative - du patrimoine conservé par le Musée du Louvre ? La mission première d'un musée est de donner le plus large accès possible à la culture, bien entendu. Mais l'accès aux ½uvres les plus populaires comme la Joconde dans des conditions permettant de bonnes photographies est soigneusement contrôlé par le Louvre (contre rémunération, et sous condition de diffusion restreinte seulement) : le règlement intérieur interdit la photographie de ces ½uvres (en pratique, les gardiens vous laissent faire si vous êtes dans un groupe de touristes, avec un angle pourri permettant seulement une photo-souvenir, mais vous ne parviendrez pas à poser un pied sous l'appareil photo). De même que la photographie des documents, même numérique et sans flash, est strictement interdite à la BnF.

    Une des racines du problème (sinon la racine du problème) relève d'un choix de politique_culturelle de l'État, et de la seconde mission des musées et bibliothèques (après la mission de diffusion) : la conservation du patrimoine. Cette conservation coûte cher, et il est de plus en plus souvent demandé aux institutions de la financer en partie sur leurs fonds propres (plutôt qu'uniquement sur des fonds publics). Aussi nous (acteurs du libre et enthousiastes du domaine public) devons êtres vigilants quant aux décisions relevant de la politique culturelle, si nous voulons attaquer le mal à la racine.

    Notez que ces problématiques sont concomitantes de l'ère numérique : le domaine public (plus précisément, l'expiration du droit patrimonial) était une disposition légale souvent très théorique, pour ainsi dire virtuelle, et presque inexploitable avant internet (le grand public ne pouvait pas vraiment en tirer profit, la diffusion restait sous contrôle des conservateurs du patrimoine, qui ont alors pris cette habitude d'en faire payer l'accès aux éditeurs de contenu professionnels, lesquels ne pouvaient pas se permettre de bruler les ponts).

    Voyez ce superbe article sur le sujet d'André Gunthert, chercheur à EHESS et membre de la Société française de photographie (institution qui conserve une grande quantité d'½uvres du domaine public), exposant le contexte, les enjeux et les risques à venir à partir d'un cas ou Wikipédia est (un brin maladroitement) impliquée : [http://www.arhv.lhivic.org/index.php/2006/08/25/209-daguerre(...)]

    Le nouveau site de Gallica permettant de consulter une partie des ½uvres fraîchement numérisées est déjà accessible [http://gallica2.bnf.fr/]. Mais Gallica a décidé de ne pas faire de relecture/correction après l'OCR, ce qui donne un résultat assez peu probant sur les ½uvres les plus anciennes. Essayez par exemple ceci [http://gallica2.bnf.fr/ark:/12148/bpt6k814390] (choisissez « Display: text mode » pour avoir l'affichage post-OCR). Ils ont aussi choisi un mode d'affichage dynamique des contenus numérisés qui permet de compliquer l'indexation par leurs concurrents, Google, Yahoo et MS (comme pour Europeana semble-t-il : [http://www.europeana.eu/]). S'agissant de libérer les outils, espérons qu'ils ne feront pas le choix d'un OCR propriétaire. Espérons qu'en dépit de leur amère acrimonie envers Google, ils choisiront de participer au développement du plus prometteurs des OCR libres (Tesseract & co) où Google investit beaucoup : contribuer à ces outils serait un investissement public profitable à tous, y compris aux bénévoles de Wikisources et Gutenberg (et aux rippeurs de sous-titres ;). Je n'ai pas trouvé d'indication sur le sujet dans les documents sur SPAR liés par la dépêche.

    À ce sujet, la position très fermée et très anti-google (quand ce n'est pas « anti internet ») de la BnF (Jean-Noël Jeanneney, directeur de la BnF jusqu'en avril 2007, a publié plusieurs pamphlets élitistes contre google et l'accès élargit non-hiérarchisé à la culture) est contestée depuis longtemps. Cette tribune du spécialiste de la numérisation des bibliothèque (et physicien) Alexandre Moatti a été publiée dans Le Monde (au passage, ce journal a caviardé sans prévenir l'auteur une phrase disant du bien de Wikipédia, ce qui nous rappellera à point nommé la position ambigüe des médias généralistes quant à la culture libre...) : [http://bibnum.over-blog.com/article-12513869.html]

    Pendant que j'y suis, peut-être un peu hors sujet (quoique...), je vous recommande cet autre article du chercheur indiqué plus haut, André Gunthert, intitulé Le daguerréotype, première expérience open source : [http://www.arhv.lhivic.org/index.php/2006/12/15/274-le-dague(...)].