Je suis d'accord pour dire que Perl s'est endormis... Python a pris la cote et pourtant, je ne l'aime pas personnellement et ne lui trouve rien de vraiment sympa. Ruby est sympa mais ne prends pas tant que cela je trouve...
Mais cela pourrait changer. Parrot est maintenant là pour les développeurs, Perl6 arrive... La sauce va t'elle reprendre ?
C'est pas parce que Linux utilise très mal ce mot qu'il faut faire de même. Linus fait lui aussi des "conneries" et celle là en est une grosse.
Par ailleurs, Linus ne vit pas en Europe et il est né dans un pays qui était neutre il me semble... (même si il n'as toujours été clair, comme la Suisse...).
Bref, il y a 10000 autre manière de se moquer de Linus que de ressortir a chaque fois cette blague de très mauvais gout.
S'il te plait, regardes un peu l'histoire du milieu du XXeme sciècle avant de parler de méthodes nazies. Ce n'est pas parce que des personnes travaillant aux USA en parlent en informatique qu'il nous faut nous le faire.
Il n'y a rien de nazie chez les développeurs et c'est une insulte que de sortir ce mot là sous dflp pour tout et n'importe quoi. A l'employer à tord et à travers, vous diminuez la valeur de ce mot, valeur qui en gros dis : "Plus jamais ca".
Il faut aussi remarquer que le XML n'a pas été fait pour l'Homme (mais par lui), c'est très très lourd comme langage. TeX s'adapte au contexte, le meilleur exemple est celui des formules mathématiques, mais on peut aussi parler des tableaux basiques. On peut aussi regarder du coté du format de bibtex... Bref, c'est clairement conçu pour être pratique dans un éditeur ligne à ligne.
En effet, cela ressemble a du cygwin et je n'ai jamais réussi a savoir comment on gère du cygwin facilement sur un parc en le déployant automatiquement et de manière silencieuse (avec mise a jour par la suite et tout et tout)...
Bref, c'est un truc de développeur qui sont admin de leur poste !
Raz le bol d'obliger les personnes à vouloir prendre mandriva... Comme dis ci-dessus, il y a des procédures avec appel d'offre.
Je rappelle que debian est très bien ancré en europe et en france en particulier. Combien de développeurs debian en Europe et combien de développeurs mandriva ?
Et puis, il y a la Suse...
Bref, pour un ancien qui a bien connu les problèmes avec BULL et Thompson, tu nous gonfles un peu avec Mandriva à chaque fois !
> J'avoue être troublé que certains ne comprennent pas l'avantage de cette fonctionnalité.
Parce que tu es dans un stratégie mono-utilisateur avec une vision bureau graphique et click click click...
J'ai quatre utilisateurs, je fait une file globale ?
Mes programmes tournent et font des copies, ils attendent la file globable ?
Je veux un système multi-utilisateurs, multi-tâches. Le disque n'a pas à gratter, avec le sata, l'ordonencement des ordres, les caches... normalement, c'est à l'OS de se débrouiller pour faire cela. Ici, on veut amener une fonctionalité de l'OS sur le bureau... avec un démon encore de plus.
Si l'OS ou le système de fichier sont mal conçu, modifiont les plutôt que de passer de l'énergie sur un truc réducteur et qui met en évidence la mauvaise conception de l'OS ou des applications graphiques (comme dis dans un post, ionice, cela existe).
Cela me rappelle gnome-vfs et toute cette daube inutilisable en ligne de commande mais uniquement pour les applications du bureau considérer (gnome d'un coté, kde de l'autre avec kio). L'énergie aurait du dès le début se faire sur fuse ou équivalent et donc de faire quelque chose dans la couche base.
Exemple de daube graphique. Sur une debian (je ne sais pas pour les autres), les clefs USB ne se monte pas sur le bureau si l'utilisateur est sur un annuaire de type LDAP et qu'on lui donne le groupe plugdev au lancement de la session avec pam_group. Pourquoi ? parce que tout dépend d'un démon dbus qui est lancé avant l'ouverture de session... (je crois que c'est corrigé sur ubuntu). Bref, tout cela pour dire que ces machins globaux nous compliquent la vie et que le système des droits et ainsi de suite devient de plus en plus nébuleux.
> La suite logique serait de pouvoir définir des règles globales
Il faut aussi arrêter de vouloir transformer un OS multi-utilisateurs multi-tâche multi bureau en OS à variable globale mono-utilisateurs mono-bureau mono-tâche...
Les machines global avec les démons qui tournent de partout, tout cela pour que lorsque je change le paramètre epsilon, tout change d'un coup, je pense que c'est une voie très dangeureuse pour la sécurité du système.
UNIX est assez simple à la base et un des fondamentaux de la programmation est d'éviter les variables globales. Donc lorsque je lis une phrase comme celle ci-dessus, je dis danger, on est en train de partir dans une mauvaise direction et on va avoir des bureaux très sensibles aux virus si on continue dans cette direction.
C'est linux.com et non linux.org, donc c'est du contenu en .com. Le public visé ne me semble pas celui de linuxfr et cela ne me choque pas qu'on n'y aille pas souvent. C'est plus dédié décideur. Il faudrait en parallèle un linux.org (qui existe, je viens d'aller voir).
Il n'empêche que j'ai vu que SystemRescueCD avait sortie une nouvelle version. J'ai donc appris quelque chose d'intéressant en allant la bas.
Moi je dis que s'il faut couper le courant pour changer une ampoule, c'est qu'il y a manifestement un problème de conception (sauf si ampoule cassée).
Une ampoule morte, on doit la prendre et en mettre une autre comme on branche un poste radio sur une prise, sans se poser de question.
Je n'ai jamais eu de soucis avec les baïonnettes alors que les ampoules à vis passent leur temps à se dévisser... Mettre une vis me semble aberrant même si c'est la norme par défaut d'aujourd'hui. Tu te vois visser la prise de ton poste radio dans le mur ? Alors pourquoi nous oblige t'on à faire cela percher sur une chaise les deux bras en l'air ?
A mon sens, un des soucis de ce genre de réseau (PGP/GPG ou SSH) est qu'il est basé sur des clefs ayant la plupart du temps une durée de vie infini. Donc on monte son réseau et puis un jour ... patatras, il y a un article qui dis que les clefs ne sont pas si géniale que cela à terme.
Au final, cela me donne comme pour SSH le sentiment d'un défaut de conception. Les clefs de chiffrement à usage pour le réseau devrait toujours avoir une durée de vie limitée (c'est souvent le cas des certificat X509 que le trouve pour les sites HTTPS, mais pas toujours). La durée de vie limité résout à terme le problème des failles inévitable (cf carte bleu).
La solution de la révocation n'est pas bonne car elle demande au client d'aller voir des listes centralisées, de se mettre à jour et que celui-ci ai effectivement implémenté ce mécanisme de révocation. Bref, c'est bien mais pas assez fiable pour se baser la dessus sur du long terme.
A partir du moment ou les clefs ont une durée de vie limité, il faut dès la conception penser à la mise à jour de ces clefs et assurer la période transitoire à deux clefs. C'est souvent mal fait, même sur les certificats X509. Le CNRS a d'ailleurs été confronté au passage aux certificats CNRS2 il n'y a pas longtemps et nous avons deux ans pour mettre à jour tous nos certificats dans les laboratoires. Malgré cela, pas mal d'applications n'aiment pas le changement de certificat. Par exemple, comment mettre à jour le certificat de mon serveur OCS qui me déploie mes logiciels sachant que celui-ci a soit le nouveau, soit l'ancien certificat mais ne peut pas avoir les deux ! Cela se mors la queue et je n'ai pas trouvé de bonne solution intégrée dans OCS...
Au final, je dirais qu'il y a du travail sur la planche pour que les développeurs de ces applications modifient leurs protocoles pour tenir compte de cet aspect temporel et que le protocole lui-même gère la phase de transition avec une mise à jour automatique des clients vers les nouvelles clefs et que les deux clefs soient équivalentes pour les clients. Pour le moment, un serveur web ou ssh ne peut avoir deux clefs !
Debian l'a bien compris puisque chaque distribution est lié a une et une seule clef. Lorsqu'elle sors une distribution, la clef de la future stable est déjà dans le paquetage keyring pour que la mise à jour de la stable vers la future stable (testing) puisse se faire sans hurlement de la part d'APT. C'est ce genre de mécanisme qui doit être pensé et généralisé, bien sur en s'adaptant à la problémtique !
J'ai motivé ma belle mère a prendre Ordissimo. Pourquoi ? Parce qu'elle débute l'informatique à 76 ans, qu'elle n'habite pas la même ville que moi et que je ne veux pas faire son support, je fais déjà cela toute la journée au boulot et même parfois le soir à la maison ou chez quelques potes ;-)
Donc Ordissimo m'a paru il y a 6 mois la meilleure solution et elle s'en sors pas si mal.
Il faut arrêter d'avoir peur de tout et de stresser sur le minitel 2 à la moindre annonce. Il y a des personnes qui n'y connaissent rien et qui souhaitent juste utiliser l'outil dans un cadre très simplifié. Ce genre de solution a plus de chance de leur convenir que nos distributions préférées. Tant mieux.
Je préfère voir ma belle mère profiter d'internet sur un poste adapté que de la voir bêtifier devant TF1 ;-)
Je pense que tu as parfaitement résumé la chose en une ligne. A l'époque, je me souviens, gcc ne bougeait pas et egcs apportait vraiment du plus a nos programmes. Heureusement, les personnes ont à l'époque réussit à rediscuter et à refusionner pour reformer gcc.
Cela n'a pas été le cas avec XFree ou Sodipodi qui sont toujours là malgré le fork mais ne doivent plus être très utilisé.
On verra avec cette libc. Je pense que la FSF suit cela de près et pour l'instant regarde avant de prendre une décision. Il faut voir si les personnes derrière la eglibc sont capable de faire vivre ce projet sur la durée.
Comme la eglibc a vocation a rester compatible API/ABI avec la glibc, je ne serais pas étonné qu'il y ai fusion à terme des deux projets si l'organisation de la eglibc fonctionne.
Au final, debian se simplifie la vie et remonte ainsi plus facilement ses bogues pour les partager (cf pb du bogue introduit par debian dans openssl). Par ailleurs, debian ne prends pas tant de risque que cela car le retour sur la glibc me semble toujours possible sans chambouller tout le projet.
Bref, cela a bien moins d'impact que lors du passage de la libc6 a la glibc2 qui avait foutu un bordel dans toutes les distributions. D'ailleurs, pour ceux qui se rappelle, lors de se passage à la glibc2, cela avait plusieurs fois chauffées entre la glibc et le noyau linux car linus refusait de faire des bidouilles dans le kernel dont le seul but était de contourner des bogues dans la glibc. Au final, la glibc a du corriger ses bogues...
Plutôt que des laisser la parole, Antoine a décidé de poster en tout sens et de manière peu diplomate. Que de temps en temps, les paroles dérivent car on est exaspérer lors d'une discution , OK. Mais ici notre Antoine devient franchement impolis gratuitement, voir vulgaire.
A mon sens, les termes ne sont pas forcément bien choisis pour cette action. On ferait mieux de parler d'Une Roadmap à usage prédictif pour aider les décideurs... Il faut aussi, en tant que développeur libre, comprendre un peu le contexte des pôles de compétivité, le 7 PCRD (plan de recherche Européen)... Un paquet d'argent transite par ce genre d'instance, il faut faire des dossiers, choisir... tout cela par des experts qui ne le sont pas toujours. On appelle cela le pilotage. C'est pas toujours bien fait mais d'un autre coté, on est bien content d'avoir été choisis lorsque son projet passe.
Les pôles de compétivité, l'Europe... ne peuvent pas soupoudrer l'argent du contribuable au pif. On le voit, les députés sont parfois lamentable (cf Hadopi). Il faut donc préparer le terrain et aider a ce que la direction prise soit le plus proche de celle que l'on souhaite. En gros faire du lobbying même si en France, cela a mauvaise presse.
Donc, soit tu ne fait rien, et tu n'aura rien en terme de subvention, soit tu fait des propositions concrètes qui mènent vers un avenir le plus prévisible possible.
Au final, Antoine peut vouloir d'un logiciel libre fait par des hommes libres sur leur temps libre... Mais ce n'est pas très représentatifs du logiciel libre d'aujourd'hui. C'est plus celui que j'aimais bien qui était encore la dans les années 96.
Mais pour Antoine, cela n'empêchera pas de continuer à faire du logiciel libre dans cette tradition et c'est d'aileurs ce que je fais personnellement à ma petite mesure. Mais plus il y a de projet du 7 PCRD sur le logiciel libre, plus je suis aussi content. Les deux approches sont complémentaires et doivent mutuellement se respecter.
Il n'y a pas à dire, les fichiers XML dans les fichiers de conf bas niveau sont une hérésie... Red-Hat et Novell commence a me gonfler a en mettre de partout ! Encore quelques années et on sera obliger de passer par leur cliclodrome pour gérer nos machines.
Vraiment, pas besoin de XML pour gérer un tel fichier...
Je mets à jour un poste qui sers de référence puis cfengine s'occupe du reste ;-)
Sous Linux, la mise a jour d'un logiciel propriétaire (type logiciel de calcul, par exemple matlab) signifie en pratique (cas debian) de faire la chose suivante :
- mettre à jour le dossier /opt/mon_logiciel_proprio
- mettre à jour /etc/sysprofile.d/mon_logiciel_proprio.bash
Voila. Après, je n'ai pas de logiciels proprio avec des données type base de données justement. Normalement, si c'est bien fait, on devrait avoir en plus à lancer
/opt/mon_logiciel_proprio/mise_a_jour_donnee.sh
La, effectivement, on rentre dans le spécifique et c'est parfois merdique (du fait d'une mauvaise conception du logiciel).
Un des premiers soucis des développeurs devraient être de savoir comment passer de la version n à la version n+1 facilement. Ce genre de réflexion dès le début de la conception permet d'éviter de rendre les mises à jour un enfer. Malheureusement, l'enfer signifie en pratique pas de mise à jour.
Si tu utilises un autre port, tu peux avoir des règles sur ton firewall complètement différente... Donc a mon tour de faire de l'ironie : as-tu déjà utiliser un firewall et un truc un peu mieux que la daube qui est dans XP. Par exemple, avec iptables, tu peux limiter l'accès a un port a deux nouvelles connexions max par minutes. Avec ce genre de règles qui s'écrivent facilement, tu élimines déjà 99% des attaques !
Donc oui, tout mélanger est une bétise.
Enfin, je parlais d'un ver qui cherche a rentrer et non a sortir... Mais je met aussi des règles en sortie sur mes serveurs.
Pour ce qui est de l'export de la base de registre, merci, je connais et heureusement que cela existe. Mais fait une simple action dans la configuration de Windows et dis moi ou cela se trouve dans le registre et cela sera complètement utilisable. Seule une toute petite partie de la base de registre est documenté, la grande majorité des clefs est totalement incompréhensible. Normal, il a été fait le choix de mélanger configuration et données de programme. Pour moi, c'est un défaut majeur dans la conception.
Quand à la problématique des techniciens, ta réponse est complètement à la rue. Tu passes un appel d'offre, la boite qui remporte le marché vient installer le produit et tu n'as pas le pouvoir de dire que tu veux tel ou tel technicien. Tu fait avec le technicien qu'on t'envoi pour la journée.
Pour les RPM, je suis parfaitement d'accord. Je ne suis pas fanatique des logiciels propriétaires même sous Linux car on retrouve les mêmes travers. Les techniciens n'y connaissent rien pour la plupart. Sans interface graphique, ils sont perdus. Si cela ne marchent pas, il dé-installe puis ré-installe... Bref, c'est le mauvais coté qui dérive sur Linux.
Concernant l'AD, je n'ai jamais dis que cela ne marchait pas. Les parts de marchés ne sont pas un témoin de la qualité car dans le cas présent, il y a un problème de MONOPOLE. En situation de monopole, toutes les cartes sont biaisés. Cependant, tout comme le sudo, l'AD a l'avantage de résoudre une problèmatique et il apporte une solution qui est finalement simple à mettre en oeuvre. Derrière les problèmes de conception et de sécurité, il permet a des milliers de postes d'être géré un minimum correctement. C'est donc une réponse pragmatique mais que personnellement je trouve beaucoup trop centralisé.
Et c'est très bien ainsi. Il fallait faire cela lors de la transition vers KDE4, c'était le bon moment.
Je me rappelle qu'il y a eu la même chose entre le noyau Linux et la glibc il y a quelques années. Les mecs du noyau refusait de contourner les bogues de la glibc. Cela avait été chaud. Au final, on a une glibc bien plus propre.
[^] # Re: Petit commentaire à Troll
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Les Journées Perl 2009. Évalué à 2.
Mais cela pourrait changer. Parrot est maintenant là pour les développeurs, Perl6 arrive... La sauce va t'elle reprendre ?
[^] # Re: Numérotation absurde ?
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Sortie de KOffice 2.0.0. Évalué à -1.
Par ailleurs, Linus ne vit pas en Europe et il est né dans un pays qui était neutre il me semble... (même si il n'as toujours été clair, comme la Suisse...).
Bref, il y a 10000 autre manière de se moquer de Linus que de ressortir a chaque fois cette blague de très mauvais gout.
Voila ce qui est rattaché a ce mot
http://fr.wikipedia.org/wiki/Camps_de_concentration_nazis
merci de ne pas dénaturé ce mot par des blagues nulles.
[^] # Re: Numérotation absurde ?
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Sortie de KOffice 2.0.0. Évalué à -1.
Il n'y a rien de nazie chez les développeurs et c'est une insulte que de sortir ce mot là sous dflp pour tout et n'importe quoi. A l'employer à tord et à travers, vous diminuez la valeur de ce mot, valeur qui en gros dis : "Plus jamais ca".
[^] # Re: Numérotation absurde ?
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Sortie de KOffice 2.0.0. Évalué à 2.
[^] # Re: Confusion des genres ?
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Jeudi du Libre à Lyon : Conception de documents avec Latex, OpenOffice.org le 7 mai 2009. Évalué à 2.
[^] # Re: KOffice pourrait-il tourner sous Windows ?
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Sortie de KOffice 2.0.0. Évalué à 3.
Bref, c'est un truc de développeur qui sont admin de leur poste !
[^] # Re: Scandale ! :-)
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Après la Corrèze... Genève. Évalué à 1.
[^] # Re: Encore Ubuntu
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Corrèze, 1er déploiement massif du libre dans les collèges. Évalué à 1.
Je rappelle que debian est très bien ancré en europe et en france en particulier. Combien de développeurs debian en Europe et combien de développeurs mandriva ?
Et puis, il y a la Suse...
Bref, pour un ancien qui a bien connu les problèmes avec BULL et Thompson, tu nous gonfles un peu avec Mandriva à chaque fois !
[^] # Re: Centos
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Red Hat Enterprise Linux 4.8. Évalué à 2.
[^] # Re: C'est pas pratique...
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Ultracopier, la copie enfin facile. Évalué à 7.
Parce que tu es dans un stratégie mono-utilisateur avec une vision bureau graphique et click click click...
J'ai quatre utilisateurs, je fait une file globale ?
Mes programmes tournent et font des copies, ils attendent la file globable ?
Je veux un système multi-utilisateurs, multi-tâches. Le disque n'a pas à gratter, avec le sata, l'ordonencement des ordres, les caches... normalement, c'est à l'OS de se débrouiller pour faire cela. Ici, on veut amener une fonctionalité de l'OS sur le bureau... avec un démon encore de plus.
Si l'OS ou le système de fichier sont mal conçu, modifiont les plutôt que de passer de l'énergie sur un truc réducteur et qui met en évidence la mauvaise conception de l'OS ou des applications graphiques (comme dis dans un post, ionice, cela existe).
Cela me rappelle gnome-vfs et toute cette daube inutilisable en ligne de commande mais uniquement pour les applications du bureau considérer (gnome d'un coté, kde de l'autre avec kio). L'énergie aurait du dès le début se faire sur fuse ou équivalent et donc de faire quelque chose dans la couche base.
Exemple de daube graphique. Sur une debian (je ne sais pas pour les autres), les clefs USB ne se monte pas sur le bureau si l'utilisateur est sur un annuaire de type LDAP et qu'on lui donne le groupe plugdev au lancement de la session avec pam_group. Pourquoi ? parce que tout dépend d'un démon dbus qui est lancé avant l'ouverture de session... (je crois que c'est corrigé sur ubuntu). Bref, tout cela pour dire que ces machins globaux nous compliquent la vie et que le système des droits et ainsi de suite devient de plus en plus nébuleux.
[^] # Re: Mais pourquoi ? 42
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Ultracopier, la copie enfin facile. Évalué à 1.
Il faut aussi arrêter de vouloir transformer un OS multi-utilisateurs multi-tâche multi bureau en OS à variable globale mono-utilisateurs mono-bureau mono-tâche...
Les machines global avec les démons qui tournent de partout, tout cela pour que lorsque je change le paramètre epsilon, tout change d'un coup, je pense que c'est une voie très dangeureuse pour la sécurité du système.
UNIX est assez simple à la base et un des fondamentaux de la programmation est d'éviter les variables globales. Donc lorsque je lis une phrase comme celle ci-dessus, je dis danger, on est en train de partir dans une mauvaise direction et on va avoir des bureaux très sensibles aux virus si on continue dans cette direction.
[^] # Re: Contenu
Posté par Sytoka Modon (site web personnel) . En réponse au journal Ouverture du nouveau linux.com. Évalué à 4.
Il n'empêche que j'ai vu que SystemRescueCD avait sortie une nouvelle version. J'ai donc appris quelque chose d'intéressant en allant la bas.
[^] # Re: titres
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Revue de presse de l'April pour la semaine 19. Évalué à 3.
Un peu de formatage SVP si vous souhaitez plus de lecteurs. Merci.
[^] # Re: Place d'Hasard par rapport à GSL, OpenSSL & cie
Posté par Sytoka Modon (site web personnel) . En réponse au journal Hasard 0.8 : bibliothèque de génération des nombres aléatoires. Évalué à 2.
[^] # Re: "Aisé"?
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Nouvelles attaques sur SHA-1 : Debian pourrait migrer vers SHA-2. Évalué à 3.
Je ne suis pas sur que Red-Hat (et Fedora) et Novell patchent moins... J'aimerais avoir des vrais statistiques que ce genre de phrase gratuite.
[^] # Re: Petit bilan pour toutes les personnes fascinées par mes problèmes
Posté par Sytoka Modon (site web personnel) . En réponse au journal Les lampes fluocompactes, c'est mortel.. Évalué à 7.
Il serait temps de remettre les travaux manuels aux collèges et aux lycées !
[^] # Re: à propos des baïonnettes
Posté par Sytoka Modon (site web personnel) . En réponse au journal Les lampes fluocompactes, c'est mortel.. Évalué à 4.
Une ampoule morte, on doit la prendre et en mettre une autre comme on branche un poste radio sur une prise, sans se poser de question.
Je n'ai jamais eu de soucis avec les baïonnettes alors que les ampoules à vis passent leur temps à se dévisser... Mettre une vis me semble aberrant même si c'est la norme par défaut d'aujourd'hui. Tu te vois visser la prise de ton poste radio dans le mur ? Alors pourquoi nous oblige t'on à faire cela percher sur une chaise les deux bras en l'air ?
[^] # Re: Annonce un peu hâtive ?
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Nouvelles attaques sur SHA-1 : Debian pourrait migrer vers SHA-2. Évalué à 10.
Au final, cela me donne comme pour SSH le sentiment d'un défaut de conception. Les clefs de chiffrement à usage pour le réseau devrait toujours avoir une durée de vie limitée (c'est souvent le cas des certificat X509 que le trouve pour les sites HTTPS, mais pas toujours). La durée de vie limité résout à terme le problème des failles inévitable (cf carte bleu).
La solution de la révocation n'est pas bonne car elle demande au client d'aller voir des listes centralisées, de se mettre à jour et que celui-ci ai effectivement implémenté ce mécanisme de révocation. Bref, c'est bien mais pas assez fiable pour se baser la dessus sur du long terme.
A partir du moment ou les clefs ont une durée de vie limité, il faut dès la conception penser à la mise à jour de ces clefs et assurer la période transitoire à deux clefs. C'est souvent mal fait, même sur les certificats X509. Le CNRS a d'ailleurs été confronté au passage aux certificats CNRS2 il n'y a pas longtemps et nous avons deux ans pour mettre à jour tous nos certificats dans les laboratoires. Malgré cela, pas mal d'applications n'aiment pas le changement de certificat. Par exemple, comment mettre à jour le certificat de mon serveur OCS qui me déploie mes logiciels sachant que celui-ci a soit le nouveau, soit l'ancien certificat mais ne peut pas avoir les deux ! Cela se mors la queue et je n'ai pas trouvé de bonne solution intégrée dans OCS...
Au final, je dirais qu'il y a du travail sur la planche pour que les développeurs de ces applications modifient leurs protocoles pour tenir compte de cet aspect temporel et que le protocole lui-même gère la phase de transition avec une mise à jour automatique des clients vers les nouvelles clefs et que les deux clefs soient équivalentes pour les clients. Pour le moment, un serveur web ou ssh ne peut avoir deux clefs !
Debian l'a bien compris puisque chaque distribution est lié a une et une seule clef. Lorsqu'elle sors une distribution, la clef de la future stable est déjà dans le paquetage keyring pour que la mise à jour de la stable vers la future stable (testing) puisse se faire sans hurlement de la part d'APT. C'est ce genre de mécanisme qui doit être pensé et généralisé, bien sur en s'adaptant à la problémtique !
[^] # Re: bravo
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Orange lance un terminal Internet sous GNU/linux !. Évalué à 2.
Donc Ordissimo m'a paru il y a 6 mois la meilleure solution et elle s'en sors pas si mal.
Il faut arrêter d'avoir peur de tout et de stresser sur le minitel 2 à la moindre annonce. Il y a des personnes qui n'y connaissent rien et qui souhaitent juste utiliser l'outil dans un cadre très simplifié. Ce genre de solution a plus de chance de leur convenir que nos distributions préférées. Tant mieux.
Je préfère voir ma belle mère profiter d'internet sur un poste adapté que de la voir bêtifier devant TF1 ;-)
[^] # Re: Est-ce que je suis le seul à penser à egcs?
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Debian remplace la glibc par eglibc. Évalué à 9.
Cela n'a pas été le cas avec XFree ou Sodipodi qui sont toujours là malgré le fork mais ne doivent plus être très utilisé.
On verra avec cette libc. Je pense que la FSF suit cela de près et pour l'instant regarde avant de prendre une décision. Il faut voir si les personnes derrière la eglibc sont capable de faire vivre ce projet sur la durée.
Comme la eglibc a vocation a rester compatible API/ABI avec la glibc, je ne serais pas étonné qu'il y ai fusion à terme des deux projets si l'organisation de la eglibc fonctionne.
Au final, debian se simplifie la vie et remonte ainsi plus facilement ses bogues pour les partager (cf pb du bogue introduit par debian dans openssl). Par ailleurs, debian ne prends pas tant de risque que cela car le retour sur la glibc me semble toujours possible sans chambouller tout le projet.
Bref, cela a bien moins d'impact que lors du passage de la libc6 a la glibc2 qui avait foutu un bordel dans toutes les distributions. D'ailleurs, pour ceux qui se rappelle, lors de se passage à la glibc2, cela avait plusieurs fois chauffées entre la glibc et le noyau linux car linus refusait de faire des bidouilles dans le kernel dont le seul but était de contourner des bogues dans la glibc. Au final, la glibc a du corriger ses bogues...
[^] # Re: Les cons, ça ose tout...
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Appel à participation pour l'élaboration de la roadmap du logiciel libre à l'horizon 2020. Évalué à 3.
A mon sens, les termes ne sont pas forcément bien choisis pour cette action. On ferait mieux de parler d'Une Roadmap à usage prédictif pour aider les décideurs... Il faut aussi, en tant que développeur libre, comprendre un peu le contexte des pôles de compétivité, le 7 PCRD (plan de recherche Européen)... Un paquet d'argent transite par ce genre d'instance, il faut faire des dossiers, choisir... tout cela par des experts qui ne le sont pas toujours. On appelle cela le pilotage. C'est pas toujours bien fait mais d'un autre coté, on est bien content d'avoir été choisis lorsque son projet passe.
Les pôles de compétivité, l'Europe... ne peuvent pas soupoudrer l'argent du contribuable au pif. On le voit, les députés sont parfois lamentable (cf Hadopi). Il faut donc préparer le terrain et aider a ce que la direction prise soit le plus proche de celle que l'on souhaite. En gros faire du lobbying même si en France, cela a mauvaise presse.
Donc, soit tu ne fait rien, et tu n'aura rien en terme de subvention, soit tu fait des propositions concrètes qui mènent vers un avenir le plus prévisible possible.
Au final, Antoine peut vouloir d'un logiciel libre fait par des hommes libres sur leur temps libre... Mais ce n'est pas très représentatifs du logiciel libre d'aujourd'hui. C'est plus celui que j'aimais bien qui était encore la dans les années 96.
Mais pour Antoine, cela n'empêchera pas de continuer à faire du logiciel libre dans cette tradition et c'est d'aileurs ce que je fais personnellement à ma petite mesure. Mais plus il y a de projet du 7 PCRD sur le logiciel libre, plus je suis aussi content. Les deux approches sont complémentaires et doivent mutuellement se respecter.
# XML
Posté par Sytoka Modon (site web personnel) . En réponse au journal Bépo et azerty en même temps !. Évalué à 2.
Vraiment, pas besoin de XML pour gérer un tel fichier...
[^] # Re: But?
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Sortie de ReactOS 0.3.9. Évalué à 2.
Sous Linux, la mise a jour d'un logiciel propriétaire (type logiciel de calcul, par exemple matlab) signifie en pratique (cas debian) de faire la chose suivante :
- mettre à jour le dossier /opt/mon_logiciel_proprio
- mettre à jour /etc/sysprofile.d/mon_logiciel_proprio.bash
Voila. Après, je n'ai pas de logiciels proprio avec des données type base de données justement. Normalement, si c'est bien fait, on devrait avoir en plus à lancer
/opt/mon_logiciel_proprio/mise_a_jour_donnee.sh
La, effectivement, on rentre dans le spécifique et c'est parfois merdique (du fait d'une mauvaise conception du logiciel).
Un des premiers soucis des développeurs devraient être de savoir comment passer de la version n à la version n+1 facilement. Ce genre de réflexion dès le début de la conception permet d'éviter de rendre les mises à jour un enfer. Malheureusement, l'enfer signifie en pratique pas de mise à jour.
[^] # Re: But?
Posté par Sytoka Modon (site web personnel) . En réponse à la dépêche Sortie de ReactOS 0.3.9. Évalué à 8.
Donc oui, tout mélanger est une bétise.
Enfin, je parlais d'un ver qui cherche a rentrer et non a sortir... Mais je met aussi des règles en sortie sur mes serveurs.
Pour ce qui est de l'export de la base de registre, merci, je connais et heureusement que cela existe. Mais fait une simple action dans la configuration de Windows et dis moi ou cela se trouve dans le registre et cela sera complètement utilisable. Seule une toute petite partie de la base de registre est documenté, la grande majorité des clefs est totalement incompréhensible. Normal, il a été fait le choix de mélanger configuration et données de programme. Pour moi, c'est un défaut majeur dans la conception.
Quand à la problématique des techniciens, ta réponse est complètement à la rue. Tu passes un appel d'offre, la boite qui remporte le marché vient installer le produit et tu n'as pas le pouvoir de dire que tu veux tel ou tel technicien. Tu fait avec le technicien qu'on t'envoi pour la journée.
Pour les RPM, je suis parfaitement d'accord. Je ne suis pas fanatique des logiciels propriétaires même sous Linux car on retrouve les mêmes travers. Les techniciens n'y connaissent rien pour la plupart. Sans interface graphique, ils sont perdus. Si cela ne marchent pas, il dé-installe puis ré-installe... Bref, c'est le mauvais coté qui dérive sur Linux.
Concernant l'AD, je n'ai jamais dis que cela ne marchait pas. Les parts de marchés ne sont pas un témoin de la qualité car dans le cas présent, il y a un problème de MONOPOLE. En situation de monopole, toutes les cartes sont biaisés. Cependant, tout comme le sudo, l'AD a l'avantage de résoudre une problèmatique et il apporte une solution qui est finalement simple à mettre en oeuvre. Derrière les problèmes de conception et de sécurité, il permet a des milliers de postes d'être géré un minimum correctement. C'est donc une réponse pragmatique mais que personnellement je trouve beaucoup trop centralisé.
[^] # Re: Et aussi
Posté par Sytoka Modon (site web personnel) . En réponse au journal Petit point sur le serveur X. Évalué à 4.
Je me rappelle qu'il y a eu la même chose entre le noyau Linux et la glibc il y a quelques années. Les mecs du noyau refusait de contourner les bogues de la glibc. Cela avait été chaud. Au final, on a une glibc bien plus propre.