galactikboulay a écrit 620 commentaires

  • [^] # Re: GNU slash Linux

    Posté par  . En réponse à la dépêche Interview de Richard Stallman sur KernelTrap. Évalué à 6.

    Pourtant, c'est bien ce qui serait le plus pertinent. Le projet GNU n'est pas le seul à avoir fourni du code pour faire les distributions actuelles.
    Dire "GNU+Linux", je trouve ça vraiment abusif, comme si il n'y avait que les outils GNU et le noyau Linux, et c'est tout.
  • # Debian et L4

    Posté par  . En réponse à la dépêche Interview de Richard Stallman sur KernelTrap. Évalué à 5.

    "Most versions of the GNU/Linux system are not entirely free software. All the commercial distributors put in non-free software. And then there's Debian which keeps all the non-free software clearly separated, but does distribute it. And those who sell Debian GNU/Linux often add a few non-free programs as a "bonus"... They invite you to think it's a bonus you're getting that your freedom is no longer complete."

    Attention chairie, ça va troller....

    Mis à part ça, je suis assez étonné qu'il soit déçu du passage de GNU/Mach vers L4 au niveau du Hurd. L4 est conçu pour être extrêmement petit et rapide, et ça serait a priori un grand pas en avant. GNU/mach n'a vraiment pas la réputation d'être très véloce.
  • [^] # Re: mouais...

    Posté par  . En réponse au journal FT et journalistes (pour changer). Évalué à 2.

    C'est le contraire qui est anormal oui ! Ca ne coûte rien de plus de fournir du 512 que du 8 Mo ! Y'a que FT pour fixer un prix en fonction du débit !

    Je te signale juste que le FAI doit acheter la bande passante nécessaire auprès d'opérateurs télécoms pour l'accès Internet... Il y a toujours de l'over-provisionning, mais bon quand tu as 10 clients à 8 Mb, c'est bien différent de 10 clients à 512 Kb...

    Pense aussi au dimensionnement des DSLAM, et au(x) lien(s) raccordant les DSLAM au reste du réseau...

    Bref, c'est bien beau de câbler tout le monde à 8 Mb au prix du 512 Kb, encore faut-il que les infrastructures suivent derrière...
  • # Intérêt ?

    Posté par  . En réponse à la dépêche Lancement du projet Garbure. Évalué à 1.

    J'avoue ne pas comprendre l'intérêt de faire des distributions spécifiques à chaque usage...

    Je ne vois pas bien en quoi une distribution à usage "général" (que ce soit Mandrake, Debian ou ce qu'on veut) ne conviendrait pas.

    Là on a phô pour faire du montage vidéo et ratatouille pour faire du montage vidéo. Et si on veut faire les 2 en même temps, on fait quoi, une 3ème distrib ? Mouais...

    A mon sens, ça serait beaucoup plus intelligent de faire des packages de suites logicielles bien intégrées concernant chacun des domaines cités, ces packages étant installables sur des distribs courantes, si ça n'existe pas déjà.
  • [^] # Re: Rectifications...

    Posté par  . En réponse au journal Branche Linux 2.6 stable. Évalué à 10.

    > Je pense qu'ils sont mieux placés que toi ou moi pour savoir ce qu'ils doivent faire.

    Je donne mon opinion d'utilisateur. Je préférerai l'ancien système stable/instable qui laissait le choix.
    Accessoirement, d'un point de vue dév, j'ai déjà fait du code noyau, et j'ai eu par ex. des problèmes avec un changement d'API pour RCU (Read-Copy-Update) qui faisait qu'un patch qui passait nickel pour un 2.6.7 ne passait plus pour un 2.6.8. C'est ce genre de changements qui est pénible.
    Tu vas me dire que je n'ai qu'à produire un patch pour chaque version de noyau, certes, mais quand on te fournit des modules pour une certaine version et que ça ne marche plus sur la version suivante à cause du-dit changement d'API, ben tu l'as dans l'os.

    > Pour USB et ACPI, je ne sais pas.

    Et bien tu devrais te renseigner. J'ai demandé à pas mal de personnes ce qu'ils pensaient du 2.6, toutes ont eu des pb avec au moins un de ces sous-systèmes.
    Pour la gravure, je ne parlais même pas de cette fonctionnalité, je parlais de pouvoir graver tout court.

    > Non. Il faut l'accord de Linus ou de plusieurs développeurs à la fois.

    Oui, d'où le terme "jugé". Ce n'est pas parce que c'est validé par plusieurs personnes - même si c'est Linus ou Alan Cox que c'est forcément stable. Je t'invite à lire les échanges d'Alan Cox avec un Bartlomiej Zolnierkiewicz à propos de la pile IDE, ils se sont bien pris la tête.

    > Si tout le monde pouvait avoir ta science pour savoir de façon définitive ce qui est stable et ce qui ne l'est pas...

    J'ai prétendu que je le savais mieux que d'autres ? non, apprends à lire.

    > Mauvais choix. Le kernel vanilla n'a pas les derniers updates de sécurité. > D'ailleur la branche -ac fixe quelques trous de sécurité.

    Et bien AMHA c'est un problème. Le kernel vanilla *devrait* être à jour de ce point de vue là. Interroge-toi sur le fait que nombre de personnes ne savent pas à quoi servent les branches -mm -ac -ck, et j'en passe.

    > Tu veux Linux 2.6 pour les dernières nouveautés et tu ne veux pas que Linux 2.6 évolue. Si la stabilité est important pour toi, utilises Linux 2.4.

    Je veux un 2.6, parce que les perfs pour les machines que j'ai ne sont pas optimisées avec un 2.4 (multiprocesseur + hyperthreading), et surtout que le support de certains matériels n'est pas présent dans le 2.4.
  • [^] # Re: Rectifications...

    Posté par  . En réponse au journal Branche Linux 2.6 stable. Évalué à 7.

    Plutôt que de faire des bidouillages incessants sur la branche censée être stable du kernel, à savoir la 2.6, je pense qu'il serait préférable que les développeurs mettent en route une version 2.7 qui pourraient accueillir toutes les nouvelles idées/fonctionnalités/...

    Cet avis n'engage que moi, mais je trouve que la qualité sur les derniers 2.6 s'est quand même un peu dégradée (USB, gravure, ACPI, ...). Là, actuellement, tout patch jugé stable est intégré directement dans la branche stable, alors qu'il est préférable de prendre du recul et de l'avoir en premier lieu dans une version dite instable. Parce que quand le patch est effectivement bon, ben tant mieux, mais quand ça provoque des effets de bord, et qu'on est obligé d'avoir le dernier kernel à jour (tout simplement pour les updates de sécurité), on est bien coincé.
  • [^] # Re: licences windows?

    Posté par  . En réponse au journal Inquiètudes à l'INSA de Lyon. Évalué à 3.

    Epsilon (relai SSH) a toujours été sous Linux, il n'y a jamais eu d'HP/UX (hormis une machine négociée il y a trèèès longtemps par des étudiants avec HP et qui ne sert plus depuis des années). Les machines Linux ne sont pas "visibles" à proprement parler des utilisateurs, mais je t'assure que c'est le système dominant pour les serveurs. Pour Digital Unix, effectivement, ça a évolué en Tru64, ce que je mentionnais avant.
  • [^] # Re: licences windows?

    Posté par  . En réponse au journal Inquiètudes à l'INSA de Lyon. Évalué à 6.

    Oui l'UTC a aussi souscrit au MSDN Academic Alliance, qui je le précise ne couvre pas la suite Office. C'est un point important je pense.

    En ce qui concerne l'infrastructure, tout tourne (ou presque) sur du Linux / Unix, et ce n'est pas prêt de changer. C'est du Linux pour les services réseaux (DNS, DHCP, Squid, relais de messagerie, ...) et il reste quelques Unix propriétaires (Tru64 pour les serveurs étudiants et du personnel, Solaris pour certaines appli qui ne tournent que dessus).

    Après effectivement, au niveau postes clients pour l'enseignement c'est du XP... C'est bien malheureux, mais bcp sont perturbés si on leur change leur environnement et vont arguer qu'ils ne font pas de l'info, mais de la bio, de la chimie ou autre et qu'ils n'ont pas de temps pour réapprendre à utiliser un autre système.
  • [^] # Re: Amen !

    Posté par  . En réponse à la dépêche UNESCO-Microsoft, une alliance pour agrandir la fracture numérique ?. Évalué à 2.

    Je ne faisais qu'expliquer ce que j'avais compris de l'auteur sur ce point, je trouve aussi que c'est un peu rapide comme raccourci :)

    "Rejetter l'éducation et l'apprentissage", c'est clair que c'est un peu "fort" comme terme. Ce n'est pas une caractérisque du logiciel propriétaire, c'est plutôt que toute la problématique liée aux brevets, à la dépendance vis-à-vis d'un fournisseur, etc. n'en fait pas vraiment un vecteur pour l'éducation ou l'apprentissage.
  • [^] # Re: La Santé est un Droit !

    Posté par  . En réponse au journal Patrick Volkerding est malade. Évalué à 6.

    En plus, pas besoin d'avoir fait 10 ans de médecine pour s'en douter: à force d'utiliser des antibiotiques, on augmente la sélection naturelle pour ne garder que les bactéries les plus résistantes. C'est du darwinisme bête et méchant.

    Cet abus d'antibiotiques est très problématique dans les hôpitaux avec ce qu'on appelle les maladies nosocomiales, qui sont très souvent extrêmement dures à soigner:

    http://www.lexpress.fr/info/sciences/dossier/nosocomiale/dossier.as(...)
  • [^] # Re: les souris Apple sapu

    Posté par  . En réponse au sondage Ma souris a. Évalué à 1.

    Il est vrai que quand on a l'habitude du monde Unix, avec le copier / coller fait uniquement à la souris et qui est super pratique, c'est très déroutant...

    Pour la molette c'est vrai que quand on a pris l'habitude de l'utiliser pour faire défiler les fenêtres sans avoir à faire bouger sans arrêt la souris, difficile de s'en passer aussi...

    Sinon pour ceux qui veulent absolument une souris à plus de 1 bouton sur Mac, avec molette et compagnie, j'imagine que ça ne pose aucun problème de brancher une souris USB.
  • [^] # Re: Amen !

    Posté par  . En réponse à la dépêche UNESCO-Microsoft, une alliance pour agrandir la fracture numérique ?. Évalué à 1.

    > En quoi les logiciels propriétaires rejettent l'éducation et l'apprentissage ?
    > J'ai du mal à saisir de quoi il s'agit. Je n'ai jamais vu, explicitement ou
    > implicitement, un logiciel ou son auteur dire qu'éduquer ou apprendre,
    > c'est mal !

    Je pense que c'est par rapport au fait qu'on ne peut pas étudier le fonctionnement du logiciel et apprendre de son fonctionnement (code fermé). Parallèlement à ça, les boites qui font du logiciel propriétaire sont très demandeuses (pour la plupart) de brevets logiciels. Ce n'est pas en brevetant des idées et en limitant leur utilisation qu'on fait avancer l'apprentissage et la connaissance...

    > le "mouvement du logiciel libre" n'est pas quelque chose de très ancien

    Ca a commencé bien avant les débuts Linux en 1991, tout le monde connait les histoires de RMS et autres...

    > Stimuler les pratiques de communautés basées sur le web, incluant le
    > développement de contenu, le partage de connaissance et
    > l'enrichissement a travers la participation
    > Pour ça, je ne vois pas en quoi Microsoft ferait mieux que le libre.

    C'est simple: sur du logiciel libre, tu peux participer à plusieurs niveaux:
    - écrire la documentation du produit, rédiger des tutoriels, etc.
    - corriger des bogues, ajouter de nouvelles fonctionnalités, etc.

    Le contact avec les développeurs est beaucoup plus facile, c'est indéniable, et le fait de disposer du code source permet de participer au coeur du projet. Certes, tout le monde n'est pas développeur ou n'a pas envie forcément de se plonger dans les entrailles d'un logiciel, mais au moins si on le veut on a la possibilité de le faire.
  • # Migration...

    Posté par  . En réponse à la dépêche Sortie de WinLibre 0.3. Évalué à 8.

    Ce package propose un ensemble de logiciels libres de qualité, en quelques sortes les "fers de lance" du LL, à l'exception bien sûr de l'OS.

    En espérant que les utilisateurs satisfaits de ce genre de packages soient tentés de migrer vers une distribution GNU/Linux (ou tout OS libre, peu importe) plutôt que de rester sous Windows en se disant qu'en fait rien ne les incite à migrer.

    Je pense que ça serait intéressant d'avoir des témoignages de personnes utilisant ces packages qui n'étaient pas vraiment "pro-LL" : ont-elles migré ou envisagent-elles sérieusement de migrer ou pas du tout ?
  • [^] # Re: A propos de la Live Eval

    Posté par  . En réponse à la dépêche Sorties de SUSE LINUX 9.2 Live Eval/Professional et Novell Linux Desktop 9. Évalué à 8.

    A mon sens, les but premiers d'un LiveCD est de :
    - pouvoir tester GNU/Linux de manière généale,
    - tester cette distribution en particulier,
    - travailler sur une machine qui n'est pas à soi sans tout casser
    (par ex. en sauvant ses données sur une clé USB)
    - avoir un CD de restauration/utilitaires

    Vu qu'un LiveCD est quand même "optimisé" pour tenir sur un support en lecture seule de taille relativement réduite, on peut comprendre que l'installation définitive sur disque dur puisse ne pas être triviale.

    J'avais installé plusieurs Knoppix (des 3.2 à l'époque) sur disque dur parce que je ne connaissais pas Debian "brute de fonderie", et j'ai eu pas mal de soucis sur des trucs pas très propres. Un exemple tout bête: les locales. Knoppix les générait toutes par défaut.
    Ensuite je suis passé sur des debian classiques et j'ai eu bcp bcp moins de problèmes :)

    Bref, manque crucial, bof, je pense qu'il vaut mieux installer la distribution brute de fonderie.
  • [^] # Re: OpenBGPd

    Posté par  . En réponse à la dépêche Sortie de OpenBGPd. Évalué à 1.

    A une époque j'avais cherché un comparatif entre netfilter, pf et ipf et j'étais tombé là-dessus:

    http://www.benzedrine.cx/pf-paper.html(...)

    Malheureusement, ce benchmark date un peu et ne compare pas avec une solution "hardware" spécialisée mais ça donne une idée générale des performances qu'on peut atteindre avec les solutions libres (qui sont à mon avis loin d'être mauvaises).

    Sinon, juste une petite remarque au passage, bcp de solutions qu'on appelle "hardware" ne le sont pas vraiment, dans le sens où c'est un CPU généraliste qui fait le boulot. Par ex, un PIX de Cisco, c'est juste un PC avec un OS spécialisé propriétaire (peut-être pas pour le modèle le plus haut de gamme). Donc, en théorie, rien n'empêche un unix libre d'atteindre (voire de dépasser) les performances d'un PIX.

    Si tu veux du vrai NAT hardware qui arrache chez Cisco, il faut une carte appelée FWSM, qui s'insère dans un Catalyst 6000, et qui a 3 network processors pour faire nat, firewall, etc. Au fait, je précise que je parle bcp de Cisco, non pas pour faire de la pub, mais parce que je pense que c'est intéressant de comparer avec un constructeur et d'expliquer leurs choix d'architectures, et que j'ai l'habitude de travailler avec leurs équipements.

    Je pense que dès que j'aurai un peu de temps (d'ici une semaine), je ferai un bench entre un PC récent, un routeur Cisco 7200, et un routeur Cisco 3640. Je posterai le résultat dans un journal si ça t'intéresse. Malheureusement, je n'ai pas de PIX à dispo.
    Le pb va être de générer un grand nombre d'entrées dans la table de translation (bcp de flux), si qqn a une idée, je suis preneur :)
  • [^] # Re: OpenBGPd

    Posté par  . En réponse à la dépêche Sortie de OpenBGPd. Évalué à 3.

    Je serais intéressé par des URL alors, surtout si c'est supporté par Linux :)

    Pour info, Juniper utilise une base FreeBSD pour son OS appelé "JunOS" (qui lui n'est pas libre).

    A mon sens, lorsqu'on a peu de cartes à utiliser (par ex, une ou deux WAN et une LAN), un PC fait largement l'affaire au niveau fonctionnalités, et est surtout
    bien meilleur marché. Si on veut avoir une bonne densité de ports, un PC peut s'avérer limité de par le nombre de slots PCI, et sachant aussi que ce bus a des perfs relativement faibles. Vivement la généralisation du PCI-X avec des cartes réseaux adéquates pour pouvoir transférer des paquets d'une carte à l'autre sans passer par le tandem CPU/mémoire centrale.
  • [^] # Re: OpenBGPd

    Posté par  . En réponse à la dépêche Sortie de OpenBGPd. Évalué à -5.

    Rien à voir, mais j'aimerais vraiment comprendre pourquoi je me suis fait moinsser alors que le but de mes posts était d'apporter de l'information, sans aucune intention de lancer de polémique ou quoi que ce soit.

    C'est vraiment un truc qui me dépasse.
  • [^] # Re: OpenBGPd

    Posté par  . En réponse à la dépêche Sortie de OpenBGPd. Évalué à 4.

    C'est vrai que l'immense avantage d'un PC avec un unix libre (que ce soit linux ou un *bsd), c'est qu'on peut bidouiller la pile réseau à volonté. D'ailleurs c'est clair que quand on voit toutes les options de filtrage possibles avec Netfilter, Cisco et autres sont loin d'offrir les mêmes possibilités.

    Sur du Cisco, hormis SNMP, Netflow (pour avoir des infos sur les flux IP traversant le routeur, mais sans la partie "data"), RMON, point de salut...

    On a tendance à dire que Cisco est assez hors de prix, ce qui n'est pas faux pour des routeurs d'entrée/moyenne gamme, où les performances sont loin d'être extraordinaire. Leur credo est plus la facilité de configuration et les nombreuses fonctionnalités que la perf brute.
    Pour un 6500, au niveau prix je trouve ça relativement raisonnable quand on voit tout ce que ça sait faire, surtout en hard, par rapport aux fonctionnalités offertes et aux performances. Il y a un énorme travail de R&D derrière, qui est vraiment impressionnant.
  • # Juste une idée

    Posté par  . En réponse à la dépêche Microsoft s'allie à la CCIA. Évalué à 6.

    Saborder les efforts de cette association en faisant du lobbying en interne pour contrer ses démarches ? Se donner bonne conscience et pouvoir dire à tout le monde, regardez, on est interopérable, on travaille sur des standards ouverts, ...
    A part ça je vois pas.
  • [^] # Re: OpenBGPd

    Posté par  . En réponse à la dépêche Sortie de OpenBGPd. Évalué à 4.

    Comparer un PC à un 6500 c'est comme comparer l'armée du Tadjikistan à celle des Etats-Unis... Je m'explique: dans un PC tout est traité par le CPU, tandis que dans le 6500 toutes les opérations de routage et de filtrage sont traités en hardware par des ASIC.

    Cisco ne fait pas que du routeur hardware, loin de là, et c'est plus "honnête" de comparer un PC à un routeur 3600 ou 7200, qui ont des CPU RISC traditionnels pour faire le boulot. Par ex, le modèle le plus puissant de 7200 route à peu près 1 million de paquets par seconde, je pense que c'est un chiffre atteignable par un PC.

    A mon sens, l'avantage clair et net des Cisco, c'est la multitude d'interfaces supportées (combiner des interfaces X.21, E3, ATM, Ethernet etc c'est pas vraiment possible dans un PC) et la puissance du système IOS qui fournit un moyen tout intégré de tout configurer et autant dire que ça gère une pléthore de protocoles. Quagga s'inspire d'ailleurs de la CLI d'IOS, ce qui fait que c'est très simple pour qqn ayant déjà pratiqué du Cisco de faire une conf Quagga fonctionnelle.

    Par rapport à OpenBGPd, Quagga a l'air plus avancé dans tout ce qui est "MP" (MultiProtocol), qui est une extension de BGP permettant de traiter IPv4 Multicast, IPv6 (Unicast/Multicast) ainsi que ce qui est relatif à MPLS/VPN.


    My 2 cents.