Joris Dedieu a écrit 1610 commentaires

  • # déconnexions

    Posté par  (site web personnel) . En réponse au journal Tiling interne ou externe, telle est la question. Évalué à 2.

    J'utilise awesome et screen. L'intérêt principal et de pouvoir retrouver mes sessions ssh quand ma connexion internet plante ou d'avoir mon environnement prêt quand je dois intervenir de nuit.
    Je lance un urxvt‚ je me connecte a un serveur‚ je récupère mon screen et hop le tour est joué.

    En plus ça m'evite de laisser traîner des nohup.out partout.

  • # sthttpd

    Posté par  (site web personnel) . En réponse au journal Thttpgpd, ou comment OpenUDC a ressuscité le bon vieux thttpd. . Évalué à 4.

    Bonjour,
    Il y a un effort de pour maintenir thttpd vivant (http://opensource.dyc.edu/sthttpd). Je pense qu'ils serait intéressant que tu proposes certains de tes patchs.

  • # ~ (il fallait que quelqu'un le fasse)

    Posté par  (site web personnel) . En réponse au sondage Vers quelle partie du site LinuxFr.org allez‐vous en premier ?. Évalué à 2.

    Je vais sur ma page personnelle me branler m'extasier devant mon karma.

  • [^] # Re: Nos rentes d'abord !

    Posté par  (site web personnel) . En réponse au journal Le logiciel dévore le monde… depuis les États‐Unis. Évalué à 7. Dernière modification le 05 novembre 2012 à 16:23.

    Il y a aussi qu'aux USA on croit et on mise sur les startup qui deviennent le gros d'aujourd'hui et de demain

    Sans invalider ce que tu dis, il ne faut pas non plus évacuer la question financière. Sans être spécialiste de ces questions complexes, quand tu vois qu'une crise financière d'origine Américaine est devenue une crise de la dette Européenne, tu es en droit de te demander à quel point nous finançons via la magie monétaire une partie des dépenses des EU.

    Par ailleurs est-ce typiquement Français ou Européen ? Ou mondial ? Quels sont les pays qui arrivent à créer géants à +1 milliard d'euro ?

    Au niveau Européen, on a le PIB par habitant le plus élevé au monde, un taux d'endettement moindre que les EU ou le japon et pourtant un manque chronique de pognon. Financer même la recherche à implications immédiates devient difficile. Je ne minimise pas l'incurie de nos dirigeants successifs mais il me semble qu'il y a une question structurelle plus profonde liée au système monétaire international.

  • [^] # Re: Pilotes graphiques libres

    Posté par  (site web personnel) . En réponse à la dépêche X.Org est mort, vive Wayland !. Évalué à 4.

    jamais eu l'intention d’abandonner son architecture unifiée au profit de DRI/KMS.

    Pourtant c'est cette partie qui est vraiment importante. La fin du matériel géré directement par X c'est quand même un sacré progrès dans la propritude du truc.

  • [^] # Re: Pilotes graphiques libres

    Posté par  (site web personnel) . En réponse à la dépêche X.Org est mort, vive Wayland !. Évalué à 2.

    nVidia a montré depuis des années sa motivation pour sortir un driver de qualité pour ses chipsets sous linux.

    Pour préciser, nvidia sort un driver pour X. Celui-ci est porté sous diverses plate-formes (a ma connaissance, Linux, Solaris, FreeBSD). Je pense qu’économiquement pour Nvidia, Solaris reste encore le marché le plus juteux (On pense aux fermes de serveurs pour le rendu 3D des films …).

  • [^] # Re: mon avis

    Posté par  (site web personnel) . En réponse au journal Dépénalisation du cannabis. Qu'en pensez-vous ?. Évalué à 10.

    notamment schizophréne, en France, parmi la population de schizophrènes, on a 60% de fumeurs de cannabis.

    Je pense que tu confonds allègrement la cause et l'effet.

  • [^] # Re: Chaudière à uranium et caféine

    Posté par  (site web personnel) . En réponse à la dépêche Mod_pagespeed : un accélérateur de pages Web. Évalué à -3.

    Mais c'est pas en leur foutant une machine pourrie que tu vas en faire des bons ingénieurs…

    Parce qu'un ingénieur c'est toujours une garantie de qualité du code, c'est sûr :)

  • [^] # Re: Chaudière à uranium et caféine

    Posté par  (site web personnel) . En réponse à la dépêche Mod_pagespeed : un accélérateur de pages Web. Évalué à 3.

    Enfin bref de toute facon on est au niveau hello world là.

    Tu peux préciser ?

    Bien évidement je parlais des machines sur lesquelles tu effectues la validation du code, les tests. Je parle pas de ta jolie station de travail dont je me fiche. Valider le code dans des conditions plus strictes que la prod, pour une application destinée à se faire défoncer sur le web, c'est quand même pas trop demandé ? non ? Mais de toute façon avec les devs c'est toujours pareil. Dès qu'on parle de limiter les ressources, c'est l'adminsys qu'est un gros nul.

  • [^] # Re: Parallèle avec dragonfly

    Posté par  (site web personnel) . En réponse à la dépêche Archlinux utilise désormais systemd par défaut pour les nouvelles installations. Évalué à 7.

    C'est tellement grossier comme métrique qu'elle ne sert à rien;

    Elle sert à montrer qu'il n'y a en aucun cas 1 million de ligne de code.

  • [^] # Re: Parallèle avec dragonfly

    Posté par  (site web personnel) . En réponse à la dépêche Archlinux utilise désormais systemd par défaut pour les nouvelles installations. Évalué à 1.

    mais il fait plus d'un million ligne de code!

    git clone http://anongit.freedesktop.org/git/systemd/systemd.git
    cd systemd/
    find . -type f  | xargs wc -l
    ...
      259880 total
    
    

    260000 lignes en contant les scripts les man, la doc. C'est déjà énorme soit, mais il faut pas abuser non plus.

  • [^] # Re: Chaudière à uranium et caféine

    Posté par  (site web personnel) . En réponse à la dépêche Mod_pagespeed : un accélérateur de pages Web. Évalué à 2.

    Limiter les ressources sur les machines des devs ca ne sert vraiment pas à grand chose.

    Ça te permet quand même de voir si tu as un script qui bouffe de la mémoire, ou est trop long à s'éxécuter ou part dans une boucle d'appels infinie. Ce n'est pas sensé remplacer des tests on est bien d'accord. Mais être dans un environnement strict quand tu développes ne me semble pas un aberration. C'est un peut comme compiler avec -Werror ou exécuter ton code avec valgrind. Bref s'impose un contexte dans lequel tout débordement est fatal.

  • [^] # Re: Ce mod est vraiment excellent

    Posté par  (site web personnel) . En réponse à la dépêche Mod_pagespeed : un accélérateur de pages Web. Évalué à 2.

    Un autre exemple tout simple, le cache des objets statiques

    Je ne comprends pas ton exemple. Pourquoi ne pas changer le nom du fichier et la valeur de la variable qui le contient tout simplement ? Je ne vois guère de cas ou cela s'avérer impossible.

    • toute sortes de minifications et groupements
    • il peux "inliner" du js/css/images directement dans le html
    • si vous avez spécifié le with/height d'une image dans le source, il peut réencoder l'image aux bonne dimensions/ ou changer son format.

    Pourquoi pas dans ce cas une approche de type compilateur, effectuant ces opérations une fois pour toute. C'est exactement comme pour la compression. Pourquoi la faire à la volée sur des ressources statiques qu'il est tellement simple de compresser à la main ? Il suffit ensuite que le serveur choisisse fichier.defalte, fichier.gz ou fichier suivant ce que demande le client.

  • # Chaudière à uranium et caféine

    Posté par  (site web personnel) . En réponse à la dépêche Mod_pagespeed : un accélérateur de pages Web. Évalué à 10.

    L'effort de google pour diminuer ses frais de bande passanterendre le web plus rapide est vraiment louable. Ceci dit il pose quand même un léger problème dans la façon partielle (pas partiale) dont il est abordé. Pour beaucoup de Geeks à IPhone5webmasters ce que dit google est parole d'évangile et doit être appliqué sans se poser de question. Ceci dit google n'est pas responsable de ce fait et ce n'est donc pas son procès que je fais ici.

    Pour moi, modeste administrateur système ce qui fait la qualité et la rapidité d'un site web peut se résumer en deux points :

    1) Son workflow

    Un site web est une application et mérite d'être considérée comme telle. Et en tant que telle, il lui faut suivre un cycle de vie rigoureux comprenant notamment, une gestion des versions, des tests, une procédure de publication, un suivie des bugs, bref toutes les choses qu'on fait normalement et naturellement pour n'importe quelle application. C'est bien sûr souvent le cas lorsqu'il s'agit d'applications critiques développés pour des clients qui ont l'habitude de mener des projets informatiques, ou simplement par des gens sérieux qui savent ce qu'ils font. Mais beaucoup de web agencies ne fonctionnent pas ainsi. Le workflow le plus souvent constaté est :

    • On développe une charte graphique.
    • On colle un CMS sur la prod.
    • On colle quelques plugins.
    • On passe en prod et on oublie le truc jusqu'à survenue d'un problème.

    Lorsque le problème survient :

    • On essaye de faire une mise à jour du CMS directement sur la prod.
    • On restaure un backup.
    • On achète de plus gros serveurs jusqu'à ce que ça marche.
    • On débute un nouveau projet en changeant de CMS

    L'alibi le plus couramment admis est qu'il s'agit d'un CMS et donc que tout le wokflow de développement est assuré par ailleurs. Pourtant au quotidien je constate que là ou il faut un modeste serveur à certain pour faire tourner des dizaines de sites, certains peinent à en faire fonctionner un seul sur un cluster (toute chose égale par ailleurs) ou encore que l'absence de tests avec des données dans la base est sans doute la cause la plus fréquente de plantage. Notamment avec MySQL qui a des effets de seuil important.

    Pour faire un site web rapide et de qualité, il faut donc :

    • avoir un environnement de dev séparé de la prod.
    • utiliser un gestionnaire de version.
    • utiliser un gestionnaire de bugs.
    • écrire un jeu de test cohérent avec l'activité finale (et surtout un jeu de données conséquent).
    • suivre les résultats des tests pour en déduire des régressions.

    2) Le ressources

    La rapidité de la réponse renvoyée par un serveur web dépend avant tout de deux paramètres qui sont, le temps d'exécution du script et son empreinte mémoire. C'est peut être con à dire mais un script qui s'exécute vite permet au serveur de répondre rapidement. Moins un script occupe de mémoire, plus il peut être exécuté simultanément un grand nombre de fois et avec plus d'efficacité.

    Pour cela quelques conseils :

    • le contextes de dev doit limiter les ressources plus fortement que le contexte de prod

    Par exemple pour php, il est de bon ton de travailler en dev avec un memory_limit et un max_execution_time plus bas que sur la prod ainsi qu'avec l'open_basedir activé et strict, un nombre d'extensions réduites, suhosin activé et configuré très strictement. Sur la prod on peut alors lâcher du lest pour assurer une bonne fluidité et éviter des plantages imprévus.

    • toute évolution doit être évaluée en terme de ressources.

    L'impact d'ajout d'extensions ou d'augmentation des limites doit être soigneusement évalué. Ainsi que par exemple le moteur de stockage des sessions, la collecte de statistiques… La encore une évaluation sérieuse nécessite qu'il y ait des données dans la base.

    • Les réglages du serveur web doivent correspondre au cas général et pas au cas particuliers.

    Les scripts gourmands (type génération de rapports, export, reindexation …) doivent être isolés et exécutés dans un contexte privé séparé du site public. L'upload de gros fichiers doit être effectué par parties afin de s'adapter au contexte global … Le cas typique est l'augmentation du timeout d'apache (essentiel pour résister aux dos type slow lorris) simplement parce qu'un script d'export de base de données qui pourrait très bien s'éxécuter en cron ou sur une autre instance apache met 3 heures à retourner des données

    • Les ressources externes doivent être gérée correctement.

    Lorsqu'on fait appel à un web service, à une url externe, il faut s'assurer du comportement du script en cas indisponibilité de la ressource. Il faut écrire un vrai client, gérant les timeout, le cache, et les facilités prévues par le protocole (if-modified-since par exemple en http). Les simples fopen("http:// … sont à bannir.

    Côté client il n'est pas toujours évident qu'aller chercher jquery chez google soit beaucoup plus efficace que de l'héberger sois même. Cela doit être encore un fois évalué.

    3) Conclusion

    Vu ainsi ce type de conseils peuvent sembler démesurés pour une petite agence sortant du site à 500 euros. Pourtant il s'agit d'une simple habitude de travail. De nombreux outils existent pour lancer des tests, remplir les bases et finalement lorsque l'habitude est prise c'est plus un gain de temps qu'autre chose.

    Voilà c'était mes trois conseils à deux cents pour un web rapide. Ils n'ont rien d'incompatible avec ceux de google. Je pense juste qu'ils sont un préalable nécessaire. Comme il est dit dans l'article, mod_pagespeed est juste un moyen d'éviter de modifier immédiatement ses sites. Je n'ai pas de chiffres exacts mais j'imagine que le surcout machine est important, ne serais-ce que parce que le serveur doit avoir une vision globale de ce qu'est la page. Et c'est pour cela que je ne l'aime pas trop. Pour moi, le web rapide et qualitatif trouve son origine dans les consommateurs de caféine et pas dans ceux d'uranium.

    Joris

  • [^] # Re: qt

    Posté par  (site web personnel) . En réponse au journal Conseils aux libristes, 3e partie : surmonter l’obsession du « toolkit ». Évalué à 3.

    Supporter OS X, ok, mais comment ?

    Comme vlc par exemple. Qui est loin me semble-t-il d'être une application marginale sous Mac OS

  • [^] # Re: qt

    Posté par  (site web personnel) . En réponse au journal Conseils aux libristes, 3e partie : surmonter l’obsession du « toolkit ». Évalué à 3.

    Ce journal semble ignoré que Qt un thème permettant d'avoir un look a ma GTK

    Mais également que QT est multiplateforme. Firefox n'aurait-il pas supporté Mac OS X beaucoup plus vite s'il avait utilisé QT ?

  • [^] # Re: Scientific Linux

    Posté par  (site web personnel) . En réponse au journal [TOI AUSSI] Viens prendre un cours de programmation système. Évalué à 5.

    Ça serait intéressant que tu donnes des détails là

    Je peux te donner quelques exemples.

    • kern.maxusers limité à 384, soit la même valeur sur un Core2 avec 2GO de ram que sur un 32 coeurs avec 64GO.
    • kern.ipc.shm_use_phys est désactivé par défaut
    • kern.ipc.maxpipekva ou encore vfs.maxbufspace sont souvent juste alors qu'il y a de la mémoire dispo.
    • tout ce qui est semaphores et mémoire partagée est extrêmement limité par défaut (voir postgres ou mod_fcgid par exemple).

    Ce que je voulais dire avec cette remarque c'est qu'a mon avis, il est tout à fait possible à FreeBSD de tenir le haut du pavé sur ce type de benchs. Mais que cela demande un gros travail de tuning.

    .

  • [^] # Re: Scientific Linux

    Posté par  (site web personnel) . En réponse au journal [TOI AUSSI] Viens prendre un cours de programmation système. Évalué à 10. Dernière modification le 11 octobre 2012 à 12:00.

    Est-ce que c'est juste que Linux a été optimisé, ou non, le noyau de Scientific Linux est patché ?

    Scientific Linux est un clone de rhel ( ~ Centos). Le noyau est donc celui de red-hat. Le test basé sur pg_bench à pour but d'évaluer les performances au niveau SMP. Grosso-modo on fait monter le nombre de process et on regarde comment ça réagi. C'est un cas bien particulier notamment parce que les clients sont sur la même machine que les serveurs.

    En fait il apparaît que trois points sont essentiels :

    • l'ordonnancement
    • la gestion des sockets (l'effondrement de NetBSD vient probablement de là).
    • la gestion de la mémoire partagée

    Il s'est avéré que sur ce test Linux et OpenSolaris ont toujours été en tête. Mon hypothèse est que ces noyaux, de part leur utilisation industrielle dans un contexte massivement multiprocesseur sont largement plus optimisés pour ce contexte que les noyaux BSD. Je pense également que FreeBSD souffre beaucoup d'un certain conservatisme dans ses réglages par défaut.

    En fait ce qui est important ici, je crois, ce n'est pas que Linux soit meilleur ce qui semble normal vu l’ampleur comparée des projets mais que DragonFlyBSD avec ces 12 bonhommes arrive à réaliser.

  • [^] # Re: Taille des diff

    Posté par  (site web personnel) . En réponse au journal [TOI AUSSI] Viens prendre un cours de programmation système. Évalué à 7.

    Le rapport gain/taille des diff est énorme !

    Je rajouterai qu'on sent une évolution psychologique de taille. Considérer l'amd64 comme une vrai architecture et plus comme un x86 amélioré.

  • [^] # Re: Taille des diff

    Posté par  (site web personnel) . En réponse au journal [TOI AUSSI] Viens prendre un cours de programmation système. Évalué à 3.

    Le rapport gain/taille des diff est énorme !

    Ceci dit l'ensemble de l'infra pour utiliser les processus légers et les verrous à grain fins et les io non bloquantes est déjà en place. Le gros du travail à finalement été de trouver ce qui coinçait. De plus il ne faut pas oublier le commit sur la topologie des CPU qui fait environ 1300 lignes.

    http://gitweb.dragonflybsd.org/dragonfly.git/commitdiff_plain/f77c018a1c4b5e9271cf5fcf3912c2ccbea9c0e1

  • # bench complet

    Posté par  (site web personnel) . En réponse au journal [TOI AUSSI] Viens prendre un cours de programmation système. Évalué à 6.

    Pour ceux que ça intéresse, le bench complet est là :
    http://lists.dragonflybsd.org/pipermail/users/2012-October/017536.html

  • # démagogie autour d'investissement

    Posté par  (site web personnel) . En réponse au journal « Le domaine public est du communisme », pour Nicolas Seydoux, . Évalué à 10. Dernière modification le 09 octobre 2012 à 19:08.

    Selon le TLF investissement à trois sens. Le premier est du lexique militaire, le troisième du lexique psychologique. Seul le second (économique) nous intéresse ici : "action d'investir des capitaux dans un secteur économique; ,,application par un individu, une entreprise ou un gouvernement, d'une certaine quantité de monnaie à la création de biens de production, d'équipement, de produits de consommation ou de services``.

    Je suis bien content d'avoir trouver cette définition car elle conforte ce que j'avais appris en cours d'éco. L'achat d'une maison d'habitation n'est pas un investissement au sens économique du terme. Un investissement s'applique à des moyens de production. C'est ce qui le différencie d'un achat. Alors certes c'est un abus de langage couramment admis, mais lorsqu'on est patron de Gaumont, je pense qu'on sait à peu près de quoi on parle.

    Tout ça pour dire pas grand chose au fond, si ce n'est de montrer un peu plus l'aspect démagogique du propos et à quel point les "Gestion de bon père de famille", "C'est comme quand vous achetez une maison", "C'est du bon sens", "C'est ce que tout le monde fait" et autre excréments intellectuels me hérissent au plus haut point.

  • [^] # Re: nom des applications

    Posté par  (site web personnel) . En réponse à la dépêche GNOME 3.6 : en route vers GNOME 4.0 !. Évalué à 7.

    Merci, Gnome

    Pas besoin de gnome, ça se passe déjà comme ça. Bien que généralement ce soit plutôt "Internet" qui ne marche pas.

  • [^] # Re: sha1sum

    Posté par  (site web personnel) . En réponse à la dépêche Un miroir SourceForge a été compromis. Évalué à 1.

    Le sum sha1 était-il également modifié ?

    Quelle sum ? Tu trouves des checksum sur sourceforge toi ?

  • [^] # Re: Mauvaise mémoire, pebcak

    Posté par  (site web personnel) . En réponse au journal Facebook et vie privée. Évalué à 1.

    Visiblement, le bug se situe entre la chaise et le clavier des journalistes.

    C'est la défense de Facebook en tout cas.