Fabien a écrit 132 commentaires

  • [^] # Re: messagerie

    Posté par  (site web personnel) . En réponse au message Choix d'un moteur réseau/event. Évalué à 1.

    Est ce que Gearman ne ferait pas aussi parti de la liste ?
    Je ne l'ai pas vraiment comparé aux autres solutions et ne sait pas si elles sont équivalentes.

    Je l'utilise car packagé par ma distribution, car l'extension php est facilement compilable car non packagée, et qu'il existe une lib php de gestion des workers .

  • # Kerrighed ?

    Posté par  (site web personnel) . En réponse au message cherche solution clustering (réél hein... donc pas de conneries spécifiques). Évalué à 2.

    peut être Kerrighed

  • [^] # Re: http://dev.mysql.com/doc/refman/5.1/en/mysqldump.html

    Posté par  (site web personnel) . En réponse au message backup mysql sans tape mot de passe. Évalué à 2.

    Pas géniale comme solution, le mot de passe sera visible par tous les utilisateurs de la machine avec un simple 'ps …'
    La solution en dessous est plus propre.

  • [^] # Re: --fake-super

    Posté par  (site web personnel) . En réponse au message rsync uid/gid. Évalué à 2.

    M'ont bien fait rire le nom de tes users, ça change de Mme Michu

  • [^] # Re: t'as pas du faire beaucoup d'effort

    Posté par  (site web personnel) . En réponse au message Mod-security. Évalué à 1.

    le 1er lien, c'est juste le site officiel de ce module

  • [^] # Re: SAN/DRBD/Heartbeat/etc...

    Posté par  (site web personnel) . En réponse au message redondance serveur. Évalué à 2.

    DRBD n'implique pas l'utilisation d'un "filesystem cluster", il peut être utilisé avec n'importe quel FS, il suffit de ne pas accéder au slave (et donc ne pas monter la partition associée). Ca fonctionne aussi avec des partitions chiffrées.

  • [^] # Re: Utile pour les grosses infras

    Posté par  (site web personnel) . En réponse à la dépêche Projet Lumberjack. Évalué à 3.

    J'avais centralisé tous les logs (et pour seulement une trentaine de serveurs - mix OpenBSD , Debian) vers un rsyslog qui insérait tout dans une base de données dédiées.
    Ca donnait une conf du genre :

    # templates
    $template auth_log,"insert into auth_log (Message, Facility,FromHost, Priority, DeviceReportedTime, ReceivedAt, InfoUnitID, SysLogTag) values ('%msg%', %syslogfacility%, '%HOSTNAME%' ,%syslogpriority%, '%timereported:::date-pgsql%', '%timegenerated:::date-pgsql%', %iut%, '%syslogtag%')",sql
    
    # rules
    :syslogtag, contains, "pf_block"                        :ompgsql:localhost,Syslog,rsyslog,mon_password;pf_block_log
    :syslogtag, contains, "pf_block"                        ~
    
    

    La base de données était un "gros" Postgresql utilisant des tables partitionnées (sur le champ ReceivedAt) pour chaque type de log ( table partitionnée auth_log dans le cas de l'exemple).

    Perso, ça ne me dérange pas qu'ils changent le format des logs tant qu'on garde une telle souplesse de configuration.
    Par exemple, configurer le format d'écriture des logs reçus (on reçois du json, on écris dans un fichier dans le vieux style de log).

  • [^] # libevent ?

    Posté par  (site web personnel) . En réponse à la dépêche ExaProxy, un proxy HTTP filtrant. Évalué à 1.

    Pourquoi ne pas utiliser libevent au lieu d'attaquer directement epoll ?

  • # là bas non plus

    Posté par  (site web personnel) . En réponse au journal FreeMobile ne fonctionne pas à l'étranger. Évalué à 6.

    Même constat lors de ma récente escale dans l'aéroport international de Kuala Lumpur.
    J'ai oublié d'essayer en Thaïlande mais c'est compréhensible quand on peut acheter l'équivalent local d'une puce entrée libre pour 1€ environ.
    Enfin, à 0€ le forfait, je peux pardonner beaucoup de chose …

  • [^] # Re: Licence

    Posté par  (site web personnel) . En réponse au journal btrfs avance à grands pas. Évalué à 2.

    Vue la liste des fonctionnalités de btrfs et des prochaines nouveautés, je me demande lequel de ZFS ou btrfs est le plus "bazar" tout en un ?

  • [^] # Re: ce type il devrait arrêter de bosser su GNU/Linux

    Posté par  (site web personnel) . En réponse au journal Lennart casse les logs!. Évalué à 4.

    j'ai pas vu des gens dire "faudrait reprendre iptable sur openbsd pour avoir un truc commun avec linux".

    très mauvais exemple, l'inverse serait plus pertinent.

  • [^] # Re: ucarp ?

    Posté par  (site web personnel) . En réponse au message Parefeu. Évalué à 2.

    faisable d'accord, mais simple ...

    par contre, pour un cluster HA de firewall (sans perte de connexions), faudra utiliser d'autres outils.
    c'est là que se place OpenBSD (faisable avec FreeBSD et peut être avec les autres, mais bon, autant utiliser l'original):
    - 1 ligne pour faire de l'aggrégation de liens
    - 1 ligne pour monter le partage d'adresses carp
    - 1 ligne pour la synchro de la table d'états du firewall
    - sûrement beaucoup moins de lignes pf que iptables

    pour le reste des prérequis, ça doit être réalisable :
    un coup de pflog vers un rsyslog distant fera l'affaire
    pour le routage y a tous les outils
    ...

    en plus, du greylisting avec pf, un load balancer utilisant pf (donc HA sans perte de connexions), du vpn ipsec en HA ...

    je pense vraiment que cette solution mérite d'être envisagée / testée avant de dépenser un paquet de brouzouf dans l'appliance proposée (quel prix ?).

  • [^] # Re: appliance ou home made ?

    Posté par  (site web personnel) . En réponse au message Parefeu. Évalué à 0.

    Sans plus de précisions et sûrement d'envie, il va pas aller loin.
    Sinon, il me semble que j'avais des dell 1950 avec des cartes quad port gigabyte qui fonctionnaient bien.

  • [^] # Re: wget, curl

    Posté par  (site web personnel) . En réponse au message Parcourir un site web en mode spider. Évalué à 1.

    C'est la méthode que j'ai retenue pour une partie des pages (celles qui contiennent une pagination).
    J'utilise la classe php ParallelCurl pour gérer les commandes curl_multi .
    Une boucle génère l'url de la page et la passe à parallelcul afin d'être récupérée, moyennant une limite configurable du nombre de connexions simultanées.

  • [^] # Re: appliance ou home made ?

    Posté par  (site web personnel) . En réponse au message Parefeu. Évalué à 3.

    Je rajoute OpenBSD à la liste, ça tombe bien la 5.0 vient de sortir.
    Il peux gérer tous les pré-requis concernant le firewalling et la haute disponibilité.

  • [^] # Re: wget, curl

    Posté par  (site web personnel) . En réponse au message Parcourir un site web en mode spider. Évalué à 2.

    Je suis bien d'accord, la base est déjà pas mal optimisée (index de différents types sur les colonnes adéquates, tuning du serveur sql ...), EXPLAIN ANALYZE est mon ami.
    Voir mon commentaire au dessus, j'ai optimisé une requête faisant des recherches dans une colonne de type tableau.

    J'utilise postgresql pour plusieurs raisons :
    - parce que je le préfère à tout autre sgbdr
    - parce que j'utilise des triggers
    - parce que j'utilise tsearch
    ....

    Il reste une chose que je n'arrive pas à optimiser, les requêtes avec LIMIT .. OFFSET .. lorsque le nombre de résultat est trop grand (jusqu'à 1 million de ligne) et je ne peux pas utiliser les CURSORS. Il me semble que ce problème est commun à tous les sgbdr, je n'ai pas le temps de faire les tests avec mysql.

    Pour la mise en cache, pourquoi s'en priver si je dispose des ressources nécessaires ?
    apache ne répondra jamais aussi rapidement que varnish si la page est en cache, et encore moins lorsque le trafic simultané augmentera.

  • [^] # Re: wget, curl

    Posté par  (site web personnel) . En réponse au message Parcourir un site web en mode spider. Évalué à 1.

    Je m'auto-réponds, ça peut toujours servir.

    httrack reste le meilleur outil pour crawler une page, il parse bien les pages à la recherche de liens et maintient la liste des liens à scanner sans créer de doublon.
    Par contre, je n'arrive toujours pas à lui faire ouvrir plusieurs connexions.

    J'ai donc regarder du coté de curl, et j'ai découvert une classe php permettant d'exécuter plusieurs curl en parallèle ParallelCurl.
    J'ai testé cette solution qui peut être intéressante, mais sur mon projet, elle met en avant un autre problème: la génération des pages n'est pas accélérée car dépendante du temps de réponse de ma base de données. J'ai donc optimisée quelques requêtes faisant des recherches dans une colonne de type tableau:
    - création d'un index GIN sur la colonne cible ( tag dans mon cas )
    - utilisation d'une requête de type WHERE tag @> ARRAY['%s'] , le %s est remplacé par la valeur adéquate grâce à un sprintf

    Après optimisation, je peux modifier mon script de mise à jour de la db afin de lancer un curl parallèle permettant de générer les nouvelles pages dites statiques puis une purge des pages contenant une pagination et un httrach ciblant ces mêmes pages.

  • [^] # Re: wget, curl

    Posté par  (site web personnel) . En réponse au message Parcourir un site web en mode spider. Évalué à 1.

    Je vais essayer avec wget, je n'avais pas vu qu'il dispose d'un mode spider, mais je doute de la possibilité d'ouvrir plusieurs connexions simultanées.

    Etant le propriétaire du serveur, j'ai pu vérifier que httrack n'ouvre qu'une seule connexion bien que configuré pour lever les limites (--disable-security-limits) et les options qui vont bien. Il n'y a aucun filtrage sur le useragent ni limite conn/s

    Je souhaite tout mettre en cache car j'en ai la possibilité (pas mal de ram dispo sur le serveur) et surtout parce que certaines pages peuvent être assez lente à générer (à cause d'une requête sql utilisant LIMIT .. OFFSET .. sur 1 million de records).

  • # Grsecurity

    Posté par  (site web personnel) . En réponse au journal Choisir un module de sécurité linux. Évalué à 4.

    Pas vraiment LSM car n'utilise pas l'infrastructure du noyau, mais il propose les mêmes fonctionnalités et d'autres (il intègre pax).
    Je l'ai utilisé sur de nombreux serveurs et l'utilise encore (activation de toutes les protections sauf RBAC) sur ceux qu'il me reste, et j'en suis content.
    Je pense qu'il a sa place à coté des outils cités si l'on ne se limite pas aux systèmes 'LSM'.

  • [^] # Re: Postgresql

    Posté par  (site web personnel) . En réponse au journal Mysql, je t'aime un peu, à la folie, mais pas trop libre. Évalué à 10.

    J'aimerai bien savoir de quand datent tes observations concernant la rapidité.

    Pour la complexité, je pense que ça dépendra de l'expérience de chacun.
    Enfin moi, j'ai eu envie de pleurer quand j'ai essayé d'optimiser / tuner mysql (contraint de l'utiliser à cause de magento).
    Pour les SERIAL, effectivement ça change des 'autoincrement' au début, mais c'est bien plus souple à l'usage.

    Je pense qu'une des faiblesses de postgresql était la réplication, mais depuis la dernière version, on peux faire du asynchrone et même du synchrone (sans passer par drbd ou autre). Il ne lui manque plus que le mode cluster.

  • [^] # Re: 100 CV

    Posté par  (site web personnel) . En réponse au journal Les motards, cette engeance du diable.. Évalué à 1.

    Mais bien sûr, les constructeurs du monde entier devraient s'emmerder à produire des véhicules exclusivement pour la France ....
    De plus, cette foutue loi va bientôt disparaître (on ne sait pas ce qu'ils attendent), la France paye son amende annuelle à l'UE pour loi anti-concurrencielle.

  • [^] # Re: L'embarras du choix

    Posté par  (site web personnel) . En réponse à la dépêche Drupal Commerce 1.0 est arrivé. Évalué à 3.

    Pourquoi as-tu abandonné l'idée d'utiliser magento ?

    Mon expérience perso (limitée) en ecommerce :

    • opencart
      je crois qu'il se base sur OScommerce
      assez simple voir trop, je pourrai être amené à l'utiliser pour des boutiques simples
      je l'ai délaissé pour l'instant car j'ai besoin de créer des 'produits configurables' (par exemple une paire de chaussure disponible en plusieurs pointures) et de gérer les stocks par option

    • magento
      je pense qu'il permet de faire à peu près tout, c'est juste une usine à cause des layouts xml (même en optimisant le serveur, en ajoutant du cache, de l'opcode et toute l'artillerie ...) mais d'un autre coté, ça permet de facilement étendre et personnalisé l'outil

    • prestashop
      pas testé, à première vue, il me semblait que trop d'extensions sont payantes par rapport aux extensions magento

    A priori, tout bon outil ecommerce génère du xhtml valide et propose toutes sortes d'optimisation censées améliorer le référencement naturel
    sinon, je déplore le manque de support de postgresql de la part de tous ces outils de ecommerce

  • [^] # Re: Attention

    Posté par  (site web personnel) . En réponse au message 3G en Chine. Évalué à 1.

    Pas d'avis sur la 3G car inutile dans mon cas, Internet étant disponible dans toutes les chambres d'hôtel que j'ai occupées.
    Mais j'ai aussi constaté le problème des cartes pré-payées et c'est assez déroutant.

  • [^] # Re: Prestashop, Magento et l'autre ?

    Posté par  (site web personnel) . En réponse au journal Prestashop communique beaucoup à la maison. Évalué à 2.

    Tout comme Windows.

    De ce que j'ai compris, OScommerce a vu sa communauté exploser en engendrant de nouveaux projets dont Magento, Opencart ...

    Opencart doit être sympa pour une petite boutique je pense, peut être encore trop jeune, mais il ne gère pas les stocks d'un produit configurable (disposant d'options sélectionnables par le client, comme la pointure, ça la fout mal).
    Je me suis donc tourné vers Magento, et effectivement, la comparaison avec emacs tiens la route. Sa force (et son défaut) est la possibilité de surcharger à peu près tout ce qui existe (templates, les multiples objets en php ...) le rendant relativement lent même après optimisations système.

  • [^] # Re: Btrfs

    Posté par  (site web personnel) . En réponse à la dépêche Le noyau Linux est disponible en version 3.0. Évalué à 3.

    La batterie permet d'alimenter le contrôleur et les disques durs indépendamment de l'alimentation générale.
    En cas de de crash électrique, je suis certain que les données ayant été signifiées comme écrites sur disque le sont sont bien physiquement, même en cas de cache menteur sur les disques.
    Suivant le type de contrôleur, tu peux régler pas mal d'options depuis leur propre 'bios' (voir même directement depuis l'OS si les outils sont disponibles). Avec les contrôleurs PERC par exemple, je forçais le sync sur disque pour les bases de données car je ne pouvais pas me permettre de perdre une seule transaction.

    Dernièrement, j'ai repris l'admin d'un serveur chez ovh avec raid software et c'est pas du tout la joie quand mdadm vérifie/reconstruit périodiquement le raid1 de 1.5To. Bien que la comparaison soit biaisée avec mon expérience des contrôleurs matériels (car disques durs SAS 15ktr/min ...), je ne me souviens pas avoir enduré de telles lenteurs.