Tony Flow a écrit 307 commentaires

  • [^] # Re: Les chiffres

    Posté par  . En réponse à la dépêche Les Dégats de Code Red, Nimda &Co. Évalué à 8.

    Même si les correctifs de bugs sont plus rapides dans le monde du libre comme tu le dis, si demain la majorité des serveurs web tournent sous Apache... et bien je pense que les admins qui trainent a patcher IIS aujourd'hui ne le feront pas mieux avec Apache !

    Si un monopole d'Apache apparait... ya plus qu'a souhaiter qu'il n'y ait jamais de failles aussi grossières :)

    Heureusement, je pense qu'il y aura toujours une certaine diversité, surtout avec un standart comme Apache qui engendre déja de nombreux serveur web dérivés.
  • [^] # Re: le W3C ne veut rien breveter du tout

    Posté par  . En réponse à la dépêche Le W3C veut breveter ses futurs standards. Évalué à 2.

    Dans le style "on se réveille pour demander du fric", faudrait pas oublier Unisys/Compuserve avec le GIF !

    D'ailleurs, un autre standart comme le PDF m'inquiète un peu... dommage qu'il ne soit pas libre non plus :(
  • # autre solution pour lire des fichiers excel

    Posté par  . En réponse à la dépêche Les fichiers Excel sous Gnu-Linux. Évalué à 8.

    Il existe un outil que je trouve bien utile pour pouvoir lire le contenu d'un fichier Excel sous linux : xlHtml (voir http://www.xlhtml.org/(...) )

    C'est très simple, et ça permet d'exporter un fichier excel en html (et bien plus proprement que les exports de Microsoft).

    Au passage, je rappele qu'il existe aussi wv permettant de lire des documents Word sous linux (voir http://wvware.sourceforge.net/(...) )
  • [^] # Re: plus généralement

    Posté par  . En réponse à la dépêche Y'a-t-il un comptable dans la salle ?. Évalué à 1.

    On peut utiliser comme critère l'état des fonctionnalités du soft (celles de base sont-elles implémentées correctement ? correspondent-elles bien aux besoins ?)
    Un autre élément réside dans l'organisation du projet, son activité et sa pérénité...
  • [^] # Re: plus généralement

    Posté par  . En réponse à la dépêche Y'a-t-il un comptable dans la salle ?. Évalué à 10.

    Freshmeat ou LinuxApps sont très bien, mais ne répondent pas à ce besoin précis. Ils répertorient toutes sorte de projets, plus ou moins aboutis, ce qui nous donne des centaines d'applis par catégories !

    Je trouve aussi qu'il serait intéressant de ne répertorier que des applis utilisables professionnellement (c'est à dire complètes et fiables), afin de se tenir au courant des solutions offertes par Linux dans l'entreprise.

    Cela répondrai à de nombreuses questions sur le passage de Windows à Linux. Les applis foisonnent et ce n'est pas simple d'en faire le tour. Mais ce genre de logiciels ce fait plus rare et mérite que l'on s'y intéresse...
  • [^] # Re: Les IPs heure par heure

    Posté par  . En réponse à la dépêche Nouveau Vers: Code Red le retour. Évalué à 9.

    Voici quelques analyses du fichier de log d'apache (j'essaie de faire du shell du mieux que je peux!)

    total du nombre d'attaques :
    grep c+dir access_log -c

    total du nombre d'ip differentes :
    grep c+dir access_log | cut -d " " -f 1 | sort | uniq -c | wc -l

    liste des ips triées selon leur occurence :
    grep c+dir access_log | cut -d " " -f 1 | sort | uniq -c | sort

    nombre d'attaques heures par heures :
    grep c+dir access_log | cut -d " " -f 4 | cut -d ":" -f 1,2 | uniq -c

    nombre d'ip différentes jour après jour :
    grep c+dir access_log | awk -F " " '{print $4 ": " $1}' | cut -d ":" -f 1,5 | sort | uniq | cut -d ":" -f 1 | uniq -c

    à vos stats !
  • [^] # Re: Mes logs vont exploser ;-)

    Posté par  . En réponse à la dépêche Nouveau Vers: Code Red le retour. Évalué à 2.

    Pour ceux qui cherchent comment analyser leur fichier de log Apache, voici comment extraire les IP des machines infectées triées selon leur nombre d'attaques :

    grep c+dir access_log | awk -F " " '{print $1}' | sort | uniq -c | sort


    Je confirme, ca tape fort dans les logs !