Maxime Ritter a écrit 640 commentaires

  • [^] # Re: Legal ?

    Posté par  (site web personnel) . En réponse à la dépêche La SPEDIDAM veut vos sous.... Évalué à 1.

    A l'epoque la redevance sur les K7 a rendu legal le fait d'enregistrer de la musique a la radio

    Cela l'était déjà. Ca compense les pertes, dues a ce genre de copies, officiellement.

    La recente redevance sur les CD n'a pas rendu legal le fait de graver des CD

    Parce que c'est déjà autorisé. Ou plutôt, ce n'est pas interdit. Copie privée. Loi du 11 mars 1957.

    C'est vrai que la declaration spontanee serait le top (ou la possibilite de declarer sur l'honneur ne pas telecharger de contenu sous droit d'auteur)

    Si cela existait, personne ne la payerait. Tu sais comment sont les Français.... De plus, il ne faut pas se leurrer : 80% des possesseurs de haut débit téléchargent (estimation perso), et si cela devenait légal, il y a fort a parier que le chiffre augmente encore jusqu'a environ 100%. C'est comme si on pouvait pas payer la redevance sous prétexte qu'on ne regarde jamais les chaînes de télé publiques, ni n'écoute jamais RadioFrance.
  • [^] # Re: Peut-on être vraiment universel ?

    Posté par  (site web personnel) . En réponse au journal Que font-ils le week-End? - le retour. Évalué à 10.

    « Eviter de heurter la sensibilité (politique, religieuse, ...) des utilisateurs est un but honorable en soi. »

    Oui, mais Debian propose des packages qui traitent de la bible. On peut trouver ca choquant en tant qu'athéiste extrèmiste. Si on en est à supprimer dosage parce qu'il permet de télécharger un webcomic qui fait de l'humour avec du cul, donc même pas un truc de cul, alors qu'on peut surfer aisémment sur des vrais sites porno avec un browser ou avec un newsreader, quelquefois juste en se trompant dans l'orthographe d'une URL, alors autant supprimer ces packages aussi, non ? (ainsi que mozilla, konqueror, thunderbird, knode, etc..).

    Sans parler des possibilités pour le gamin d'installer le soft depuis le source s'il est root, de faire lui-même un script équivalent, etc....

    (merci à lui : http://lists.debian.org/debian-devel/2005/01/msg01538.html(...) )

    Et puis je veux pas dire, mais il y a des strip sur sexy babes qui nécessitent d'avoir un peu de culture du monde du X pour vraiment comprendre.
  • [^] # Re: Carrelage.

    Posté par  (site web personnel) . En réponse au sondage Au sol je préfère. Évalué à 3.

    J'ai plus de mal a entretenir le carrelage que le revêtement de sol en vinyl que j'ai chez moi. Bon, tu me diras peut-être que c'est parce qu'il est blanc et dans la cuisine, alors que le vinyl est plus sombre (on voit moins la salété) et dans la chambre où j'ai tout mon bordel...

    Et puis le carrelage c'est froid quand on s'assied par terre pour jouer au caps, et hors de question de jouer a ce genre de jeux sur de la moquette !

    Alors moi, c'est :
    [X] Revêtement de sol low-cost en vinyl, facile et rapide à poser, jamais froid, antistatique, pas froid quand on s'assied dessus, ne craignant pas les bières renversées, très facile à nettoyer, pas de petites bébêtes qui se logent dedans. Et en plus ca absorbe un peu le bruit.

    (de toute façon le sol est vite fait recouvert par des trucs de geeks, alors autant investir dans de l'électronique plutôt que de se ruiner dans l'aménagement de l'appart).
  • [^] # Re: J'aime le questionnaire

    Posté par  (site web personnel) . En réponse à la dépêche L'entreprise.com : article sur l'informatique libre - comment vont le prendre les dirigeants d'entreprise ?. Évalué à 5.

    Tu exagères bien trop ! Ne serait-ce que parce que le décideur pressé de l'informatique, c'est le DSI...

    Je te la refait :

    - Votre motivation première est budgétaire OUI - NON
    NON, je veux un truc qui fonctionne, qui coûte pas cher, qui fasse tout même le café, dont on me garantie le bon fonctionnement, et qui soit une solution connue, parce qu'il y a moins de chances que je me trompe en prenant ce qui a une bonne image de marque. En fait je devrais me fier à ça en priorité.

    - Vous êtes un mordu d'informatique OUI - NON
    NON, je compte sur mes subordonnés pour s'occuper de tout ce qui touche à l'informatique.

    - Vous êtes prêt à investir du temps pour être autonome OUI - NON
    Là ca dépends de la politique de l'entreprise à ce niveau, c'est variable. Attention, on parle d'investir du temps à l'informatique, mais ce sera pas forcemment le décideur qui s'y collera, cela sera souvent ces subordonnées.

    - Vous disposez d'informaticiens de bon niveau OUI - NON
    Pareil selon l'entreprise. Soit elle a un service informatique à elle en interne compétant (pour être autonome), soit ils sous-traitent à des SSII.

    - Vous êtes familiarisé avec les forums sur internet OUI - NON
    Euh. J'ai déjà posté à l'occasion sur le forum de 01.Net, ca compte ?
    (en plus je veux pas critiquer, mais il faudrait parler de mailing-listes pour être honnêtes).

    - Vous parlez parfaitement l'anglais OUI - NON
    Je parle anglais, mais nous les Français on est chauvin, l'Angleterre est l'ennemi historique alors à titre personnel j'évite d'avoir à l'utiliser. Bon évidemment comme c'estindispensable pour faire des affaires à l'étranger et chez les chinois tous les cadres de l'entreprise doivent s'y mettent. Mais ca n'est pas dans notre nature. On dira OUI, mais en fait je pense NON.

    - Vous êtes prêt à vous investir personnellement OUI - NON
    NON. Moins j'ai de responsabilité dans un truc que je maîtrise pas, mieux je me me porte.

    - Vos besoins tournent autour des serveurs et d'internet OUI - NON
    Ben euh, ça c'est OUI dans dans bon nombre d'entreprises. A part celles qui voient internet comme un mal bourré de virus et de hackers qui pourrait pénétrer dans le SI, mais pour ce qui est des serveurs, c'est le cas de toutes les entreprises.

    Ce qui nous fait 4 OUI maximum. Mais le vrai décideur pressé n'utilisera pas ce questionnaire. Il est destiné aux PME, et aux TPE en particulier, pas aux vrais décideurs pressés.

    Mais voici un lien pour ce qui est de Linux et les grandes entreprises : http://www.galatea.com/opensource.html(...)
    Long (lisez les 3 parties, enfin surtout la deuxième et le début de la troisième), mais instructif pour ceux qui n'ont jamais travaillé dans ce genre d'organisation.
  • [^] # Re: Désespérant ...

    Posté par  (site web personnel) . En réponse à la dépêche Google contre la pollution des sites web. Évalué à 1.

    « 1) "Mais regardez sur le mail ..." : Ce n'est pas du tout le même sujet, les mêmes méthodes et les mêmes buts ! »

    C'est le même sujet : du spam. Les méthodes diffèrent, mais le but est le même : faire venir des visiteurs de manière frauduleuse sur un site.

    « regardons de plus près, pour que SPF marche, il faut que tout les acteurs du secteur soit d'accords (et la ce n'est pas le cas cf Sender-ID), de plus tout le monde ne reconfigure pas son sendmail|exim|postfix tout les jours.»

    Pour que SPF fonctionne, il faut rajouter des champs dans le DNS, ca prends pas 10 minutes à faire. Mais dès le départ on a dit que SPF ne servait à rien contre le spam, la preuve : http://www.computerworld.com/softwaretopics/software/groupware/stor(...)
    (autre preuve : ca n'a même pas ralenti le nombre de spams).

    Enfin si : SPF sert a tracker les usurpations d'identité, et ca doit un peu emmerder ceux qui font du phishing, ainsi que les warlordz qui voulaient usurper l'identité de quelqu'un. Et ca emmerde aussi ceux qui veulent faire du forward, vu que SPF en brise le mécanisme a moins de jouer avec.

    « Pour que ca soit efficace, il faut :
    a) Que ca soit adopté par tout le monde (et, meme si j'aurais préféré que ca vienne du W3C, quand 3 acteurs majeurs essayent de proposer une solution commune c'est bien !)»

    Et si cela ne marche pas, ce sera de la faute au fait que tout le monde ne l'a pas adopté. On m'a déjà fait le coup avec SPF.

    Si cela ne marche pas, c'est parce que les spammeurs ne visent pas que le PageRank (et d'ailleurs ceux qui visent le pagerank seraient faciles à détecter, pour peu qu'une URI-BL existe). Ils peuvent toujours continuer d'autres types de spamming de formulaires web. La réponse est inadapté au problème.

    « 2) "Mes liens ... ca va baisser le classement du blog ... gnagnagna" : Franchement, ca vous est déja arivé de programmer des moteurs de blog (ou autre plateforme à la LinuxFR). »

    Oui, ca m'est déjà arrivé. Ce n'est pas beaucoup plus difficile de coder d'autres types de checks, ou de détecter le googlebot pour ne pas lui présenter les liens.

    « NB: je suis triste, je vais plus pouvoir utiliser le lien "page perso" de LinuxFR pour faire monter des sites dans google, ca marché bien ... justement ... »

    Ben tu vois que toi aussi tu es emmerdé par les défauts de ce système
  • [^] # Re: Google suit-il sa propre politique ?

    Posté par  (site web personnel) . En réponse à la dépêche Google contre la pollution des sites web. Évalué à 4.

    Les adwords prennent la forme d'un script JavaScript externe, or il ne me semble pas que le googlebot suive les liens dans les scripts JavacScript.

    De toute évidence, personne n'est mieux placé que google pour éviter de scanner son propre service publicitaire.... Pour le cas de régies qui marchent au clic (tels les adwords), c'est dans l'intérêt de la régie publicitaire d'éviter les clics de robots pour des raisons évidentes. La question reste pertinente néanmoins pour les publicités d'autres régies et/ou qui ne fonctionnent ni avec des scripts JavaScript, ni avec des redirections via la régie (99% des pubs sont déjà étanches au googlebot à leur insu en fait).

    Je pense que dans ce cas, les moteurs (et pas seulement google) se font effectivement avoir, et certains ont probablement amélioré le pagerank de leurs sites de la sorte.
  • [^] # Re: Ce n'est pas une solution contre le spam !

    Posté par  (site web personnel) . En réponse à la dépêche Google contre la pollution des sites web. Évalué à 2.

    Google a tendance à supprimer de son index les sites qui ont recours au spamdexing ; le spam de wiki et de commentaires étant une forme de spamdexing, il est fort probable que google ait déjà supprimé de son index plusieurs des sites des spammeurs de commentaires...

    La question que je leur poserais plus volontiers, c'est comment ils ont fait pour trouver ces sites spamdexés. Et ensuite, de voir pourquoi cela ne serait pas applicable, ou pouquoi cela n'a pas été appliqué, aux spammeurs de commentaires... Et qui sait, peut-être leur proposer un check façon SURBL ?
  • [^] # Re: Ce n'est pas une solution contre le spam !

    Posté par  (site web personnel) . En réponse à la dépêche Google contre la pollution des sites web. Évalué à 2.

    « Un check SURBL c'est une contre-attaque. Pour qu'une URL y soit il faut qu'elle est déjà emmerdé quelqu'un. »

    Un spammeur qui vise le pagerank ne changera pas souvent d'URL. Il y sera listé donc. Et si SURBL ne liste pas les spammeurs de PageRank, il existe d'autre blacklist de domaines qui peuvent être utilisés. On peut imaginer créer une blacklist de spammeurs par mots-clefs.

    C'est pour contrer les initiatives à la SURBL que les spammeurs changent souvent d'URL. Or quand on change souvent d'URL, on ne peut pas viser le spamming du pagerank.

    « Arrête de confondre zeaiujk.biz qui dure dix jours, url envoyée par mail, et casino-machin.com qui est un site qui dure, aussi; c'est pénible. »

    Je ne confonds rien du tout dans l'histoire...
  • [^] # Re: Ce n'est pas une solution contre le spam !

    Posté par  (site web personnel) . En réponse à la dépêche Google contre la pollution des sites web. Évalué à 2.

    Non, la solution SURBL est très peu consommatrice en ressources (il faut juste une requête DNS), et très simple à programmer... Or la solution google nécessite aussi de reprogrammer les scripts d'acceptation ou d'affichages des commentaires, et a comme énorme inconvénient de changer en profondeur le calcul des pagerank. De même que la solution de cacher les liens des commentaires à google est presque encore plus simple à mettre en oeuvre, et non consommatrice de ressources.

    Donc là où c'est possible, pourquoi tout le monde devrait se mettre à utiliser nofollow ? Surtout que je prévois d'ici son manque d'efficacité, même sur les sites qui l'employent. Les spammeurs soient continueront d'espérer tomber sur des sites non patchés, soient continueront de spammer en profitant juste des clics des visiteurs du blog/wiki spammé.

    Ca leur suffira, vu comment ils attaquent le mail. La solution est donc inefficace et dangereuse. Alors a quoi bon l'utiliser ?
  • [^] # Re: Ce n'est pas une solution contre le spam !

    Posté par  (site web personnel) . En réponse à la dépêche Google contre la pollution des sites web. Évalué à 0.

    On ne parle pas des spam mails, mais des spam wiki / forum / blog. Ceux là sont clairement réputés pour s'occuper uniquement du page rank. Quand tu vois un post avec 150 fois le même lien sans texte, tu crois que c'est pour quoi ?

    Pour rendre le spam visible. Lorsqu'un message occupe 90% de la page avec que des liens, cela attire l'oeil.
    Oui, evidemment, cela facilite aussi le travail des moteurs de recherches. Mais dans ce cas, il n'y avait pas besoin d'attendre google : le spammeur préoccupé par son PageRank peut être détecté par des SURBL. Il était aussi possible de réécrire les liens pour pas que le liens soit direct. Il est aussi possible de ne pas présenter les liens aux moteurs de recherche. Alors, pourquoi cette solution ??

    Dans les comentaires il n'y a pour l'instant pas vraiment de solution anti-spam

    Parce que personne ne s'est donné la peine de les coder ? Utiliser SURBL marcherait très bien contre ceux qui jouent au PageRank. Un filtre baysian, un filtre à expressions régulières, tout ça aussi peut s'appliquer aux commentaires. C'est juste parce que personne ne s'est donné la peine de les programmer. Encore que, si, justement, ces filtres existent pour nombre d'outils de blogging.

    Si ton contenu est intéressant il finira toujours pas être repris ailleurs que dans un commentaire (par exemple dans le corps d'un article de blog)

    Même avec nofollow, le moteur le prendra en compte. Le problème est dans le calcul du PageRank.

    Parce que c'est *à cause* de cette adoption massive que ça peut marcher.

    Et les spammeurs continueront de spammer, parce qu'entre temps le prix de la BP aura encore diminué, il leur suffira de spammer les commentaires et de viser les clics de ceux qui lisent le blog/wiki uniquement, ils veront que c'est rentable, et ils continueront.

    Si tu veux, on prends les paris : je met ça dans mon site, et dans 6 mois, on constate que les attaques ont encore augmenté. La dernière fois qu'on m'a promis un anti-spam qui tuerait le spam par mail, j'ai dit exactement pareil. Alors, ou en sommes-nous avec SPF?

    D'ailleurs sur le principe c'est une vieille requête des bloggueurs, pas une invention de google.

    En effet, c'est une de leurs requêtes. Alors qu'ils auraient pu rentrer un check SURBL dans leurs outils de blogging et résoudre le problème eux-même... D'ailleurs là maintenant, il faut aussi recoder les outils...

    Je crois que tu n'as pas tout compris, et que visiblement tu n'as pas conscience du spam pratiqué sur les blogs (ou du but de ce spam)

    Si, si, mais je crois surtout que ceux qui voient nofollow comme le messie n'ont rien compris à comment travaillent les spammeurs.
  • [^] # Re: Ce n'est pas une solution contre le spam !

    Posté par  (site web personnel) . En réponse à la dépêche Google contre la pollution des sites web. Évalué à 3.

    Laid ? Subjectif, mais ce qui compte c'est l'info, non ?

    Alarmiste, oui. Inutilement, non. Google commence à avoir un monopole assez malsain de la recherche de l'information. Les dangers des monopoles sont réels, et je pense que ce n'est pas la peine d'expliquer sur un site consacré à Linux les dangers des monopoles dans l'informatique. Mieux vaux tirer la sonnette d'alarme avant qu'il ne soit trop tard. Google se sait surveillé par Google Watch, donc d'une certaine manière ca les oblige a avoir une conduite irréprochable. Il y a quand même de grosses zones d'ombre dans la manière dont google travaille, ils cultivent le secret, difficile de savoir ce qu'ils collectent, il est donc permis de prévoir le pire. Et dans tous les cas, il convient de se méfier d'un monopole, surtout de la part d'une société qui cultive le secret ; le logiciel libre cultive l'ouverture lui si on peut faire une comparaison.

    Quand je vois des gens dire «google est ton ami».... Non, google est l'ami de personne, ou alors juste de ses actionnaires. Car comme tout SA, tout ce qui l'intéresse c'est son bénéfice.
  • [^] # Re: Ce n'est pas une solution contre le spam !

    Posté par  (site web personnel) . En réponse à la dépêche Google contre la pollution des sites web. Évalué à 1.

    Ton livre d'or est pollué ?

    Bien, alors tu vérifies si les URLs sont dans SURBL avant de les poster. S'il y a des spammeurs qui jouent au pagerank, ils y seront.

    Sinon, ce sont des spammeurs qui jouent à faire de la promo de la même manière que par mail, et dans ce cas, cette balise ne les arrêtera point.

    De toute évidence, rien ne les arrêtera. Je doit faire ici la liste de toute les méthodes qui ont été inventés contre les spammeurs par mail ? RBL, DCC, Razor, Pyzor, SURBL, les filtres à expressions régulières, les filtres bayesians, le screensaver lycos, les plaintes de la CNIL, et euh, j'en oublie pleins.
  • [^] # Re: et linuxfr?

    Posté par  (site web personnel) . En réponse à la dépêche Google contre la pollution des sites web. Évalué à 9.

    Les spammeurs ont-ils déjà fait un bot pour poster de manière automatique sur linuxfr ?

    Non, il me semble pas. Donc il n'y a pas urgence. Cette balise, c'est surtout pour les blogs qui utilisent à 80% une douzaine de CMS, pour lesquels les spammeurs existent. Ainsi que les Wiki, et là encore ce sont les wikis les plus usités qui sont vraiment touchés.

    Ensuite, si cela devait se faire, étant donné que cela pourrait déréférencer pas mal de liens intéressants, il faudrait n'agir que sur les posts scorés dans le négatifs, si tant est que l'on considère que l'on puisse faire confiance à la modération par les utilisateurs.

    Oups, je vais lancer un enième troll sur les XP ? Désolé, ce n'est pas mon but.
  • # Ce n'est pas une solution contre le spam !

    Posté par  (site web personnel) . En réponse à la dépêche Google contre la pollution des sites web. Évalué à 5.

    Un proverbe dit que ce que les spammeurs n’ont pas encore détruit, ce sont les solutions anti-spams de mauvaise qualité qui le détruiront. On nage en plein dedans.

    Et là, je doit dire que je viens de lire la plus belle connerie du monde. Ne pas augmenter le pagerank des spammers ? Mais je n’ai jamais vu un seul spammeur s’intéresser à son pagerank ! Toute personne qui étudie un peu le fonctionnement des spammeurs sait parfaitement que les domaines utilisés pour spammer ne restent pas en ligne plus de 15 jours, car justement les anti-spams ou les FAI les détectent. Je n’ai pas encore été spammé dans les commentaires, mais les spammeurs par referer qui ont tenté d’agir chez moi ont tous vu leur site web fermer dans les jours qui ont suivi. Aucun spammeur n’agit dans le but d’augmenter son pagerank. Ceux qui vraiment voudraient augmenter leurs pageranks seraient bien trop aisemment détectés par SURBL : http://www.surbl.org/(...) .

    Ils spamment dans le but d’augmenter leurs visites, en espérant profiter des lecteurs du blog. Et non pas pour leurs pageranks. Qui part définition ne peut être élevé, puisque les sites ne restent pas en ligne longtemps. Et même à supposer que certains spammeurs font cela pour augmenter le pagerank en attendant que le site soit détruit, ils profiteront tout de même des visiteurs des blogs, et cela leur suffira pour continuer à spammer. Le problème du spam, c’est qu’il reste toujours 0,01% des personnes qui iront cliquer puis passer commander chez un spammeur. Il restera toujours, même après mise en place de cet attribut des gens pour cliquer sur des liens spammesques. Le retour est peu important par rapport au bruit que fait un spammeur, mais vu que la pollution de sites webs ou de boites mails ne lui a presque rien coûté, il continuera... Cela n'arrêtera pas le spam.

    Si vraiment le problème était dans le fait que le lien augmente le pagerank, il suffisait d’utiliser un script-wrapper qui fera une redirection, afin que la page ne soit pas visible directement dans google. Ou de détecter le googlebot et de ne pas lui présenter les liens, voire les commentaires.

    Au contraire, ces balises sont anti-productives. Combien de fois ai-je cité une page web en réponse à un problème dans un commentaire sur linuxfr ? De la sorte, les blogs et les liens intéressant finissent fort bien référencés. En rajoutant ce tag aux liens mis dans les commentaires, on casse une bonne partie du mécanisme permettant aux blogs d’être bien référencés.

    Alors, pourquoi une adoption massive dès l’annonce ? Pour tous, c’est une géniale opération marketing laissant penser que ces sociétés s’occupent du bien des bloggers, alors qu’au mieux ça ne change rien, qu’au pire cela sera contre-productif. Et quel intérêt y trouve google finalement ? Tout le monde sait bien que sur google les blogs sont fort bien référencés. En créant cette balise, ils vont pouvoir rééquilibrer la part des blogs dans leur moteur de recherches.

    Mais non, je dois être paranoïaque, je vois pas pourquoi je suis le seul à trouver là une régression. Et pourquoi des hebergeurs de blogs seraient en train de se tirer une balle dans le pied ? Les gens qui ont adopté ce tag savent-ils vraiment comment marchent les spammeurs ?

    C’était pas la peine d’attendre que Google se bouge quoi. Surtout si c’est un pis-aller qui sert également de solution à ce que certains voient comme un problème chez eux : le poids important que prennent certains weblogs dans les recherches. Il est si commun de voir des moteurs de recherches se faire payer pour bien placer certains sites, qui nous dit que google n’a pas d’intérêt à remiser derrière dans les recherches les sites non-commerciaux ? Cf GoogleWatch : http://www.google-watch.org/(...)

    Par contre, je ne nie que la balise peut servir, offrant un petit plus par rapport au fichier robots.txt. Mais ce n’est pas un anti-spam. Et à ne pas appliquer systématiquement.

    (oui, c'est une ressucé de là : http://maxime.ritter.eu.org/une-solution-anti-spam-a-la-con-de-plus(...) , mais j'ai le droit, c'est ma prose).
  • [^] # Re: Guillermito et les virus?

    Posté par  (site web personnel) . En réponse à la dépêche TEGAM vs Guillermito. Évalué à 0.

    «accusation d'écriture de virus»

    Et, qu'est ce qui te prouve qu'elle sont infondés ? Le fait que peu de monde y croit ? Bien, dans ce cas tu participes au processus de lynchage de la foule.

    «de liens avec le KGB entre autres élégances»

    Le lien entre le KGB et Guilermito ? Non, le lien entre le KGB et Kaspersky, ce qui n'est une découverte pour personne.

    «Enfin, concernant le posteur suscité, son profil ressemble bougrement à celui du "nouveau venu" que l'on retrouve sur tous les forums parlant de l'affaire Tegam, et qui fait partager avec candeur sa "découverte" de l'article publié par le Virus à propos de Guillermito. Cela suffit à rendre un tel comportement particulièrement suspect, le procédé et le style utilisés étant toujours les mêmes.»

    Dans le cas particulier de Tegam, cela peut à l'extrème limite se comprendre.

    Sinon, concernant cet article : http://www.kitetoa.com/Pages/Textes/Textes/Texte10/kaminsky-aichelb(...)

    Voilà, c'est mieux comme ça.
  • [^] # Re: Misc : Tegam Gate ?

    Posté par  (site web personnel) . En réponse à la dépêche TEGAM vs Guillermito. Évalué à 4.

    Eyal est le «petit génie» de l'informatique à l'origine de Viguard. C'est le fils du patron ; on peut voir Tegam comme une affaire familiale.

    Mais étant donné le sujet pointu, il est normal que Tegam embauche des gens qui travaillent par ailleurs dans la sécurité informatique. Je sais aussi que des amis de Guillermito ont déjà publié dans ce même magazine...

    Et d'ailleurs, il serait utile de vérifier si les articles d'Eyal Dotan parlent de comparatifs anti-virus (là effectivement, ce serait malvenu), où du fonctionnement des virus de manière plus générale, domaine qu'il connait bien. On peut voir une de ses présentations par ici :
    http://www.blackhat.com/presentations/bh-europe-04/bh-eu-04-detoisi(...)
    (pour mémoire, on reproche à Guillermito des faits un peu similaires à ce qu'Eyan Dotan a fait là).

    De l'impression qu'il a laissé au procès, j'ai bien l'impression que c'est le restant de la famille qui l'a poussée à témoigner contre Guillermito ; il est certainement assez intelligent pour comprendre que les agissements de Guillermito font partie du quotidien de la sécurité informatique, y compris du sien.

    Du peu qu’il aura dit suffisamment fort pour que le comprenne, je note la bourde du jour selon moi (désolé, c’est pas texto) : « on publie des failles de sécurité depuis la nuit des temps, mais en général avec un certain respect du logiciel. ViGuard aura sans cesse été attaqué et discriminé par Guillermito. Il n’y a que ViGuard a avoir eu droit à une telle campagne de dénigrement suite à la publication de failles ». Bien, sauf que les contre-exemples que même le procureur connait existent. Le premier d’entre eux sera l’OS de Microsoft : Windows. Et là je suis bien embêté : quel lien publier pour un exemple de dénigrement de windows. Le Standblog qui pointe sans cesse le manque de sécurité d’internet explorer et encourage, avec raison, les gens à changer de navigateur ? Les archives de bugtraq qui ne manquent pas de haine envers Microsoft ? Une recherche google ?


    (ça c'est un extrait de mon blog : http://maxime.ritter.eu.org/blog.php3(...) où je parle de l'affaire, et où je parlerais encore un peu plus de l'affaire prochainnement. J'attendais d'ailleurs d'avoir posté tous mes articles pour poster la news, car il y a des implications assez larges là derrière concernant le full disclosure comme le souligne k-otik : http://www.k-otik.com/news/08312004.Guillermito.php(...) )
  • [^] # Re: Soyez partageur !

    Posté par  (site web personnel) . En réponse à la dépêche p2p: premières résiliations d'abonnements. Évalué à 2.

    On ne se transforme pas en FAI parce qu'on fait du NAT et du Wifi (déjà que je suis admin système domestique, si en plus je deviens FAI...)

    Pas en FAI pro, mais si, tu fournit de l'internet.

    J'ai peur qu'au contraire, dès lors qu'on ouvre un AP Wifi personnel aux quatre vents, on soit coupable (c'est un grand mot, je sais) de négligence d'une part, et on n'est pas exonéré de responsabilité d'autre part. Les deux points seront pris en compte en cas de problème.

    Négligence ? On propose a ceux qui sont de passage de se connecter gratuitement à internet, et c'est une négligence ?
    Et les hotspot payants, ce sont des négligeances aussi ?

    Et si un parent a un abo ADSL et que son gosse télécharge des trucs illégaux, ou fait du scan, ou toute autre connerie, c'est le parent qui est légalement responsable.

    Pareil si ton gosse démolit la bagnole de ton voisin, rien a voir avec internet là.
  • [^] # Re: Qualité de diffusion

    Posté par  (site web personnel) . En réponse à la dépêche p2p: premières résiliations d'abonnements. Évalué à 3.

    Bien sur que tu as le droit de copier ce qui passe à la radio ou a la télé, du moment que ca reste pour ton usage personnel. Ca s'appelle la copie privée. Et non, il n'y a pas d'obligation de diffuser des trucs avec une qualité dégradée. Par contre il y a des histoires de DRM ce genre avec la télé numérique aux US, mais j'ai pas bien suivi.

    Et tu n'as pas non plus le droit de rediffuser sur des réseaux de P2P les enregistrements que tu aurais fait à la télé. Ca n'est plus de la copie privée

    insert here lien explicant copie privée
    (si quelqu'un a ce genre de lien disponible sous la main, je pense que ca aiderait beaucoup de monde)
  • [^] # Re: Soyez partageur !

    Posté par  (site web personnel) . En réponse à la dépêche p2p: premières résiliations d'abonnements. Évalué à 3.

    En donnant l'accès wifi à ton voisin, tu te transformes en fournisseur d'accès; donc tu ne risques rien...

    Bon, evidemment, les flics iront d'abord sonner a ta porte, et toi, il te suffiras de dire 'c'est pas moi, c'est moi voisin'. Evidemment, il va de soi que dans ce cas ton disque a intérêt à être nickel chrome avec que du logiciel libre, vu que comme vous partagez la même IP et que ce genre de connexion ce n'est pas chose courante... or j'ai comme un doute sur le nombre de disques dur 100% clean chez les particuliers...
  • # Ton IP est pourrie !

    Posté par  (site web personnel) . En réponse au message Mes mails sont de plus en plus diagnostiqués comme spam. Pas glop !. Évalué à 6.

    Le problème, c'est que tu es en IP dynamique, et que les 2 serveurs SMTP que tu peut utiliser (celui de ton FAI américain comme celui de Free) gardent les IPs de leurs clients qui sont en dynamique.

    Donc, les RBLs, elle listent les machines douteuses, souvent infectés par des virus. Regarde l'IP qui t'as été attribuée sur openRBL : http://openrbl.org/ip/82/64/198/154.htm(...) ! Elle est listée à plusieurs endroits !

    Ce qu'il te faut faire maintenant, c'est vérifier que ce n'est pas toi qui avait cette IP le 23 février, et le cas échéant enlever les vers qui s'y trouverait sur tes machines (très peu probable, j'ai balancé un nmap qui n'a rien trouvé). Puis demander le déblacklistage de cette IP sur les RBLs qui la liste (les liens vers les urls de déblacklistage sont indiqués sur OpenRBL). Puis attendre qu'un admin valide le déblacklistage de ton IP, et prendre le risque entre temps de changer a nouveau d'IP, et de tomber a nouveau sur une IP pourrie. Ou alors tu peut forcer le changement d'IP, en prenant le risque de tomber de nouveau sur une IP qui avait hébergé autrefois un vers, et qui en conséquent est aussi listée dans les RBLs, et puis ce serait redonner l'handicap de cette IP au suivant.

    Les autres solutions plus définitives : trouver un serveur SMTP externe avec authentification qui vire les Received de ton IP dynamique (je ne suis pas sur que ca existe), passer en IP fixe (comme ça si tu est blacklisté, c'est bien parce que tu as chopé une saloperie ou que tu envoies du spam).

    Enfin, je note aussi que tu n'as pas que le problème des RBLs :
    1.9 FROM_NO_LOWER 'From' has no lower-case characters

    Mets en minuscules ton adresse mail dans ton client, tu gagnes 1.9 points rien que pour ça.... Mais SA n'est pas le seul filtre, et ton IP est vraiment pourrie, comme tant d'IP dans le block de Proxad ou wanadoo. Les FAI qui filtrent les ports SMTP n'ont pas ce genre de problèmes, mais le filtrage est déjà un problème en lui-même.
  • # Ya comme un paradoxe...

    Posté par  (site web personnel) . En réponse au journal Une critique constructive de Debian. Évalué à 3.

    Titre du journal : Une critique constructive de Debian
    Première ligne : Un article très trollesque

    Il faut savoir là : soit c'est constructif, soit c'est trollesque. Mais ca ne peut être les deux a la fois, puisqu'un troll est forcemment une discussion non constructive.

    Enfin bon, je dit ça, mais je suis complètement hors sujet là.
  • [^] # Re: Analyse quand même, mais score très faible

    Posté par  (site web personnel) . En réponse au message Comment marche SpamAssassin ?. Évalué à 1.

    Au fait, il suffit juste de mettre les .cf dans /etc/mail/spamassassin, et rien d'autre à faire ?

    Relancer spamd.

    Pas besoin de les déclarer quelque part, ces fichiers de règles ?

    Ben non, les mettre dans le bon répertoire avec la bonne extention c'est suffisant.
  • [^] # Re: Analyse quand même, mais score très faible

    Posté par  (site web personnel) . En réponse au message Comment marche SpamAssassin ?. Évalué à 1.

    Bon, je viens d'essayer avec SA 3.0.1, et visiblement il scanne aussi les mails en attachement.

    Par contre, c'est peut-être pas le cas du 2.63, ou peut-être que domino te réécrit le mail si différement qu'il lui fait perdre tout sa substance (genre, les en-têtes qui ne sont plus les mêmes)... Enfin bon, j'attends ton mail pour confirmer / infirmer point de vue de la gueule en sortie de domino.
  • [^] # Re: Analyse quand même, mais score très faible

    Posté par  (site web personnel) . En réponse au message Comment marche SpamAssassin ?. Évalué à 1.

    Ca c'est une bonne question. Tu peut essayer de me forwarder un de ces spams (sous forme de pièce jointe) pour voir de quoi il en retourne ?

    En tout cas si Domino réécrit trop, il risque de cacher beaucoup d'informations utiles au SA...

    A cette adresse là de préférence : bofh AT nerim DOT net (sinon, il risque de se trouver dans ma boite à spams, et je risque de pas le voir passer).
  • [^] # Re: spamassassin

    Posté par  (site web personnel) . En réponse au message Comment marche SpamAssassin ?. Évalué à 2.

    Tu confonds tout là !!

    1. Si tu utilises la commande mda dans fetchmail, tu ne repasses plus par le MTA local. Autrement dit, si tu met cette ligne, ce n'est plus la peine de configurer postfix pour traiter le spam. En rajoutant cette ligne, il faut appeler SA par procmail. Ce qui est générallement une bonne idée, mais il faut connaître la syntaxe très bizarre de procmail, ou au moins copier/coller ce qu'il faut depuis un site qui parle de cette méthode, ou la manpage de SA.

    2. On est pas obligé d'avoir un MTA local sur un Unix pour gérer le SMTP. C'est quand même vachement conseillé, toujours installé par défaut par les distribs, mais pas obligatoire, surtout dans le cas d'évolution qui peut utiliser le serveur SMTP du FAI (comme le font tous les logiciels sous windows).

    3. Un MTA ne se limite pas a l'envoi des mails entre les utilisateurs locaux, et procmail n'est qu'un MDA comme il y en a d'autre (enfin non, c'est le plus connu, et une syntaxe aussi tordue, c'est rare).

    Bon, a part ça fetchmail + procmail + compte mail local c'est une solution possible aussi pour passer des mails au SA, que ce soit avec ou sans postfix. Juste que la question demandait ce qui n'allait pas dans une conf. Evolution...