Journal Limitation web

Posté par  (site web personnel) .
Étiquettes : aucune
0
9
juin
2004
Bonjour les gens,
avec squid, j'ai installé quelques bouts de mots interdits dans les adresses mais ils restent beaucoup de sites qui n'ont aucun rapport avec une utilisation "normale". De plus, la solution est bancale puisqu'il faut aussi mettre les mots qui contiennent les bouts interdits :

Exemple :
acl allowed-sex url_regex -i sextant
acl denied-sex url_regex -i sex

Vous utilisez ça aussi ?
Une expression rationnelle de 1200 lignes ?
Une liste d'adresses interdites ?
Vous faites confiance à vos utilisateurs (c'te blague ...) ?
  • # Filtrage

    Posté par  (site web personnel) . Évalué à 2.

    SquidGuard fonctionne pluôt bien, même avec une charge importante.

    www.squidguard.org
  • # solutions existantes

    Posté par  . Évalué à 2.

    L'université de Toulouse propose une liste de site à interdire.

    Les différents projets de l'EN récuperent cette liste et l'integrent.
    On dispose alors d'une liste intérressante.

    Limiter avec une expression régulière sur l'url n'est peut être pas la meilleur solution.
    Mais pourquoi pas. Ca depend du résultat recherché.
    • [^] # Re: solutions existantes

      Posté par  . Évalué à 1.

      Une URL de cette liste ?

      Moi j'utilise une autre technique, qui fonctionne également si l'on désactive le proxy.

      La passerelle est serveur de nom, et fait autorité sur le réseau interne pour tout un tas de nom pas très recommendables.

      Si une machine interne réclame www.site-x.com, le DNS va lui donner l'adresse 127.0.0.1.

      On peut aussi imaginer donner l'adresse d'un serveur qui va retourner selon l'URL une page ou une image annonçant que le site est filtré.

      La passerelle peut également intégrer des règles de filtrage qui redirige toute requête DNS vers le DNS local, rendant ainsi les choses bien plus dur à contourner.

      J'ai dans l'idée de créer un serveur DNS collaboratif dans ce style; un peu à la manière des listes d'IP de spameurs, avec une interface pour que chacun puisse soumettre des URLs et une liste de personnes certifiés pour valider les entrées, mais ça demande quelques bonnes machines avec une terrible connectivitée parce que ça revient à remplacer les DNS root.
  • # faire une liste

    Posté par  . Évalué à 1.

    Tu peux faire un fichier avec une url par ligne pour tout ce qui est interdit : http://squid.visolve.com/squid/squid24s1/access_controls.htm#acl(...)

    Ce qui donnerait :
    acl denied-sex url_regex -i /mon_fichier_avec_les_url_interdites

    C'est vite mis en place mais ça reste beaucoup moins efficace que Squidguard.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.