Bonjour les gens,
avec squid, j'ai installé quelques bouts de mots interdits dans les adresses mais ils restent beaucoup de sites qui n'ont aucun rapport avec une utilisation "normale". De plus, la solution est bancale puisqu'il faut aussi mettre les mots qui contiennent les bouts interdits :
Exemple :
acl allowed-sex url_regex -i sextant
acl denied-sex url_regex -i sex
Vous utilisez ça aussi ?
Une expression rationnelle de 1200 lignes ?
Une liste d'adresses interdites ?
Vous faites confiance à vos utilisateurs (c'te blague ...) ?
# Filtrage
Posté par Frederic Bourgeois (site web personnel) . Évalué à 2.
www.squidguard.org
[^] # Re: Filtrage
Posté par Ian X . Évalué à 7.
http://christian.caleca.free.fr/squid/squidguard.htm(...)
[^] # Re: Filtrage
Posté par Joris Dedieu (site web personnel) . Évalué à 4.
http://dansguardian.org/(...)
Je n'ai par contre pas réussit à configurer privoxy (www.privoxy.org) pour cet usage (et pour les autres d'ailleurs).
C'est bien dommage.
# solutions existantes
Posté par colombiere . Évalué à 2.
Les différents projets de l'EN récuperent cette liste et l'integrent.
On dispose alors d'une liste intérressante.
Limiter avec une expression régulière sur l'url n'est peut être pas la meilleur solution.
Mais pourquoi pas. Ca depend du résultat recherché.
[^] # Re: solutions existantes
Posté par Sébastien Koechlin . Évalué à 1.
Moi j'utilise une autre technique, qui fonctionne également si l'on désactive le proxy.
La passerelle est serveur de nom, et fait autorité sur le réseau interne pour tout un tas de nom pas très recommendables.
Si une machine interne réclame www.site-x.com, le DNS va lui donner l'adresse 127.0.0.1.
On peut aussi imaginer donner l'adresse d'un serveur qui va retourner selon l'URL une page ou une image annonçant que le site est filtré.
La passerelle peut également intégrer des règles de filtrage qui redirige toute requête DNS vers le DNS local, rendant ainsi les choses bien plus dur à contourner.
J'ai dans l'idée de créer un serveur DNS collaboratif dans ce style; un peu à la manière des listes d'IP de spameurs, avec une interface pour que chacun puisse soumettre des URLs et une liste de personnes certifiés pour valider les entrées, mais ça demande quelques bonnes machines avec une terrible connectivitée parce que ça revient à remplacer les DNS root.
[^] # Re: solutions existantes
Posté par Frederic Bourgeois (site web personnel) . Évalué à 2.
[^] # Re: solutions existantes
Posté par Frederic Bourgeois (site web personnel) . Évalué à 1.
Il est possible d'utiliser une méthode équivalente sur un proxy sans ajouter squidguard
acl black_url url_regex "/etc/squid/blacklist"
http_access deny black_url
De plus tu peux personnaliser la page d'avertissement
[^] # Re: solutions existantes
Posté par colombiere . Évalué à 1.
Le message non personnalisé est moche :
ERROR
The requested URL could not be retrieved
While trying to retrieve the URL: http://127.0.0.1:8500/cgi-bin/filtre.cgi?(...)
The following error was encountered:
* Connection Failed
Surtout quand c'est un produit (libre) français developpé pour des français (des élèves)
[^] # Re: solutions existantes
Posté par Frederic Bourgeois (site web personnel) . Évalué à 1.
ce n'est pas celui-ci, de plus il existe par défaut en français.
Surtout quand c'est un produit (libre) français developpé pour des français (des élèves)
Squid et squidguard ne sont pas des logiciels developpés par des français que je sache.
[^] # Re: solutions existantes
Posté par Colin Leroy (site web personnel) . Évalué à 4.
Alleluia, j'ai retrouvé tous mes bookmarks ! ;-)
[^] # Re: solutions existantes
Posté par spongurex . Évalué à 2.
Et puis, un DNS ça demande pas tant que ça de bande passante. 2 ou 3 paquets UDP, c'est léger. Après, si tu te fait slashdotter c'est sur qu'il te faudra un peu plus de BP.
# faire une liste
Posté par Antoine Beck . Évalué à 1.
Ce qui donnerait :
acl denied-sex url_regex -i /mon_fichier_avec_les_url_interdites
C'est vite mis en place mais ça reste beaucoup moins efficace que Squidguard.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.