Introduction
Il n'est pas rare que des robots crawlent les sites internet sans utiliser d'User-Agent.
Si vous souhaitez les bannir de vos frontends HaProxy, voici comment faire.
Éditez votre fichier de configuration /etc/haproxy/haproxy.cfg
Ensuite selon vos envies: ajoutez une des deux règles suivantes.
- Si vous souhaitez renvoyer une erreur HTTP 403 Forbidden (accès interdis) quand l'user-agent est vide, ajoutez la règle HaProxy pour frontend suivante.
http-request deny if { hdr_cnt(user-agent) eq 0 }
- Si vous voulez bannir toute réponse quand l'user-agent est vide, ajoutez la règle suivante dans votre frontend HaProxy.
tcp-request content reject if { hdr_cnt(user-agent) eq 0 }
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.