Introduction
Il n'est pas rare que des robots crawlent les sites internet sans utiliser d'User-Agent.
Si vous souhaitez les bannir de vos frontends HaProxy, voici comment faire.
Éditez votre fichier de configuration /etc/haproxy/haproxy.cfg
Ensuite selon vos envies: ajoutez une des deux règles suivantes.
- Si vous souhaitez renvoyer une erreur HTTP 403 Forbidden (accès interdis) quand l'user-agent est vide, ajoutez la règle HaProxy pour frontend suivante.
http-request deny if { hdr_cnt(user-agent) eq 0 }
- Si vous voulez bannir toute (…)