Forum Linux.général nginx:recv() failed (104: Connection reset by peer) while reading response header from upstream

Posté par  . Licence CC By‑SA.
Étiquettes :
0
29
juin
2016

Hello tout le monde,

J'ai un problème avec mon serveur nginx configuré en reverse proxy.
Il ne charge pas totalement la page de mon application.

Quand je consulte les logs d'erreur voici ce que j'ai

[root@prd-nginx ~]# tail -f /var/log/nginx/error.log
2016/06/29 17:36:58 [error] 2623#0: *4 recv() failed (104: Connection reset by peer) while reading response header from upstream, client: 10.92.72.13, server: bi.mycompagny.fr, request: "POST /QvAJAXZfc/AccessPoint.aspx?mark=&platform=browser.&dpi=96 HTTP/1.1", upstream: "http://10.33.95.37:80/qlikview/QvAJAXZfc/AccessPoint.aspx?mark=&platform=browser.&dpi=96", host: "bi.mycompagny.fr", referrer: "https://bi.mycompagny.fr/index.htm"
2016/06/29 17:37:44 [error] 2623#0 (…)

Wiki [Tuto/HowTo] HaProxy - bloquer les serveurs renvoyant des erreurs HTTP

0
29
août
2018

Introduction

Par défaut HaProxy ne vérifie que la présence en ligne ou non des serveurs web, pas les erreurs renvoyées dans les en-têtes.
Ainsi, un serveur backend non fonctionnel suite à un problème de montage ou d'accès à la base de données, sera quand même considéré comme "UP" et les requêtes réseaux continueront d'y être acheminées, provoquant moult mécontentements chez vos utilisateurs qui pourraient se retrouver spammer de notification d'erreur sur leur smartphone chéri.
Néanmoins, HaProxy permet, via (…)

Forum Linux.debian/ubuntu Debian, apache, userdir, 403 forbidden

Posté par  . Licence CC By‑SA.
Étiquettes :
0
13
juin
2013

Bonjour,

J'ai profité des récents changements dans sid pour purger mes paquets apache (depuis le temps ce n'était pas une mauvaise chose).

Si le serveur fonctionne bien (it works!), je ne peux pas en dire autant du mod_userdir.

J'ai suivi le wiki debian à la lettre mais en lieu et place de l'habituel localhost/~user j'ai droit à un triste 403 forbidden. Je suppose qu'il y a un maillon faible dans les permissions de mon chemin mais je n'arrive pas à (…)

Wiki [Tuto/HowTo] HaProxy - bannir les requêtes quand l'User-Agent est vide

0
20
juil.
2018

Introduction

Il n'est pas rare que des robots crawlent les sites internet sans utiliser d'User-Agent.
Si vous souhaitez les bannir de vos frontends HaProxy, voici comment faire.

Éditez votre fichier de configuration /etc/haproxy/haproxy.cfg

Ensuite selon vos envies: ajoutez une des deux règles suivantes.

  • Si vous souhaitez renvoyer une erreur HTTP 403 Forbidden (accès interdis) quand l'user-agent est vide, ajoutez la règle HaProxy pour frontend suivante.
http-request deny if { hdr_cnt(user-agent) eq 0 }
  • Si vous voulez bannir toute (…)