En fait, la destination est un volume nfs , c'est pourquoi j'ai mis throttle -M10.
Maintenant c'est vrai que de faire un test à l'issue de ma commande c'est pas super intelligent de ma part étant donné que c'est une succession de 3 commande et que je pense en effet qu'il va évaluer uniquement le retour de la dernière commande.
maintenant je sais pas trop comment faire pour tester ET que le fichier est bien présent à la destination ( if [ -e $dirdst/$dir.tar.gz ] ) Et que l'archive est bien complète?
Pour le cache en fait c'est pas vraiment le cache mais la consommation RAM elle même qui augmente au bout de 2 ou 3 heures.
Sachant qua ça fait 3 jours que j'essaye de faire la copie mais que ça plante chaque fois à un endroit différent.
Et comment puis-je utiliser sync ou autrement dit suis-je sur qu'après le tar | gzip le fichier est bien écrit?
Car j'ai lu sur sync qu'il fallait être sur que les données soient ecrites sur disk avant d'utiliser sync.
Donc si je fais ça
tar -zcvf $dir | throttle -M 10 | gzip > $dirdst/$dir.tar.gz && sync
est-ce bon ?
Merci, je sais que ce que je dis n'est pas très clair mais c'est un peu le bordel dans ma tête.
Merci NeoX,
C'était pas tout à fait ma question. Mais c'est pas grave car dans l'explication que tu donnes j'ai appris qu'il y avait plusieurs mode de load balancing.
Jusqu'ici je ne m'était interessé que à round-robin.
D'ailleurs cela m’ammene une autre question.
En round robin si par exemple mon HAPROXY adresse une ferme de 4 noeud apache et que l'un d'eux tombe, est que HAPROXY continue à lui envoyer des paquets occasionnant 25 % de perte ou est-ce que il détecte qu'un noeud et mort et décide tout seul de l'éliminer?
Bon mon probleme est résolu.
Il y avait plusieurs problèmes:
Le nginx se trouve derriere un FW qui faisait un NAT + un port forward du port 8443 vers 443 et dans l'URL je n'ai pas trouvé comment conserver le port à chaque appel HTTP.
J'ai donc choisi de faire une formward 443 vers 443 ainsi pas besoin de prciser le port dans l'URL.
Ensuite dans mon fichier de conf des "vhost" nginx j'avais fait un proxy pass en indiquant http://mysrv/myappli.
En virant le /myappli et en le faisant saisir dans l'url "virtuelle" les autres appel http en dehors de myappli fonctionnent.
ok finalement j'ai réussi sans trop de souci
J'ai mis le .cer et le .key dans /etc/nginx/ssl/monsite/ et j'ai ajouter les chemins dans /etc/nginx/conf.d/reverseproxy.conf.
Ok, merci à vous deux.
Je vais me renseigner sur la licence du certificat.
Pour le reste il me sera difficile de copier la conf depuis le serveur hébergeur c'est un debian 6 / apache2 et le serveur chez moi c'est un centos7/nginx.
En plus de ça je ne comprends pas grand chose aux histoire de certificat..
Oui ils sont déjà dedans.
et quand je tappe a2enmod php5 , il me dit de redémarrer apache et après…
root@dw-wiki:~# service apache2 restart
* Restarting Apache httpd web server apache2 [fail]
* The apache2 configtest failed.
Output of config test was:
apache2: Syntax error on line 140 of /etc/apache2/apache2.conf: Syntax error on line 1 of /etc/apache2/mods-enabled/php5.load: Cannot load /usr/lib/apache2/modules/libphp5.so into server: /usr/lib/apache2/modules/libphp5.so: undefined symbol: unixd_config
Action 'configtest' failed.
The Apache error log may have more information.
root@dw-wiki:~#
# The ServerName directive sets the request scheme, hostname and port that
# the server uses to identify itself. This is used when creating
# redirection URLs. In the context of virtual hosts, the ServerName
# specifies what hostname must appear in the request's Host: header to
# match this virtual host. For the default virtual host (this file) this
# value is not decisive as it is used as a last resort host regardless.
# However, you must set it for any further virtual host explicitly.
ServerName wiki.asso.local
ServerAdmin webmaster@localhost
DocumentRoot /var/www/mediawiki
# Available loglevels: trace8, ..., trace1, debug, info, notice, warn,
# error, crit, alert, emerg.
# It is also possible to configure the loglevel for particular
# modules, e.g.
#LogLevel info ssl:warn
ErrorLog ${APACHE_LOG_DIR}/error.log
CustomLog ${APACHE_LOG_DIR}/access.log combined # For most configuration files from conf-available/, which are
# enabled or disabled at a global level, it is possible to
# include a line for only one particular virtual host. For example the
# following line enables the CGI configuration for this host only
# after it has been globally disabled with "a2disconf".
#Include conf-available/serve-cgi-bin.conf
J'ai bien réussi à réinstaller php5-common et libapache2-mod-php5 pour autant mon serveur continu à afficher le code php au lieu de l'interpréter.
Pensez vous que si je downgrade la version des packages php cela donnera qqchose de mieux?
J'ai essayé de le réinstaller et voici ce qu'il me dit.
root@dw-wiki:~# apt-get remove libapache2-mod-php5
Lecture des listes de paquets… Fait
Construction de l'arbre des dépendances
Lecture des informations d'état… Fait
Package 'libapache2-mod-php5' is not installed, so not removed
0 mis à jour, 0 nouvellement installés, 0 à enlever et 0 non mis à jour.
root@dw-wiki:~# apt-get install libapache2-mod-php5
Lecture des listes de paquets… Fait
Construction de l'arbre des dépendances
Lecture des informations d'état… Fait
Certains paquets ne peuvent être installés. Ceci peut signifier
que vous avez demandé l'impossible, ou bien, si vous utilisez
la distribution unstable, que certains paquets n'ont pas encore
été créés ou ne sont pas sortis d'Incoming.
L'information suivante devrait vous aider à résoudre la situation :
Les paquets suivants contiennent des dépendances non satisfaites :
libapache2-mod-php5 : Dépend: php5-common (= 5.5.9+dfsg-1ubuntu4) mais 5.2.10.dfsg.1-2ubuntu6 devra être installé
E: Impossible de corriger les problèmes, des paquets défectueux sont en mode « garder en l'état ».
root@dw-wiki:~#
Salut,
Merci beaucoup pour ses explications.
Mon stage chez eux est terminé mais j'ai gardé des contacts je leur demanderai si ça se produit encore. Dans ce cas je leur dirai ce que tu m'as conseillé.
Euh, en fait y a un truc genre F5 ensuite si j'ai bien compris 2 apaches et sur les apaches mysql est installé aussi.
Je sais pas comment les 2 mysql communiquent entre aux, s'ils se répliquent genre master<=>master.
Sinon non il est pas directement ouvert sur l'extérieur.
[^] # Re: Avec w3m et grep
Posté par Orwell . En réponse au message récupérer une info variable sur un site avec CURL. Évalué à 1.
Nickel merci
[^] # Re: avec curl|wget grep awk....
Posté par Orwell . En réponse au message récupérer une info variable sur un site avec CURL. Évalué à 1.
Merci. En effet j'avais pas pensé à ça.
[^] # Re: sync ?
Posté par Orwell . En réponse au message purger le cache RAM après archivage et zippage de gros dossiers. Évalué à 1.
Ok Merci gUI.
Parfait.
[^] # Re: sync ?
Posté par Orwell . En réponse au message purger le cache RAM après archivage et zippage de gros dossiers. Évalué à 1. Dernière modification le 26 août 2016 à 16:04.
Oui pardon c'est un copier/coller hasardeux mais c'est un tar cvf | gzip >
et pour le tar y a le (-) juste après le cvf qui permet d'parès ce que j'ai lu de ne pas créer de fichier intermédiaire (.tar)
http://www.krazyworks.com/create-tar-and-pipe-through-gzip/
[^] # Re: curieux
Posté par Orwell . En réponse au message purger le cache RAM après archivage et zippage de gros dossiers. Évalué à 1.
En fait, la destination est un volume nfs , c'est pourquoi j'ai mis throttle -M10.
Maintenant c'est vrai que de faire un test à l'issue de ma commande c'est pas super intelligent de ma part étant donné que c'est une succession de 3 commande et que je pense en effet qu'il va évaluer uniquement le retour de la dernière commande.
maintenant je sais pas trop comment faire pour tester ET que le fichier est bien présent à la destination ( if [ -e $dirdst/$dir.tar.gz ] ) Et que l'archive est bien complète?
Pour le cache en fait c'est pas vraiment le cache mais la consommation RAM elle même qui augmente au bout de 2 ou 3 heures.
Sachant qua ça fait 3 jours que j'essaye de faire la copie mais que ça plante chaque fois à un endroit différent.
[^] # Re: limit inode
Posté par Orwell . En réponse au message purger le cache RAM après archivage et zippage de gros dossiers. Évalué à 1.
Là les volumes sont en EXT3 et il y a plein de petits fichiers jpeg et texte (+ de 60 millions)
[^] # Re: sync ?
Posté par Orwell . En réponse au message purger le cache RAM après archivage et zippage de gros dossiers. Évalué à 0.
Bonjour gUI,
Et comment puis-je utiliser sync ou autrement dit suis-je sur qu'après le tar | gzip le fichier est bien écrit?
Car j'ai lu sur sync qu'il fallait être sur que les données soient ecrites sur disk avant d'utiliser sync.
Donc si je fais ça
tar -zcvf $dir | throttle -M 10 | gzip > $dirdst/$dir.tar.gz && sync
est-ce bon ?
Merci, je sais que ce que je dis n'est pas très clair mais c'est un peu le bordel dans ma tête.
[^] # Re: Hello
Posté par Orwell . En réponse au message question sur les inodes. Évalué à 1.
Merci de vos réponses.
Ca confirme ce que je pensais.
[^] # Re: 2 etages, 2 systeme.
Posté par Orwell . En réponse au message Comment est sélectionné le noeud d'un cluster HAPROXY ?. Évalué à 1.
Merci NeoX,
C'était pas tout à fait ma question. Mais c'est pas grave car dans l'explication que tu donnes j'ai appris qu'il y avait plusieurs mode de load balancing.
Jusqu'ici je ne m'était interessé que à round-robin.
D'ailleurs cela m’ammene une autre question.
En round robin si par exemple mon HAPROXY adresse une ferme de 4 noeud apache et que l'un d'eux tombe, est que HAPROXY continue à lui envoyer des paquets occasionnant 25 % de perte ou est-ce que il détecte qu'un noeud et mort et décide tout seul de l'éliminer?
[^] # Re: Keepalived
Posté par Orwell . En réponse au message Comment est sélectionné le noeud d'un cluster HAPROXY ?. Évalué à 2.
Par contre de ce que je comprends il n'existe pas de possibilité que plusieurs neoud d'un cluster HAPROXY ou LVS fonctionnent en actif-actif?
[^] # Re: Keepalived
Posté par Orwell . En réponse au message Comment est sélectionné le noeud d'un cluster HAPROXY ?. Évalué à 1.
Merci Benoit,
C'est parfait. Oui j'ai vu un peu de doc sur vrrp. il semble que se soit un peu le même principe que hsrp en plus efficace et plus rapide.
# Problème solutionné
Posté par Orwell . En réponse au message nginx:recv() failed (104: Connection reset by peer) while reading response header from upstream. Évalué à 1.
Bon mon probleme est résolu.
Il y avait plusieurs problèmes:
Le nginx se trouve derriere un FW qui faisait un NAT + un port forward du port 8443 vers 443 et dans l'URL je n'ai pas trouvé comment conserver le port à chaque appel HTTP.
J'ai donc choisi de faire une formward 443 vers 443 ainsi pas besoin de prciser le port dans l'URL.
Ensuite dans mon fichier de conf des "vhost" nginx j'avais fait un proxy pass en indiquant http://mysrv/myappli.
En virant le /myappli et en le faisant saisir dans l'url "virtuelle" les autres appel http en dehors de myappli fonctionnent.
# J'ai trouvé des histoire de buffer
Posté par Orwell . En réponse au message nginx:recv() failed (104: Connection reset by peer) while reading response header from upstream. Évalué à 1.
Voici mon fichier /etc/nginx/nginx.conf
user nginx;
worker_processes auto; # Set to number of CPU cores
error_log /var/log/nginx/error.log;
pid /run/nginx.pid;
events {
worker_connections 2048;
use epoll;
multi_accept on;
}
http {
include /etc/nginx/mime.types;
default_type application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log /var/log/nginx/access.log main;
sendfile on;
keepalive_timeout 65;
keepalive_requests 100000;
tcp_nopush on;
tcp_nodelay on;
client_body_buffer_size 128k;
client_max_body_size 10m;
client_header_buffer_size 1k;
large_client_header_buffers 4 4k;
output_buffers 1 32k;
postpone_output 1460;
client_header_timeout 3m;
client_body_timeout 3m;
send_timeout 3m;
open_file_cache max=1000 inactive=20s;
open_file_cache_valid 30s;
open_file_cache_min_uses 5;
open_file_cache_errors off;
gzip on;
gzip_min_length 1000;
gzip_buffers 4 4k;
include /etc/nginx/conf.d/*.conf;
index index.html index.htm;
}
[^] # Re: Je pense que tu peux y aller
Posté par Orwell . En réponse au message Y a-t'il un lien entre IP publique et certificat wildcard ?. Évalué à 1.
ok finalement j'ai réussi sans trop de souci
J'ai mis le .cer et le .key dans /etc/nginx/ssl/monsite/ et j'ai ajouter les chemins dans /etc/nginx/conf.d/reverseproxy.conf.
Merci pour votre aide
[^] # Re: Je pense que tu peux y aller
Posté par Orwell . En réponse au message Y a-t'il un lien entre IP publique et certificat wildcard ?. Évalué à 1.
Ok, merci à vous deux.
Je vais me renseigner sur la licence du certificat.
Pour le reste il me sera difficile de copier la conf depuis le serveur hébergeur c'est un debian 6 / apache2 et le serveur chez moi c'est un centos7/nginx.
En plus de ça je ne comprends pas grand chose aux histoire de certificat..
[^] # apache2 Cannot load /usr/lib/apache2/modules/libphp5
Posté par Orwell . En réponse au message Wiki fonctionne plus depuis upgrade de ubuntu. Évalué à 1.
Oui ils sont déjà dedans.
et quand je tappe a2enmod php5 , il me dit de redémarrer apache et après…
root@dw-wiki:~# service apache2 restart
* Restarting Apache httpd web server apache2 [fail]
* The apache2 configtest failed.
Output of config test was:
apache2: Syntax error on line 140 of /etc/apache2/apache2.conf: Syntax error on line 1 of /etc/apache2/mods-enabled/php5.load: Cannot load /usr/lib/apache2/modules/libphp5.so into server: /usr/lib/apache2/modules/libphp5.so: undefined symbol: unixd_config
Action 'configtest' failed.
The Apache error log may have more information.
root@dw-wiki:~#
[^] # Re: help maintenant j'ai 404
Posté par Orwell . En réponse au message Wiki fonctionne plus depuis upgrade de ubuntu. Évalué à 1.
Merci Bernez,
En effet lorsque je modifie le documentRoot pour /var/www je tombe bien sur mon index.php.
Par contre je reviens à mon pb du début, le php est affiché à l'écran mais pas interprété…
Une idée??
[^] # Re: configuration apache + php
Posté par Orwell . En réponse au message Wiki fonctionne plus depuis upgrade de ubuntu. Évalué à 1.
Je viens de regarder dans le /etc/php5/apache2/php.ini et le short_open_tag = on est bien décommenté
[^] # help maintenant j'ai 404
Posté par Orwell . En réponse au message Wiki fonctionne plus depuis upgrade de ubuntu. Évalué à 1.
Merci de vos réponses.
Bon je ne sais pas comment je me suis démerdé mais j'ai maintenant un erreur 404 quand je tappe http://wiki.
Le message est
Not Found
The requested URL /mediawiki/index.php was not found on this server.
Apache/2.4.7 (Ubuntu) Server at wiki Port 80
Pourtant le fichier index.php est bien là
root@dw-wiki:~# ls -l /var/www/mediawiki
total 416
-rw-r--r-- 1 www-data root 825 janv. 12 2012 AdminSettings.sample
-rw-r--r-- 1 www-data root 1316 janv. 12 2012 api.php
drwxr-xr-x 2 www-data root 4096 janv. 12 2012 bin
-rw-r--r-- 1 www-data root 17997 janv. 12 2012 COPYING
drwxr-xr-x 4 www-data root 4096 janv. 12 2012 docs
drwxr-xr-x 3 www-data root 4096 janv. 12 2012 extensions
-rw-r--r-- 1 www-data root 162 janv. 12 2012 FAQ
-rw-r--r-- 1 www-data root 175294 janv. 12 2012 HISTORY
drwxrwxrwx 21 www-data www-data 4096 sept. 2 2013 images
-rw-r--r-- 1 www-data root 1925 janv. 12 2012 img_auth.php
drwxr-xr-x 7 www-data root 24576 mai 18 00:02 includes
-rw-r--r-- 1 www-data root 1756 janv. 12 2012 index.php
-rw-r--r-- 1 www-data root 3992 janv. 12 2012 INSTALL
-rw-r--r-- 1 www-data root 3899 janv. 12 2012 install-utils.inc
drwxr-xr-x 4 www-data root 4096 janv. 12 2012 languages
drwxr-xr-x 2 www-data root 4096 janv. 12 2012 locale
-rw-r--r-- 1 www-data root 4498 sept. 2 2013 LocalSettings.php
-rw-r--r-- 1 www-data root 4273 janv. 12 2012 LocalSettings.php.ori
drwxr-xr-x 9 www-data root 4096 janv. 12 2012 maintenance
-rw-r--r-- 1 www-data root 27 janv. 12 2012 Makefile
drwxr-xr-x 2 www-data root 4096 janv. 12 2012 math
-rw-r--r-- 1 www-data root 1532 janv. 12 2012 opensearch_desc.php
-rw-r--r-- 1 www-data root 6173 janv. 12 2012 profileinfo.php
-rw-r--r-- 1 www-data root 3535 janv. 12 2012 README
-rw-r--r-- 1 www-data root 319 janv. 12 2012 redirect.php
-rw-r--r-- 1 www-data root 91 janv. 12 2012 redirect.phtml
-rw-r--r-- 1 www-data root 42031 janv. 12 2012 RELEASE-NOTES
drwxr-xr-x 2 www-data root 4096 janv. 12 2012 serialized
drwxr-xr-x 9 www-data root 4096 janv. 12 2012 skins
-rw-r--r-- 1 www-data root 605 janv. 12 2012 StartProfiler.php
drwxr-xr-x 3 www-data root 4096 janv. 12 2012 t
drwxr-xr-x 2 www-data root 4096 janv. 12 2012 tests
-rw-r--r-- 1 www-data root 2393 janv. 12 2012 thumb.php
-rw-r--r-- 1 www-data root 1270 janv. 12 2012 trackback.php
-rw-r--r-- 1 www-data root 12816 janv. 12 2012 UPGRADE
-rw-r--r-- 1 www-data root 88 janv. 12 2012 wiki.phtml
Le access.log dit pas grand chose de plus
10.33.75.186 - - [19/May/2016:01:02:59 +0200] "GET /mediawiki/index.php HTTP/1.1" 404 502 "http://wiki/" "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.85 Safari/537.36"
10.33.75.186 - - [19/May/2016:01:02:59 +0200] "GET /favicon.ico HTTP/1.1" 404 493 "http://wiki/mediawiki/index.php" "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.85 Safari/537.36"
Mon Vhost est ecrit comme ça:
# The ServerName directive sets the request scheme, hostname and port that
# the server uses to identify itself. This is used when creating
# redirection URLs. In the context of virtual hosts, the ServerName
# specifies what hostname must appear in the request's Host: header to
# match this virtual host. For the default virtual host (this file) this
# value is not decisive as it is used as a last resort host regardless.
# However, you must set it for any further virtual host explicitly.
ServerName wiki.asso.local
# For most configuration files from conf-available/, which areServerAdmin webmaster@localhost
DocumentRoot /var/www/mediawiki
# Available loglevels: trace8, ..., trace1, debug, info, notice, warn,
# error, crit, alert, emerg.
# It is also possible to configure the loglevel for particular
# modules, e.g.
#LogLevel info ssl:warn
ErrorLog ${APACHE_LOG_DIR}/error.log
CustomLog ${APACHE_LOG_DIR}/access.log combined
# enabled or disabled at a global level, it is possible to
# include a line for only one particular virtual host. For example the
# following line enables the CGI configuration for this host only
# after it has been globally disabled with "a2disconf".
#Include conf-available/serve-cgi-bin.conf
Au secours …
[^] # Re: configuration apache + php
Posté par Orwell . En réponse au message Wiki fonctionne plus depuis upgrade de ubuntu. Évalué à 1.
Merci,
J'ai bien réussi à réinstaller php5-common et libapache2-mod-php5 pour autant mon serveur continu à afficher le code php au lieu de l'interpréter.
Pensez vous que si je downgrade la version des packages php cela donnera qqchose de mieux?
[^] # Re: configuration apache + php
Posté par Orwell . En réponse au message Wiki fonctionne plus depuis upgrade de ubuntu. Évalué à 1.
Merci Marc,
J'ai essayé de le réinstaller et voici ce qu'il me dit.
root@dw-wiki:~# apt-get remove libapache2-mod-php5
Lecture des listes de paquets… Fait
Construction de l'arbre des dépendances
Lecture des informations d'état… Fait
Package 'libapache2-mod-php5' is not installed, so not removed
0 mis à jour, 0 nouvellement installés, 0 à enlever et 0 non mis à jour.
root@dw-wiki:~# apt-get install libapache2-mod-php5
Lecture des listes de paquets… Fait
Construction de l'arbre des dépendances
Lecture des informations d'état… Fait
Certains paquets ne peuvent être installés. Ceci peut signifier
que vous avez demandé l'impossible, ou bien, si vous utilisez
la distribution unstable, que certains paquets n'ont pas encore
été créés ou ne sont pas sortis d'Incoming.
L'information suivante devrait vous aider à résoudre la situation :
Les paquets suivants contiennent des dépendances non satisfaites :
libapache2-mod-php5 : Dépend: php5-common (= 5.5.9+dfsg-1ubuntu4) mais 5.2.10.dfsg.1-2ubuntu6 devra être installé
E: Impossible de corriger les problèmes, des paquets défectueux sont en mode « garder en l'état ».
root@dw-wiki:~#
[^] # Re: configuration apache + php
Posté par Orwell . En réponse au message Wiki fonctionne plus depuis upgrade de ubuntu. Évalué à 1. Dernière modification le 17 mai 2016 à 15:48.
Merci NeoX
Ci dessous la conf de mon vhost, le handler semble y être.
[^] # Re: configuration apache + php
Posté par Orwell . En réponse au message Wiki fonctionne plus depuis upgrade de ubuntu. Évalué à 2.
Merci Marc
voici les packages installés sur mon wiki
root@dw-wiki:~# dpkg --get-selections | grep php
libapache2-mod-php5 deinstall
php-pear install
php5-cli install
php5-common install
php5-curl install
php5-gd install
php5-imap install
php5-memcache install
php5-mysql install
php5-xsl install
root@dw-wiki:~#
[^] # Re: To protect and to serve
Posté par Orwell . En réponse au message Mysql piraté. Évalué à 1.
Salut,
Merci beaucoup pour ses explications.
Mon stage chez eux est terminé mais j'ai gardé des contacts je leur demanderai si ça se produit encore. Dans ce cas je leur dirai ce que tu m'as conseillé.
[^] # Re: Forum Programmation.SQL— Mysql piraté
Posté par Orwell . En réponse au message Mysql piraté. Évalué à 1.
Euh, en fait y a un truc genre F5 ensuite si j'ai bien compris 2 apaches et sur les apaches mysql est installé aussi.
Je sais pas comment les 2 mysql communiquent entre aux, s'ils se répliquent genre master<=>master.
Sinon non il est pas directement ouvert sur l'extérieur.