Forum Programmation.shell Cherche a envoyer un fichier en focntione d'un autre fichier

Posté par  . Licence CC By‑SA.
Étiquettes : aucune
0
7
juil.
2021

Bonjour,

Je suis vraiment largué coté bash :(

j'ai réussi à faire un petit truc basico basique:

    #lecture du fichier de logs squid pour transofrmation en fichier separe par des virgules

    awk '{ print $1","$2","$3","$4","$5","$6","$7","$8","$9","10 }' /var/log/squid/access.log  > /tmp/access.csv

    azcopy cp /tmp/access.csv "trucmachinchoseazure"

    rm /tmp/access.csv

J'ai mis une crontab en full * pour un envoi en temps réel

Et maintenant j'ai besoin de séparer les envois.

il faudrait que je n'envois que la différence entre 2 envois

14h00 j'envoi les csv1
14h05 j'envoi le csv contenant les 5mn de log

Mais là, je suis perdu dans ce que je peux faire…

Si vous avez une idée, je suis preneur ^

merci

  • # 2 choses

    Posté par  . Évalué à 4 (+2/-0).

    toutes les 5 minutes en cron :
    sh
    */5 * * * * user /chemin/vers/lescript

    ensuite dans ton script

    au lieu de faire le rm du fichier cdv
    copie le en .precedent

    et utilise diff access.csv access.precedent

    avec quelques options à diff, tu trouveras un format qui te permet de n'avoir que ce qui a changé entre les 2 fichiers

    ton script deviendrait alors

    # l'extraction ne change pas, sauf la destination (.csv => .current)
    #lecture du fichier de logs squid pour transofrmation en fichier separe par des virgules
    awk '{ print $1","$2","$3","$4","$5","$6","$7","$8","$9","10 }' /var/log/squid/access.log  > /tmp/access.current
    
    # nouvelle instruction, si le fichier precedent existe
    if [[ -e access.precedent ]]
    then
       # calculer la difference entre le precedent et le nouveau fichier
       diff /tmp/access.current /tmp/access.precedent >/tmp/access.csv
    else
       mv /tmp/access.current /tmp/access.csv
    fi
    # fait l'envoi comme avant
        azcopy cp /tmp/access.csv "trucmachinchoseazure"
    
    # modification de cette partie
        #rm /tmp/access.csv
    mv /tmp/access.csv /tmp/access.precedent
    • [^] # Re: 2 choses

      Posté par  . Évalué à 2 (+1/-0).

      Au lieu de :mv /tmp/access.current /tmp/access.csv
      tu voulais dire : mv /tmp/access.current /tmp/access.precedent
      je crois

      Sinon, s'il s'agit du fichier qui est tourné quand il fait 5Go, faire un diff est pas super efficace.
      De mémoire, il y a un outil qui permet de faire un tail mais en partant de la position précédente, je retrouve pas le nom (pflogsumm fait ça mais c'est pour postfix).


      Je ferais un truc un peu différent, par exemple tourner les logs toutes les n minutes avec logrotate, et utiliser la fonction @script@ de logrotate pour envoyer le log sur Azure.


      Ou encore :

      Aussi, tu peux demander à Squid d'envoyer ses logs par syslog, et si tu utilises rsyslog, tu peux faire des noms de fichiers de log dynamiques.

      Par exemple cette conf rsyslog produit un fichier par jour, rangé dans un répertoire à la date du jour (je dois garder un an de logs, donc j'ai 365 fichiers de logs par équipement réseau) :

      # Store network logs in YEAR/MONTH/DAY/HOSTNAME.log files
      
      module(load="imudp")
      input(type="imudp" port="514")
      
      template (name="FileFromHostname" type="string" string="/var/log/network/%$year%/%$month%/%$day%/%HOSTNAME%.log")
      
      Input (type="imudp" port="514" ruleset="switchs")
      
      Ruleset (name="switchs") {
          Action (type="omfile" dynaFile="FileFromHostname")
          stop
      }
      

      Si tu change le template pour découper par minute, tu peux ensuite dans ton cron ne traiter que les fichiers les plus récents (conversion + envoi azure + suppression).

      Tu peux même demander à rsyslog de faire en plus un gros fichier (qui sera découpé par logrotate quand il devient trop gros) si tu as besoin de garder les logs sous la main en local, et des petits fichiers par minutes, qui seront supprimés par ton processus d'envoi sur Azure.

      (je sais pas si je suis hyper clair là en fait)


      Aussi, si les logs vont vers le journal de systemd (en direct ou via syslog), tu peux faire des extractions par date et par unit avec journalctl, ce qui semble assez pratique en l’occurrence.


      Voilà pour mes 2 cents, bon amusement ;)

      • [^] # Re: 2 choses

        Posté par  . Évalué à 2 (+1/-0).

        L'avantage de rsyslog c'est que tu peux aussi faire la transformation au format qui convient immédiatement avant envoi … Pas besoin de transformtion avec un script externe …

    • [^] # Re: 2 choses

      Posté par  . Évalué à 1 (+0/-0).

      Tout marche,et je t'en remercie ;)

      si je devais envoyer les 2 fichiers en meme temps, penses tu que rajouter une ligne cp avec le ficher (precedent) marcherait?
      Thks

  • # logrotate

    Posté par  . Évalué à 4 (+3/-0). Dernière modification le 08/07/21 à 00:26.

    Bonjour

    Est-ce qu'il ne vaudrait pas mieux lancer une commande logrotate avec son option --force pour repartir sur un nouveau fichier log qui pourra ensuite être utilisé pour le prochain envoi.
    Ça éviterai d'avoir à faire un diff

    • [^] # Re: logrotate

      Posté par  . Évalué à 2 (+1/-0).

      Perso dans ce cas de figure, j'utiliserais un outil de gestion de logs (rsyslog ou syslog-ng) pour formatter les logs, et les envoyer vers une queue de message qui s'assurerait de l'envoi en temps réel.

      Je pense que Azure devrait permettre d'utiliser ce genre de service. Et ezn configurant l'outil de gestion de logs pour qu'il fasse tampon en cas de perte de connectivité avec azure, c'est tout benef.

      Rsyslog, dans sa version libre, permet de monitorer un dossier, et d'envoyer les logs générés dans ce dossier vers le réseau. Cette technique est plus fiable que l'utilisation directe nginx=>syslog=>réseau, car si le daemon syslog tombe, il est capable à la repise de savoir ou il en était dans l'envoi de logs et de ne reprtendre que les logs qu'il n'a pas traité.

      Je ne sasis pas si rsyslog mplémente cette fonctionnalité.

  • # pas de rotation, juste un envoi d'informations vers azure

    Posté par  . Évalué à 1 (+0/-0). Dernière modification le 08/07/21 à 12:49.

    Bonjour,

    merci de vos retours.
    non non ce n'est pas pour faire tourner les logs, la je recupere les logs d'accès de squid (access.log) que je découpe avec awk (je pourrais le faire en tif avec squid mais j'ai besoin qu'un autre programme lise des logs sous un autre format), je les envoi vers un csv qui est lui meme envoyé à un blob azure.
    Un collaborteur récupère ces logs et les mets dans un powerBI pour en fait des jolis graphiques qui plaisent ;)

    J'ai vu plusieuirs piste ici a creuser ;)

    je vais donc prendre ma pelle et fouiller ca ;)

    Thks a lot

  • # Commentaire supprimé

    Posté par  . Évalué à -1 (+0/-2). Dernière modification le 16/07/21 à 15:06.

    Ce commentaire a été supprimé par l’équipe de modération.

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n’en sommes pas responsables.