Depuis quelques années la virtualisation sous toutes ses formes est devenue l'alpha et l'oméga de l'informatique, elle a révolutionné en quelques années la manière d'administrer les serveurs et de gérer les données. Cette dépêche est un essai de vulgarisation sur la virtualisation pour en exposer ses grands principes techniques, ses avantages et inconvénients et ses enjeux sous-jacents.
Journal Écrire un livre à deux : Haute Disponibilité sous Linux, des prémices à la sortie
En juillet 2020, LinuxFR m’avait fait un grand honneur en m’interviewant dans le contexte de la sortie de la sixième édition de mon livre sur l’administration Linux. Une question concernait la coécriture, (l’écriture à plusieurs auteurs) et j’avais indiqué que j’avais proposé ce projet à un ami, sur une sujet devenu compliqué. Un an après, le résultat de cette collaboration a été publié !
L'interview initial
Charles Sabourdin et moi avons donc la joie de vous annoncer le résultat de (…)
Arkiv : Sauvegarde de fichiers et bases MySQL + archivage sur Amazon S3 et Amazon Glacier
Pour mes besoins personnels et professionnels, j’ai développé un script pour sauvegarder mes données (fichiers présents sur le disque local et bases de données MySQL) et les archiver sur Amazon S3 et Amazon Glacier.
Il est possible de choisir la fréquence de sauvegarde (jusque toutes les heures si nécessaire) et de définir une politique précise pour la purge des données. Il est ainsi possible d’avoir un comportement du type :
- sauvegarde toutes les heures : les données sont enregistrées en local et envoyées sur Amazon S3 et Amazon Glacier ;
- toutes les sauvegardes sont gardées en local pendant deux jours, puis on garde quatre sauvegardes par jour (une toutes les six heures) pendant cinq jours, puis une par jour pendant deux semaines, puis elles sont effacées ;
- toutes les sauvegardes sont gardées sur Amazon S3 pendant deux semaines, puis on garde six sauvegardes par jour (une toutes les quatre heures) pendant deux semaines, puis deux par jour pendant un mois, puis elles sont effacées ;
- toutes les données sont gardées sans limite de temps sur Amazon Glacier.
Le choix des services cloud d’Amazon se veut pragmatique. Amazon S3 est très utilisé pour stocker des données auxquelles on veut pouvoir accéder rapidement. Amazon Glacier est très pratique pour enregistrer des données sur le long terme pour un coût très bas.
Ce script propose une interface de configuration en ligne de commande qui se veut facile à utiliser. Les fichiers journaux se veulent aussi les plus lisibles possibles.
Lien Les réseaux de FDN et Gitoyen sont bloqués par Amazon Web Services (AWS), YouTube et Engie

Amazon OpenSearch - fruit d'une rivalité avec Elastic ?
Pour faire écho à Elastic, qui a changé la licence de ses produits Elasticsearch (moteur de recherche) et Kibana (visualisation de données), Amazon vient d’annoncer il y a peu la sortie de son produit OpenSearch en open-source, un fork de ces deux produits.
Lien Bye bye Mongo, Hello Postgres

Lien Des centaines de milliers de Volkswagen suivies à la trace sur AWS
Lien sudo & su Being Rewritten In Rust For Memory Safety - phoronix

Lien Meta a partagé au moins 267,4 téraoctets de "bibliothèques pirates" par BitTorrent

Lien AWS fork Elastic Search qui n'est plus sous licence Apache

Lien AWS se sent tout mou

Lien En finir avec Doctolib

Journal Serveurs S3 sous linux : une comparaison parmi tant d'autres
Bonjour,
On parle de plus en plus de stockage objet, et donc, j'ai décidé de regarder tout ceci d'un point de vue "informatique personnel", et donc mon choix s'est porté sur 2 softs que j'ai trouvé (si vous en avez d'autres à proposer, je répète, pour "informatique personnel", donc pas ceph ni de solutions à base de k8s )
Le premier est un container docker lancé par la start up Français Scality: S3server:
Scality S3 server
Le second est un (…)
Forum général.général Remplacement d'Hubic, ou, comment stocker des données à vil prix dans le cloud
Plop les moules,
je ne sais pas si vous savez, mais ça fait plus de deux mois que le service Hubic d'Octave est complètement pété. Erreurs 503 sur erreurs 503, toutes les solutions de backup se viandent, même les clients officiels, même en lecture. Un passage sur le twitter d'Hubic est édifiant. Cela se produit bizarrement juste au moment où Hubic a arrêté de prendre de nouveaux abonnées (mais promis juré pour les anciens, c'est toujours bon) et cherche un (…)
Lien AWS soupçonné d'avoir remplacé 40% de ses DevOps avec de l'IA quelques jours avant son propre crash



