J'ai deux laptops sous kde neon, une en version "user edition" avec la dernière release officielle de kde5, l'autre installée avec la "developer edition git-stable". La première fonctionne très bien mais la seconde est à peine utilisable. En gros un apt upgrade sur deux tu te retrouves dans une version tellement instable de plasmashell que si tu veux bosser t'as intérêt à le killer parce qu'il te bouffe tout ton cpu. Ça perd vite de son intérêt.
Du coup je vais virer ce kde neon developer-edition, ça n'a effectivement d'intérêt que pour le dev kde qui veut débugger.
En même temps l'intérêt de la blague sur les spoilers du Sixième Sens c'est justement que dès les 5 premières minutes tout le monde en connaissait la fin.
J'ai parcouru tes liens et si je ne me trompe pas, seul le 3e lien (zfsbackup) n'exige pas que la machine où on envoie les backups soit aussi avec un filesystem ZFS. Les autres utilisent "ZFS send" et nécessite que le FS qui reçoit soit aussi en ZFS.
Oui parce que c'est plus commode et que cela permet en même temps de valider l'intégrité des données. Mais ce n'est pas obligatoire en tant que tel si le seul but est de pouvoir faire du disaster recovery par exemple.
j'avoue que je suis très très dubitatif sur le fait d'envoyer les snapshots sur une machine qui n'est pas elle-aussi en ZFS.
Faut voir ça comme une méthode d'externalisation des données à moindre coût, un peu comme quand on dupliquait des bandes magnétiques et qu'on les envoyait sur un autre site, un coffre fort de banque ou autre. C'est aussi valable pour de l'archivage. Quand t'envoies tes données sur Amazon Glacier par exemple, tu ne t'attends pas à pouvoir les restaurer à la minute non plus.
J'ai utilisé ce genre de méthode sur des machines solaris (mais sans la partie chiffrement) dans divers cas :
-dumps de bases de données
-sauvegarde de données alfresco
Faut savoir que des grosses instances alfresco, ça peut vite représenter des millions de fichiers avec beaucoup qui font moins de 1k. Avec un accès au fichier "standard" un backup est beaucoup trop long (faut oublier de faire un ls aussi). Du coup les sauvegardes à base de snapshot et d'envoi de snapshot sont très pertinentes dans ce cas. Le corrolaire c'est que tu ne peux pas restaurer un fichier individuellement mais c'est de toute façon pas un cas qui s'applique étant donné que la gestion de version fait partie du logiciel, la sauvegarde n'a de sens que pour se prévenir d'une panne/corruption de données.
L'intérêt c'est essentiellement l'instantanéité d'un backup par snapshot associé à la capacité de les envoyer à distance et ce même sous forme incrémentale.
Non tu peux envoyer des snapshots sous forme de fichiers. Vu que le contenu est dédupliqué les snapshots incrémentaux ne devraient pas être gros donc même si les fichiers qui finissent sur le stockage distant ne sont eux-même pas dédupliqués le bénéfice existe encore.
Le point noir de ce genre de truc dépendant des fonctionnalités comme zfs c'est qu'une fois que les données sont parties sous forme de snapshots tu ne peux pas y accéder directement. Tu dois restaurer les snaps sur un pool zfs pour avoir accès aux fichiers finaux. Ça va si tu n'as pas besoin que tes utilisateurs puissent directement demander l'accès à tel ou tel fichier individuellement.
On est d'accord que si tu dédup et chiffres dans le FS après envoi c'est dans un cas où justement tu maitrises et gère le stockage final.
Cela-dit dans un cas où tu as plus d'une poignée machines à sauvegarder en général tu as un système de backup tampon à court terme en local, donc il n'est pas inimaginable si on reprend l'exemple de zfs de dédupliquer et chiffrer sur un serveur local qui après envoie ses snapshots dans le cloud.
De toute façon la réalité c'est que la dedup n'est as forcément une solution très pertinente en terme de coût.
Pour le cas de ZFS il faut savoir que toute ce qui est dedup/chiffrement/compression se fait au niveau block et pas au niveau fichier sous ZFS donc il est tout à fait possible d'activer à la fois le chiffrement et la deduplication en même temps.
Bref il faut tester avec des jeux de données réalistes et connaitre où on veut placer le curseur entre performances (toutes les tables de dedup en mémoire) ou coût et utilisation mémoire réduite (cache sur disques rapides ssd).
Et le tout dépend des fluctuations entre prix de la ram et prix du stockage.
Cela-dit la dedup n'est pas possible que via zfs et btrfs. Il existe aussi d'autres solutions que je n'ai pas testé comme opendedup, lessfs ou permabit VDO.
Comme je le dis il y'a deux écoles. En gros plus ton infra est robuste (réseau et stockage rapide, serveurs puissant et bien dotés en ram), plus tu auras tendance à déléguer ça à la couche FS. Si par contre tu backup via du wifi, des lignes lentes et un stockage pas très rapide sur un nas lowcost tu préferas probablement faire la dedup en amont (typiquement le backup à la maison).
Il y'a deux écoles mais personnellement je préfère que mon logiciel de backup soit "bête et méchant" à ce niveau là et déléguer la fonctionnalité de deduplication à la couche FS.
Cependant j'ai essayé de participer et le mainteneur d'Obnam m'avait semblé vraiment « spécial ». Voir par exemple cet échange que j'ai eu avec lui à l'époque quand il a demandé de l'aide.
Ben j'ai l'impression que ta participation était à côté de la plaque plus que lui était spécial. Il demandait si des gens étaient motivés à maintenir et hoster un issue tracker, tu lui envoies une palanquées d'outils dont tu as juste entendu parler et lui demande s'il peut fournir le serveur. Il demande si quelqu'un a envie d'écrire des bouts de manuels à partir d'use cases parce qu'il manque de temps et tu lui demandes de faire une recherche sur des manuels qui lui plaisent. Bref j'ai l'impression qu'il s'est dit que tu partais dans tous les sens sans avoir pris le temps de lire son message initial et que tu allais lui faire perdre plus de temps que d'en gagner.
Après le mainteneur en question est finlandais et pour avoir une vague connaissance de la culture finlandaise leur façon de s'exprimer, souvent très directe et avec le minimum d'argumentation possible, peut souvent paraître un peu rude aux personnes qui n'en ont pas l'habitude.
Elles l'auraient déjà fait si elles étaient intéressées je pense.
Le truc c'est que :
-un compte microsoft est nécessaire pour utiliser le store
-corrige-moi si je me trompe mais une application installée depuis le store n'est installée à ma connaissance que dans le profil de l'utilisateur
-le windows store est typiquement le truc désactivé en entreprise alors que le framework OneGet pourrait continuer à fonctionner et s'intègrera facilement aux différents outils de managements
Ce qui manquait clairement chez MS c'était d'incorporer un mécanisme de facilitation des mises à jours des applis sous windows. Ça a été résolu maintenant avec [url=https://github.com/OneGet/oneget]OneGet/Powershell PackageManagement[/url] mais on peut dire que tant Microsoft que les éditeurs de logiciels se sont fait prendre de vitesse par les initiatives communautaires libres comme [url=https://chocolatey.org/]Chocolatey[/url].
On verra si la recette prendra et si les éditeurs de logiciels sous windows deviendront eux-même contributeurs à chocolatey et/ou fourniront des repos OneGet pour faciliter la vie des utilisateurs.
ext c'est très bien pour tout le monde jusqu'au jour où on se rendu compte qu'on a oublié de désactiver le fsck automatique au bout de x mount/jours et qu'on va devoir taper quelques heures d'attente alors qu'on pensait juste faire un reboot de quelques secondes/minutes.
Le truc c'est que ce procès ne va pas clarifier quoique ce soit au sujet de la GPL ni servir de jurisprudence. Au mieux ce procès va juste définir si c'est de la diffamation ou pas. On ne sera donc pas plus avancé à la fin, à part savoir si on peut publiquement rentrer dans le lard de grsecurity sans risque.
[^] # Re: KDE presque un 10 sur 10 comme DE.
Posté par Psychofox (Mastodon) . En réponse à la dépêche Nouvelles de KDE (saison 2016-2017). Évalué à 2.
J'ai deux laptops sous kde neon, une en version "user edition" avec la dernière release officielle de kde5, l'autre installée avec la "developer edition git-stable". La première fonctionne très bien mais la seconde est à peine utilisable. En gros un apt upgrade sur deux tu te retrouves dans une version tellement instable de plasmashell que si tu veux bosser t'as intérêt à le killer parce qu'il te bouffe tout ton cpu. Ça perd vite de son intérêt.
Du coup je vais virer ce kde neon developer-edition, ça n'a effectivement d'intérêt que pour le dev kde qui veut débugger.
[^] # Re: Le spoiler...
Posté par Psychofox (Mastodon) . En réponse au journal [Btrfs et openSUSE] Épisode 1 : sous‐volumes, snapshots et rollbacks. Évalué à 4.
Je pense qu'il y'en a deux trois qui sont vexés parce qu'ils n'avaient encore rien compris au film 20ans après.
[^] # Re: Le spoiler...
Posté par Psychofox (Mastodon) . En réponse au journal [Btrfs et openSUSE] Épisode 1 : sous‐volumes, snapshots et rollbacks. Évalué à -1.
En même temps l'intérêt de la blague sur les spoilers du Sixième Sens c'est justement que dès les 5 premières minutes tout le monde en connaissait la fin.
[^] # Re: Pas trop étonné
Posté par Psychofox (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 3.
Oui parce que c'est plus commode et que cela permet en même temps de valider l'intégrité des données. Mais ce n'est pas obligatoire en tant que tel si le seul but est de pouvoir faire du disaster recovery par exemple.
Faut voir ça comme une méthode d'externalisation des données à moindre coût, un peu comme quand on dupliquait des bandes magnétiques et qu'on les envoyait sur un autre site, un coffre fort de banque ou autre. C'est aussi valable pour de l'archivage. Quand t'envoies tes données sur Amazon Glacier par exemple, tu ne t'attends pas à pouvoir les restaurer à la minute non plus.
[^] # Re: Pas trop étonné
Posté par Psychofox (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 2.
J'ai utilisé ce genre de méthode sur des machines solaris (mais sans la partie chiffrement) dans divers cas :
-dumps de bases de données
-sauvegarde de données alfresco
Faut savoir que des grosses instances alfresco, ça peut vite représenter des millions de fichiers avec beaucoup qui font moins de 1k. Avec un accès au fichier "standard" un backup est beaucoup trop long (faut oublier de faire un ls aussi). Du coup les sauvegardes à base de snapshot et d'envoi de snapshot sont très pertinentes dans ce cas. Le corrolaire c'est que tu ne peux pas restaurer un fichier individuellement mais c'est de toute façon pas un cas qui s'applique étant donné que la gestion de version fait partie du logiciel, la sauvegarde n'a de sens que pour se prévenir d'une panne/corruption de données.
L'intérêt c'est essentiellement l'instantanéité d'un backup par snapshot associé à la capacité de les envoyer à distance et ce même sous forme incrémentale.
Quelques autres exemples de cas d'usages, scripts ou outils se basant dessus :
http://royal.pingdom.com/2013/06/04/zfs-backup/
https://www.grendelman.net/wp/fast-frequent-incremental-zfs-backups-with-zrep/
http://mij.oltrelinux.com/devel/zfsbackup/
http://www.rsync.net/products/zfsintro.html
http://www.daveeddy.com/2015/12/05/automatic-zfs-snapshots-and-backups/
http://www.znapzend.org/
[^] # Re: Pas trop étonné
Posté par Psychofox (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 2.
Non tu peux envoyer des snapshots sous forme de fichiers. Vu que le contenu est dédupliqué les snapshots incrémentaux ne devraient pas être gros donc même si les fichiers qui finissent sur le stockage distant ne sont eux-même pas dédupliqués le bénéfice existe encore.
Le point noir de ce genre de truc dépendant des fonctionnalités comme zfs c'est qu'une fois que les données sont parties sous forme de snapshots tu ne peux pas y accéder directement. Tu dois restaurer les snaps sur un pool zfs pour avoir accès aux fichiers finaux. Ça va si tu n'as pas besoin que tes utilisateurs puissent directement demander l'accès à tel ou tel fichier individuellement.
[^] # Re: Pas trop étonné
Posté par Psychofox (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 2.
On est d'accord que si tu dédup et chiffres dans le FS après envoi c'est dans un cas où justement tu maitrises et gère le stockage final.
Cela-dit dans un cas où tu as plus d'une poignée machines à sauvegarder en général tu as un système de backup tampon à court terme en local, donc il n'est pas inimaginable si on reprend l'exemple de zfs de dédupliquer et chiffrer sur un serveur local qui après envoie ses snapshots dans le cloud.
De toute façon la réalité c'est que la dedup n'est as forcément une solution très pertinente en terme de coût.
[^] # Re: Pas trop étonné
Posté par Psychofox (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 3.
Pour le cas de ZFS il faut savoir que toute ce qui est dedup/chiffrement/compression se fait au niveau block et pas au niveau fichier sous ZFS donc il est tout à fait possible d'activer à la fois le chiffrement et la deduplication en même temps.
[^] # Re: Pas trop étonné
Posté par Psychofox (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 3. Dernière modification le 16 août 2017 à 12:35.
Sous ZFS le coût en terme de mémoire est de 320Bytes par block. Il faut connaître le nombre de block utilisé par les données, tout en sachant que sous ZFS la taille de block est dynamique :
http://www.oracle.com/technetwork/articles/servers-storage-admin/o11-113-size-zfs-dedup-1354231.html
http://constantin.glez.de/blog/2011/07/zfs-dedupe-or-not-dedupe
Bref il faut tester avec des jeux de données réalistes et connaitre où on veut placer le curseur entre performances (toutes les tables de dedup en mémoire) ou coût et utilisation mémoire réduite (cache sur disques rapides ssd).
Et le tout dépend des fluctuations entre prix de la ram et prix du stockage.
Cela-dit la dedup n'est pas possible que via zfs et btrfs. Il existe aussi d'autres solutions que je n'ai pas testé comme opendedup, lessfs ou permabit VDO.
[^] # Re: Pas trop étonné
Posté par Psychofox (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 3.
Comme je le dis il y'a deux écoles. En gros plus ton infra est robuste (réseau et stockage rapide, serveurs puissant et bien dotés en ram), plus tu auras tendance à déléguer ça à la couche FS. Si par contre tu backup via du wifi, des lignes lentes et un stockage pas très rapide sur un nas lowcost tu préferas probablement faire la dedup en amont (typiquement le backup à la maison).
[^] # Re: Pas trop étonné
Posté par Psychofox (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 2.
Il y'a deux écoles mais personnellement je préfère que mon logiciel de backup soit "bête et méchant" à ce niveau là et déléguer la fonctionnalité de deduplication à la couche FS.
[^] # Re: le titre
Posté par Psychofox (Mastodon) . En réponse à la dépêche Suricata 4.0 : la détection d’intrusion en mode hipster. Évalué à 2.
J'aurais tendance à dire que s'il y'a un langage qui attirerait les hipster ce serait un truc style Fortran ou Cobol.
[^] # Re: Quelques précisions
Posté par Psychofox (Mastodon) . En réponse au journal [Btrfs et openSUSE] Épisode 0 : l’ex‐fs du futur. Évalué à 2.
Est-ce qu'il est inclu sous forme binaire ou compilé à chaque installation/maj. Ça change tout du point de vue respect de la licenve.
# le titre
Posté par Psychofox (Mastodon) . En réponse à la dépêche Suricata 4.0 : la détection d’intrusion en mode hipster. Évalué à 2.
Quelqu'un peux m'expliquer le titre de la dépêche ?
[^] # Re: Pas trop étonné
Posté par Psychofox (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 8.
Ben j'ai l'impression que ta participation était à côté de la plaque plus que lui était spécial. Il demandait si des gens étaient motivés à maintenir et hoster un issue tracker, tu lui envoies une palanquées d'outils dont tu as juste entendu parler et lui demande s'il peut fournir le serveur. Il demande si quelqu'un a envie d'écrire des bouts de manuels à partir d'use cases parce qu'il manque de temps et tu lui demandes de faire une recherche sur des manuels qui lui plaisent. Bref j'ai l'impression qu'il s'est dit que tu partais dans tous les sens sans avoir pris le temps de lire son message initial et que tu allais lui faire perdre plus de temps que d'en gagner.
Après le mainteneur en question est finlandais et pour avoir une vague connaissance de la culture finlandaise leur façon de s'exprimer, souvent très directe et avec le minimum d'argumentation possible, peut souvent paraître un peu rude aux personnes qui n'en ont pas l'habitude.
[^] # Re: A quoi sert vraiment cette clause ?
Posté par Psychofox (Mastodon) . En réponse au journal Grsecurity attaque Bruce Perens en justice pour diffamation. Évalué à 3.
Ça reste à prouver et c'est justement le sujet de ce procès. Tu es toi-même dans la diffamation là.
[^] # Re: git-repo ?
Posté par Psychofox (Mastodon) . En réponse à la dépêche tsrc — un gestionnaire de dépôts git. Évalué à 2.
À un moment donné il va falloir les lâcher windows 7 et 8 cela-dit, dans moins de 3 ans c'est out.
[^] # Re: git-repo ?
Posté par Psychofox (Mastodon) . En réponse à la dépêche tsrc — un gestionnaire de dépôts git. Évalué à 2. Dernière modification le 08 août 2017 à 13:25.
Soit dit en passant si ça tourne sur le WSL (ce qui est très probablement le cas), c'est supporté par windows.
[^] # Re: Haute trahison ?
Posté par Psychofox (Mastodon) . En réponse à la dépêche Le développeur libriste Bassel Khartabil exécuté dans une prison syrienne fin 2015. Évalué à 2. Dernière modification le 08 août 2017 à 13:08.
Des répressions sanglantes.
[^] # Re: Les quatre libertés des logiciels libres
Posté par Psychofox (Mastodon) . En réponse au journal Grsecurity attaque Bruce Perens en justice pour diffamation. Évalué à 2.
Non c'est une rupture de contrat.
[^] # Re: Preuve de travail
Posté par Psychofox (Mastodon) . En réponse au journal Hardfork du Bitcoin : bienvenue au Bitcoin Cash. Évalué à 3.
et de jeans.
[^] # Re: 3 mois pour migrer ?
Posté par Psychofox (Mastodon) . En réponse à la dépêche Mageia 6 est sortie. Évalué à 2.
Elles l'auraient déjà fait si elles étaient intéressées je pense.
Le truc c'est que :
-un compte microsoft est nécessaire pour utiliser le store
-corrige-moi si je me trompe mais une application installée depuis le store n'est installée à ma connaissance que dans le profil de l'utilisateur
-le windows store est typiquement le truc désactivé en entreprise alors que le framework OneGet pourrait continuer à fonctionner et s'intègrera facilement aux différents outils de managements
[^] # Re: 3 mois pour migrer ?
Posté par Psychofox (Mastodon) . En réponse à la dépêche Mageia 6 est sortie. Évalué à 2.
Ce qui manquait clairement chez MS c'était d'incorporer un mécanisme de facilitation des mises à jours des applis sous windows. Ça a été résolu maintenant avec [url=https://github.com/OneGet/oneget]OneGet/Powershell PackageManagement[/url] mais on peut dire que tant Microsoft que les éditeurs de logiciels se sont fait prendre de vitesse par les initiatives communautaires libres comme [url=https://chocolatey.org/]Chocolatey[/url].
On verra si la recette prendra et si les éditeurs de logiciels sous windows deviendront eux-même contributeurs à chocolatey et/ou fourniront des repos OneGet pour faciliter la vie des utilisateurs.
[^] # Re: Juste une histoire de ressources de développement
Posté par Psychofox (Mastodon) . En réponse au journal Btrfs ne serait plus le futur. Évalué à 2. Dernière modification le 04 août 2017 à 15:17.
ext c'est très bien pour tout le monde jusqu'au jour où on se rendu compte qu'on a oublié de désactiver le fsck automatique au bout de x mount/jours et qu'on va devoir taper quelques heures d'attente alors qu'on pensait juste faire un reboot de quelques secondes/minutes.
[^] # Re: Diffamation vs opinion
Posté par Psychofox (Mastodon) . En réponse au journal Grsecurity attaque Bruce Perens en justice pour diffamation. Évalué à 3. Dernière modification le 04 août 2017 à 15:12.
Oui je voulais dire « non équivoque ».
Le truc c'est que ce procès ne va pas clarifier quoique ce soit au sujet de la GPL ni servir de jurisprudence. Au mieux ce procès va juste définir si c'est de la diffamation ou pas. On ne sera donc pas plus avancé à la fin, à part savoir si on peut publiquement rentrer dans le lard de grsecurity sans risque.