Psychofox a écrit 10948 commentaires

  • [^] # Re: Le spoiler...

    Posté par  (Mastodon) . En réponse au journal [Btrfs et openSUSE] Épisode 1 : sous‐volumes, snapshots et rollbacks. Évalué à -1.

    En même temps l'intérêt de la blague sur les spoilers du Sixième Sens c'est justement que dès les 5 premières minutes tout le monde en connaissait la fin.

  • [^] # Re: Pas trop étonné

    Posté par  (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 3.

    J'ai parcouru tes liens et si je ne me trompe pas, seul le 3e lien (zfsbackup) n'exige pas que la machine où on envoie les backups soit aussi avec un filesystem ZFS. Les autres utilisent "ZFS send" et nécessite que le FS qui reçoit soit aussi en ZFS.

    Oui parce que c'est plus commode et que cela permet en même temps de valider l'intégrité des données. Mais ce n'est pas obligatoire en tant que tel si le seul but est de pouvoir faire du disaster recovery par exemple.

    j'avoue que je suis très très dubitatif sur le fait d'envoyer les snapshots sur une machine qui n'est pas elle-aussi en ZFS.

    Faut voir ça comme une méthode d'externalisation des données à moindre coût, un peu comme quand on dupliquait des bandes magnétiques et qu'on les envoyait sur un autre site, un coffre fort de banque ou autre. C'est aussi valable pour de l'archivage. Quand t'envoies tes données sur Amazon Glacier par exemple, tu ne t'attends pas à pouvoir les restaurer à la minute non plus.

  • [^] # Re: Pas trop étonné

    Posté par  (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 2.

    J'ai utilisé ce genre de méthode sur des machines solaris (mais sans la partie chiffrement) dans divers cas :
    -dumps de bases de données
    -sauvegarde de données alfresco

    Faut savoir que des grosses instances alfresco, ça peut vite représenter des millions de fichiers avec beaucoup qui font moins de 1k. Avec un accès au fichier "standard" un backup est beaucoup trop long (faut oublier de faire un ls aussi). Du coup les sauvegardes à base de snapshot et d'envoi de snapshot sont très pertinentes dans ce cas. Le corrolaire c'est que tu ne peux pas restaurer un fichier individuellement mais c'est de toute façon pas un cas qui s'applique étant donné que la gestion de version fait partie du logiciel, la sauvegarde n'a de sens que pour se prévenir d'une panne/corruption de données.

    L'intérêt c'est essentiellement l'instantanéité d'un backup par snapshot associé à la capacité de les envoyer à distance et ce même sous forme incrémentale.

    Quelques autres exemples de cas d'usages, scripts ou outils se basant dessus :
    http://royal.pingdom.com/2013/06/04/zfs-backup/
    https://www.grendelman.net/wp/fast-frequent-incremental-zfs-backups-with-zrep/
    http://mij.oltrelinux.com/devel/zfsbackup/
    http://www.rsync.net/products/zfsintro.html
    http://www.daveeddy.com/2015/12/05/automatic-zfs-snapshots-and-backups/
    http://www.znapzend.org/

  • [^] # Re: Pas trop étonné

    Posté par  (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 2.

    Non tu peux envoyer des snapshots sous forme de fichiers. Vu que le contenu est dédupliqué les snapshots incrémentaux ne devraient pas être gros donc même si les fichiers qui finissent sur le stockage distant ne sont eux-même pas dédupliqués le bénéfice existe encore.

    Le point noir de ce genre de truc dépendant des fonctionnalités comme zfs c'est qu'une fois que les données sont parties sous forme de snapshots tu ne peux pas y accéder directement. Tu dois restaurer les snaps sur un pool zfs pour avoir accès aux fichiers finaux. Ça va si tu n'as pas besoin que tes utilisateurs puissent directement demander l'accès à tel ou tel fichier individuellement.

  • [^] # Re: Pas trop étonné

    Posté par  (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 2.

    On est d'accord que si tu dédup et chiffres dans le FS après envoi c'est dans un cas où justement tu maitrises et gère le stockage final.

    Cela-dit dans un cas où tu as plus d'une poignée machines à sauvegarder en général tu as un système de backup tampon à court terme en local, donc il n'est pas inimaginable si on reprend l'exemple de zfs de dédupliquer et chiffrer sur un serveur local qui après envoie ses snapshots dans le cloud.

    De toute façon la réalité c'est que la dedup n'est as forcément une solution très pertinente en terme de coût.

  • [^] # Re: Pas trop étonné

    Posté par  (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 3.

    Pour le cas de ZFS il faut savoir que toute ce qui est dedup/chiffrement/compression se fait au niveau block et pas au niveau fichier sous ZFS donc il est tout à fait possible d'activer à la fois le chiffrement et la deduplication en même temps.

  • [^] # Re: Pas trop étonné

    Posté par  (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 3. Dernière modification le 16 août 2017 à 12:35.

    Sous ZFS le coût en terme de mémoire est de 320Bytes par block. Il faut connaître le nombre de block utilisé par les données, tout en sachant que sous ZFS la taille de block est dynamique :
    http://www.oracle.com/technetwork/articles/servers-storage-admin/o11-113-size-zfs-dedup-1354231.html
    http://constantin.glez.de/blog/2011/07/zfs-dedupe-or-not-dedupe

    Bref il faut tester avec des jeux de données réalistes et connaitre où on veut placer le curseur entre performances (toutes les tables de dedup en mémoire) ou coût et utilisation mémoire réduite (cache sur disques rapides ssd).

    Et le tout dépend des fluctuations entre prix de la ram et prix du stockage.

    Cela-dit la dedup n'est pas possible que via zfs et btrfs. Il existe aussi d'autres solutions que je n'ai pas testé comme opendedup, lessfs ou permabit VDO.

  • [^] # Re: Pas trop étonné

    Posté par  (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 3.

    Comme je le dis il y'a deux écoles. En gros plus ton infra est robuste (réseau et stockage rapide, serveurs puissant et bien dotés en ram), plus tu auras tendance à déléguer ça à la couche FS. Si par contre tu backup via du wifi, des lignes lentes et un stockage pas très rapide sur un nas lowcost tu préferas probablement faire la dedup en amont (typiquement le backup à la maison).

  • [^] # Re: Pas trop étonné

    Posté par  (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 2.

    Il y'a deux écoles mais personnellement je préfère que mon logiciel de backup soit "bête et méchant" à ce niveau là et déléguer la fonctionnalité de deduplication à la couche FS.

  • [^] # Re: le titre

    Posté par  (Mastodon) . En réponse à la dépêche Suricata 4.0 : la détection d’intrusion en mode hipster. Évalué à 2.

    J'aurais tendance à dire que s'il y'a un langage qui attirerait les hipster ce serait un truc style Fortran ou Cobol.

  • [^] # Re: Quelques précisions

    Posté par  (Mastodon) . En réponse au journal [Btrfs et openSUSE] Épisode 0 : l’ex‐fs du futur. Évalué à 2.

    Est-ce qu'il est inclu sous forme binaire ou compilé à chaque installation/maj. Ça change tout du point de vue respect de la licenve.

  • # le titre

    Posté par  (Mastodon) . En réponse à la dépêche Suricata 4.0 : la détection d’intrusion en mode hipster. Évalué à 2.

    Quelqu'un peux m'expliquer le titre de la dépêche ?

  • [^] # Re: Pas trop étonné

    Posté par  (Mastodon) . En réponse au journal Obnam est abandonné. Évalué à 8.

    Cependant j'ai essayé de participer et le mainteneur d'Obnam m'avait semblé vraiment « spécial ». Voir par exemple cet échange que j'ai eu avec lui à l'époque quand il a demandé de l'aide.

    Ben j'ai l'impression que ta participation était à côté de la plaque plus que lui était spécial. Il demandait si des gens étaient motivés à maintenir et hoster un issue tracker, tu lui envoies une palanquées d'outils dont tu as juste entendu parler et lui demande s'il peut fournir le serveur. Il demande si quelqu'un a envie d'écrire des bouts de manuels à partir d'use cases parce qu'il manque de temps et tu lui demandes de faire une recherche sur des manuels qui lui plaisent. Bref j'ai l'impression qu'il s'est dit que tu partais dans tous les sens sans avoir pris le temps de lire son message initial et que tu allais lui faire perdre plus de temps que d'en gagner.

    Après le mainteneur en question est finlandais et pour avoir une vague connaissance de la culture finlandaise leur façon de s'exprimer, souvent très directe et avec le minimum d'argumentation possible, peut souvent paraître un peu rude aux personnes qui n'en ont pas l'habitude.

  • [^] # Re: A quoi sert vraiment cette clause ?

    Posté par  (Mastodon) . En réponse au journal Grsecurity attaque Bruce Perens en justice pour diffamation. Évalué à 3.

    si Bruce Perens avait réellement émit une opinion et non une affirmation en pratique

    Ça reste à prouver et c'est justement le sujet de ce procès. Tu es toi-même dans la diffamation là.

  • [^] # Re: git-repo ?

    Posté par  (Mastodon) . En réponse à la dépêche tsrc — un gestionnaire de dépôts git. Évalué à 2.

    À un moment donné il va falloir les lâcher windows 7 et 8 cela-dit, dans moins de 3 ans c'est out.

  • [^] # Re: git-repo ?

    Posté par  (Mastodon) . En réponse à la dépêche tsrc — un gestionnaire de dépôts git. Évalué à 2. Dernière modification le 08 août 2017 à 13:25.

    Soit dit en passant si ça tourne sur le WSL (ce qui est très probablement le cas), c'est supporté par windows.

  • [^] # Re: Haute trahison ?

    Posté par  (Mastodon) . En réponse à la dépêche Le développeur libriste Bassel Khartabil exécuté dans une prison syrienne fin 2015. Évalué à 2. Dernière modification le 08 août 2017 à 13:08.

    Quelles dérives ?

    Des répressions sanglantes.

  • [^] # Re: Les quatre libertés des logiciels libres

    Posté par  (Mastodon) . En réponse au journal Grsecurity attaque Bruce Perens en justice pour diffamation. Évalué à 2.

    Non c'est une rupture de contrat.

  • [^] # Re: Preuve de travail

    Posté par  (Mastodon) . En réponse au journal Hardfork du Bitcoin : bienvenue au Bitcoin Cash. Évalué à 3.

    et de jeans.

  • [^] # Re: 3 mois pour migrer ?

    Posté par  (Mastodon) . En réponse à la dépêche Mageia 6 est sortie. Évalué à 2.

    Elles l'auraient déjà fait si elles étaient intéressées je pense.

    Le truc c'est que :
    -un compte microsoft est nécessaire pour utiliser le store
    -corrige-moi si je me trompe mais une application installée depuis le store n'est installée à ma connaissance que dans le profil de l'utilisateur
    -le windows store est typiquement le truc désactivé en entreprise alors que le framework OneGet pourrait continuer à fonctionner et s'intègrera facilement aux différents outils de managements

  • [^] # Re: 3 mois pour migrer ?

    Posté par  (Mastodon) . En réponse à la dépêche Mageia 6 est sortie. Évalué à 2.

    Ce qui manquait clairement chez MS c'était d'incorporer un mécanisme de facilitation des mises à jours des applis sous windows. Ça a été résolu maintenant avec [url=https://github.com/OneGet/oneget]OneGet/Powershell PackageManagement[/url] mais on peut dire que tant Microsoft que les éditeurs de logiciels se sont fait prendre de vitesse par les initiatives communautaires libres comme [url=https://chocolatey.org/]Chocolatey[/url].

    On verra si la recette prendra et si les éditeurs de logiciels sous windows deviendront eux-même contributeurs à chocolatey et/ou fourniront des repos OneGet pour faciliter la vie des utilisateurs.

  • [^] # Re: Juste une histoire de ressources de développement

    Posté par  (Mastodon) . En réponse au journal Btrfs ne serait plus le futur. Évalué à 2. Dernière modification le 04 août 2017 à 15:17.

    ext c'est très bien pour tout le monde jusqu'au jour où on se rendu compte qu'on a oublié de désactiver le fsck automatique au bout de x mount/jours et qu'on va devoir taper quelques heures d'attente alors qu'on pensait juste faire un reboot de quelques secondes/minutes.

  • [^] # Re: Diffamation vs opinion

    Posté par  (Mastodon) . En réponse au journal Grsecurity attaque Bruce Perens en justice pour diffamation. Évalué à 3. Dernière modification le 04 août 2017 à 15:12.

    Oui je voulais dire « non équivoque ».

    Le truc c'est que ce procès ne va pas clarifier quoique ce soit au sujet de la GPL ni servir de jurisprudence. Au mieux ce procès va juste définir si c'est de la diffamation ou pas. On ne sera donc pas plus avancé à la fin, à part savoir si on peut publiquement rentrer dans le lard de grsecurity sans risque.

  • # npm

    Posté par  (Mastodon) . En réponse au journal Au voleur.sh. Évalué à 4. Dernière modification le 04 août 2017 à 11:35.

    Note: il fallait faire une typo dans sa liste des packages pour être « infecté » par le mauvais package.

    Le problème c'est pas tant nodejs que la façon dont est géré la sécurité dans tous les systèmes de packaging de librairies/modules. On tape volontier sur nodejs/npm mais c'est la même chose pour cpan, les rubygems, pip, les pléthores de librairies java, .net ou autre que tu peux utiliser pour développer ton application.

    Est-ce que les projets pip, rubygems, packages.debian.org ou epel font de l'analyse systématique de tout code qui va dans leurs dépôt pour vérifier que ce genre de backdoor n'apparaisse pas ? Pas à ma connaissance. On se base essentiellement sur la confiance que l'on a envers les mainteneurs des packages.

  • [^] # Re: 3 mois pour migrer ?

    Posté par  (Mastodon) . En réponse à la dépêche Mageia 6 est sortie. Évalué à 3.

    Même si je suis plutôt pro-linux il y'a pas mal de mauvaise foi dans ton post. Genre ça:

    L'AD et l'intranet… c'est super, t'as 20 outils, faut te loguer 20 fois avec tes identifiants Windows.

    La plupart des applications bien faites supportent le SSO donc non tu n'es pas forcément obligé de te logger 20 fois sauf si tu as des identifiants différents suivant les rôles.

    Par chance, ils m'ont filé les droits d'admin local, donc, j'ai pu compenser en partie les problèmes de productivité causés par les outils proprio de la boîte par… des outils open source, dis donc!

    En vrac:

    autohotkey pour pouvoir customiser les raccourcis clavier dans Windows,
    conemu pour avoir un émulateur de terminal digne de ce nom,
    bash pour avoir un shell décent,
    hulk (de guipro) pour que le gestionnaire de fenêtre soit moins merdique,
    explorer++ pour avoir le droit de voir et modifier l'URI dans la barre dédiée sans utiliser de souris,
    vim, bien sûr,
    la displo clavier fr_oss… et j'en oublie.

    On voit que tu as réussi à résodure pas mal de problèmes. La seule différence c'est que ce ne sont pas des applications natives mais bon je ne connais aucune distrib « pro » qui propose i3 comme desktop par défaut non plus donc on ne peut pas tellement plus le considérer comme une solution native.