benoar a écrit 4229 commentaires

  • # git-replace(1)

    Posté par  . En réponse au journal Gitlab.com interdit de supprimer ou modifier ses informations personnelles. Évalué à 3.

    Ça sent le cas d'utilisation pour git-replace(1), ça…

  • # Le RGPD est très GAFAM-friendly

    Posté par  . En réponse au journal De l'opacité de la gestion de vos données bancaires. Évalué à 8.

    un avis sur ce type de migration qui me semble, à moi, problématique, surtout avec l'arrivée du RGPD.

    Dans un cas que je connais, c'est même au contraire l'arrivée du RGPD qui incite certaines boîtes à se jeter dans les bras des GAFAM ! Car oui, Amazon a toutes les certifications qu'il faut pour être RGPD-compliant, alors que le service informatique interne, non…

    Du coup, de ce que j'observe, le RGPD va encore plus favoriser le stockage « danse les nuages », au grand dam des citoyens européens soucieux de leur vie privée.

  • # Ça montre plutôt la stupidité des gestionnaires de projets européens

    Posté par  . En réponse au journal Utilité des CLA quand on fait du libre et que du libre. Évalué à 4.

    Moi aussi j'ai bossé pour un projet FP7 où il était demandé, pour ce cas, de rajouter une mention de copyright à tous les fichiers des softs réutilisés (plein de softs libres GPL et/ou BSD), même si dans mon cas on ne changeait pas la licence. Ce n'est pas moi qui ait fait ça, du coup je n'ai pas pu trop juger de la légalité du truc, mais c'était une « obligation » du financeur (l'Union Européenne) et même si c'était débile, il « fallait » le faire.

    Bref, oui les projets européens sont gérés par des ignorants des spécificités du droit de la propriété intellectuelle concernant le Libre, et il faudrait les éduquer un peu là-dessus. Mais en arriver à conclure qu'il faut plutôt changer la manière de faire du Libre en général et de généraliser les CLA… je trouve que tu vas dans le mauvais sens.

    Sans bien sûr parler du fait que ce projet a été fait sans jamais pouvoir remonter les changements upstream pendant 4 ans, parce que les questions de licences n'ont été résolues qu'à la fin (personne ne veut s'occuper d'une telle « connerie ») et que du coup le code contribué n'a servi à rien puisque bien trop éloigné du projet originel qui avait avancé sans nous.

    Donc oui, il faut éduquer l'UE sur la bonne manière de faire des contributions libres, et ça ne passe pas forcément par se plier à leurs règles débiles en profitant de l'opportunité des CLA.

  • # Petit joueur

    Posté par  . En réponse au journal Des vieilles bases d'unix à la hype reactive actuelle. Évalué à 7.

    On peut encore aller le loin… Tout est fichier ! On peut généraliser ce comportement ! On peut aller jusqu'à envoyer toutes les requêtes sur la même boucle d'événement.

    Et cette « boucle d'évènement » unique, elle s'appelle… ton noyau. Démultiplexer des « requêtes » selon un sélecteur donné, c'est ce que fait le noyau quand il répartit les paquets reçus du réseau selon l'adresse et le port de destination du paquet (oui, je me suis placé à un niveau « en dessous »). Forcément, quand tu as oublié qu'il existait autre chose que le Web et le port 80, ça peut faire bizarre comme sensation.

    Ainsi à chaque IO, on donne éventuellement à une autre requête (ou une autre IO) la possibilité de s'exécuter. On minimise encore le temps d'attente des fils d'exécution. Cette démarche permet de tirer parti des infrastructures du noyau et de tenter de maximiser le temps d'exécution utile du CPU.

    Moui… tu viens de décrire l’ordonnanceur du noyau, quoi, qui répartit les tâches entre différents processus représentant différentes applications qui écoutent sur des ports différents, non ?

    En fait, la manie du tout-Web a amené de gros anciens SPOF sous forme dispatchers de requêtes HTTP.

    Alors imagine quand ton sélecteur est à un offset donné dans ton paquet (= port de destination), facile à parser, qu'en plus en cas de problème de charge tu veuilles pouvoir répartir les requêtes avec l'assistance du client (= adresse IP de destination, obtenue par la base géante clé-valeur qui s'appelle DNS parmi un ensemble façon round-robin avec priorités, autrement appelés enregistrements SRV), ou alors si tu gardes une seule IP mais que tu veux pouvoir faire de la répartition de charge y compris sur ton architecture réseau amont (= flow ID ; seulement en IPv6), tu auras alors l'architecture ultime, distribuée, et qui en plus n'aura pas d'état incrusté dedans (= connexion HTTP ; la connexion n'a de sens que pour nœuds aux extrémités) et qui scalera à mort. Et tu pourras l'appeler « Internet ».

    Sans parler de comment tu gères ta file quand elle est pleine, parce que le tail-drop ça fait plus de 20 ans qu'on sait que c'est mauvais.

  • [^] # Re: En XSLT

    Posté par  . En réponse au journal Lister rapidement les liens d'une page web. Évalué à 2.

    Merci ! C'est bon. Même si au final je ne vois pas le source et ne sait pas comment tu as fait ;-)

  • # En XSLT

    Posté par  . En réponse au journal Lister rapidement les liens d'une page web. Évalué à 3. Dernière modification le 28 février 2018 à 19:51.

    Pour les masochistes comme moi qui veulent rester dans les « vrais » technologies du Web, en XSLT, plus long mais qui n'est pas un one-liner sans contexte qui aura perdu son sens dans le future quand javascript aura disparu (ahah!) :

    <xsl:stylesheet
        version="1.0"
        xmlns:xsl="http://www.w3.org/1999/XSL/Transform"
        >
    
    <xsl:template match="a">
        <li>
        <xsl:copy>
            <xsl:copy-of select="@href"/>
            <xsl:value-of select="@href"/>
        </xsl:copy>
        </li>
    </xsl:template>
    
    <xsl:template match="/">
            <html><body><ul>
            <xsl:apply-templates select="//a"/>
        </ul></body></html>
    </xsl:template>
    </xsl:stylesheet>

    Donc en plus la sortie est du standard réutilisable, si vous voulez chaîner les transformations, et ne dépend pas d'un browser hyper complexe avec sa fonction de highlihting « géniale ». Et c'est forcément du HTML correct, sans même que je vérifie. Et les sélecteurs c'est du XPath, comme dit plus haut c'est très pratique.

    Edit : et que dire des autres technologies « modernes » comme markdown qui ne te laisse pas écrire du XML (un langage à balise, la base de chez base du web) directement dans un commentaire sur Linuxfr ?…

  • [^] # Re: comment ça fonctionne ce truc déjà ?

    Posté par  . En réponse à la dépêche La fin des IPv4 est très proche ! Les ennuis aussi…. Évalué à 3.

    D’ailleurs impossible de remettre la sourie sur ce site web où j'avais trouver ce cours. C'était un site en français, traitant de pas mal de sujet orientés réseaux (le NAT par exemple)dans les tons beiges et dans un "design" assez vieillot. La remarque qui va suivre n'est pas un reproche, il est bien comme il l'est; dans le genre de linufr.org ^

    Le livre du G6 ?
    http://livre.g6.asso.fr/
    C'est vaguement beige, un peu vieillot (et pas très à jour), par contre ça ne traite pas d'autre chose que d'IPv6. Mais c'est une très bonne source d'information.

  • [^] # Re: GAFAM

    Posté par  . En réponse à la dépêche La fin des IPv4 est très proche ! Les ennuis aussi…. Évalué à 3.

    et qu'à côté il ya une IPv6 avec séparation identificateur-localisateur standardisée par l'IETF

    Ça s'appelle Mobile IPv6 https://tools.ietf.org/html/rfc6275, ça a en plus été porté sur IPv4 (mais forcément, c'est moins bien fait), et ça n'intéresse que peu de monde. Donc non, compter sur une « killer feature » ne fonctionne pas.

  • [^] # Re: Prix

    Posté par  . En réponse au journal Une imprimante laser multifonction qui juste (presque) marche. Évalué à 3.

    Effectivement, c'est un modèle que j'avais également repéré. C'est une gamme « en-dessous » de la MB472dnw (résolution deux fois moindre, 600×600 au lieu de 1200×1200), mais la différence en qualité ne doit pas être gigantesque. Par contre, c'est 10 kg de plus : je pense que je ne pourrais pas la porter seule, contrairement à celle que j'ai acheté. C'est l'aspect qui m'a rebuté, en plus du coût de l'impression couleur (+300%, en gros).

    Sinon en soldes sur RDC il y a également un modèle encore plus haut de gamme de la marque, couleur aussi, pour 324 € :
    https://www.rueducommerce.fr/produit/oki-mc562dnw-imprimante-multifonctions-couleur-led-a4-210-x-297-mm-original-a4-support-jusqu-a-30-ppm-copie-jusqu-a-30-ppm-impression-350-feuilles-33-6-kbits-s-usb-2-0-lan-hote-usb-11796190/offre-68964560

  • [^] # Re: Si j'avais su...

    Posté par  . En réponse au journal Une imprimante laser multifonction qui juste (presque) marche. Évalué à 2.

    Ça n'est pas la même gamme : déjà elle pèse deux fois moins lourd, donc ça doit être rempli de plastique plutôt que du métal. C'est plus une imprimante grand public.

    Ensuite, niveau driver, aucune indication de standards pros supportés -> galère assurée. Pour moi ça vaut largement le coup de mettre deux fois plus pour un truc qui marchera à coup sûr.

  • [^] # Re: des choses compliquées

    Posté par  . En réponse au message IB-361StUS vs IB-366Stu3: Limitation des boîtiers externes pour disque durs. Évalué à 3.

    Tout à fait possible. D'après Wikipédia, une MBR a une limitation à 2 To https://en.wikipedia.org/wiki/Master_boot_record
    Après, pourquoi le disque lui-même… perso j'avais déjà vu un boîtier externe faire apparaître mon disque comme 8 fois moins grand, mais c'est parce qu'il rapportait son compte de secteur en blocs de 512 octets alors que c'était un disque 4 Ko. J'avais eu le même genre de problème avec LVM, que j'avais compris au final en voyant la taille de bloc différent.

  • # Un essai

    Posté par  . En réponse au message Mettre en pause au démarrage du système. Évalué à 4.

    Je sais que la touche « pause » fonctionne dans le BIOS, je ne sais plus pour le kernel.

    Ou alors jouer sur le contrôle de flux avec Ctrl+s/Crtl+q ?

  • [^] # Re: Et d'autres fonctions encore

    Posté par  . En réponse au journal Une imprimante laser multifonction qui juste (presque) marche. Évalué à 5.

    Note que j'ai testé l'ADF pour de la copie, pas pour du scan, qui comme je le relate plus haut je n'arrive pas encore à faire marcher. J'espère que ça fonctionnera bien.

  • # Et d'autres fonctions encore

    Posté par  . En réponse au journal Une imprimante laser multifonction qui juste (presque) marche. Évalué à 9.

    J'oubliais, très important : elle a un ADF (Automatic Document Feeder) qui permet de faire des scans recto-verso automatiquement, par paquet de feuilles, et imprime bien sûr en recto-verso aussi. Je l'ai juste expérimenté une fois, mais c'est très utile !

    Et en passant, sous son interface utilisateur très bouton (et pas tactile, j'adore !) avec son LCD graphique monochrome (vive les années 80, pour de vrai) se cache même un clavier complet pour taper des adresses & configurations, même si on a accès aux même menus (presque) par interface web.

    Bref, elle est vraiment complète.

  • [^] # Re: Nom de domaine intranet?

    Posté par  . En réponse au journal Letsencrypt désactive l'authentification tls-sni. Évalué à 6.

    et tu n’as pas à faire cette horreur qui consiste à avoir des dns qui ne renvoient pas les mêmes résultats en interne et en externe.

    J'ai beau essayer de le faire comprendre à beaucoup d'admins, ils sont pour la plupart convaincus que c'est au contraire un très bonne pratique. Citer des RFC ne les fait que réagir par un « TL;DR » à peine caché.

    Et il ne faut pas utiliser le .local soi-même (c’est réservé au mDNS et ça peut mettre un sérieux merdier à ce que j’ai compris).

    Effectivement, mais un admin m'a dit que « c'est une recommandation de Microsoft » (cf. https://en.wikipedia.org/wiki/.local#Microsoft_recommendations) et du coup refuse de faire autrement… sachant que j'avais « implémenté » du mDNS correctement sur le réseau juste avant. Pareil, citation de RFC, mais aucun admin n'en a jamais rien à foutre des standard, ce sont les meilleurs alliés de MS dans le trashage des standards.

    Bref, je pleure régulièrement de l'état des réseaux d'entreprise et de l'obstination insistante des admins dans leur nullité.

    PS : tout ça accompagné de NAT à gogo et d'un gros firewall qui fait du DPI pour l'accès au Net, sinon ça ne serait pas drôle. Il (un Fortinet) va même jusqu'à examiner le handshake TLS pour refuser certaines signatures, comme un client Tor, qui du coup match toutes les Debian stable, mais pas les Ubuntu, du coup je suis le vilain petit canard.

  • [^] # Re: Deux interprétations

    Posté par  . En réponse au journal [bookmark] Privacy Shield subira-t-il le sort de Safe Harbor ?. Évalué à 6.

    Mais est-ce que Google m'a jamais pris un seul "vrai" euro? Je ne sais même pas.

    Il t'en a pris un paquet, et sans que tu t'en rendes compte.

    La publicité est une taxe globale sur l'ensemble des produits vendus. Donc les produits que tu achètes contiennent déjà un part qui va à Google.

    Ensuite, il n'y a pas que les entreprises privées qui achètent les produits des GAFA : les institutions publiques en raffolent, et ta municipalité ou ton musée ou ta bibliothèque y a sûrement déjà eu recours (c'est le cas des miennes ; va interroger ceux qui y travaillent). Sans parler des financements publics divers et variés qui servent à acheter des services à Google (= des données à data-miner). Et combien de temps vont résister les municipalités aux données triées sur la fréquentation des routes ou des équipements publics ? (ce services est déjà proposé aux magasins par Google)

    Enfin, le fait que ces entreprises fraudent l'impôt font qu'ils volent directement à l'État un bon paquet de sous.

    Bref, tu ne le sais pas mais dans le « coût » de ta vie (achats et impôts, ainsi que services publics non rendus dûs aux coupes budgétaires à cause des fraudes fiscales) il y a une bonne partie qui va vers les GAFA.

  • [^] # Re: Pourquoi du théorie des patch c'est bien

    Posté par  . En réponse au journal Pijul, un nouveau gestionnaire de source. Évalué à 2.

    Des principes, ce serait une liste d'axiomes que Git garantit à l'utilisateur. L'associativité serait un exemple.

    On tourne en rond. Je te dis que git est génial pour des choses qui n'ont rien à voir avec la théorie des patchs, et tu me rétorques qu'il lui manque la théorie des patchs…

    Je n'ai absolument jamais dit ça. J'ai peut-être suggéré d'écouter mes arguments avant de dire "Git sera de toute façon tellement mieux que je n'ai pas besoin de t'écouter".

    Oui pardon, j'ai un peu exagéré une interprétation personnelle de tes écrits. Mais j'avoue que je n'aime pas trop tes arguments se rapportant à « on a discuté avec des gens qui savent, et vous ne pouvez pas comprendre leurs problèmes », en gros, si je caricature.

    le fait qu'il t'affiche un diff et qu'il travaille sur un objet complètement différent n'est pas ce que ferait C ou Unix, qui n'ont pas ce type de décalage.

    Bah si, pour moi, c'est du style Unix. On doit vraiment en avoir une interprétation différente.

    En tous cas, la vision de la « perfection de la théorie » que tu sembles avoir me paraît elle loin d'Unix : généralement, c'est la simplicité d'implémentation qui prévaut, dans cette philosophie.

    Plus de détails !

    Ça serait trop long. Moi par exemple je kiffe le design orienté format de données plutôt qu'API, qu'utilise beaucoup Torvalds. J'aime les principes d'Unix comme évoqué plus haut, mais je vois que chacun peut avoir des interprétations différentes (dire qu'on ne retrouve pas les concepts d'Unix dans git, inventé par le créateur de l'Unix libre majoritaire aujourd'hui… je comprends pas). Ça serait trop long à développer ici.

    C'est une raison légitime pour ne pas écouter ce que je dis, et c'est honnête de le reconnaître.

    C'était une blague, même si elle n'était pas drôle. Désolé.

  • [^] # Re: Pourquoi du théorie des patch c'est bien

    Posté par  . En réponse au journal Pijul, un nouveau gestionnaire de source. Évalué à 4.

    Une partie des "avantages géniaux" que tu évoques sont utiles uniquement parce qu'ils permettent de compenser les problèmes posés par le manque de principes solides dessous.

    Comment les avantages que j'ai cités seraient là pour compenser un manque de principe solide ? Quels principes exactement, puisqu'ils ne sont pas en rapport avec la théorie des patchs, à priori ? Tu restes vague et ça ne me convainc pas.

    Et chaque commit a besoin de calculer un hash de tout le dépôt

    Heu… WTF ? Git ne recalcule jamais de « hash de tout le dépôt » ! Pour quelqu'un qui me sort qu'il connaît git mieux que tout le monde ici… C'est justement ce qui fait la vitesse de git, il a juste besoin d'aller chopper les objets en relation avec le(s) commit(s) précédent(s), et que tout est hashé et donc dépend pas du tout de la complexité de ton dépôt, mais légèrement du nombre d'objets.

    ces concepts ne sont pas orthogonaux : par exemple, les commits sont souvent affichés (et représentés à l'intérieur) comme des patchs.

    WTF2 ?! Git ne stock aucun diff lié à un commit : il a juste un algo de packing qui dé-duplique, mais sans aucune relation avec un commit donné. Ce dernier ne contient que des SHA1 du/des tree(s) référencé.

    les relations entre ces concepts sont compliquées et floues, voire incohérentes : par exemple, les fichiers sont rebricolés à partir du contenu par des heuristiques, et les merges entre branches sont faits par 3-way merge, qui n'est pas associatif (pas associatif = des lignes ajoutées par Alice se retrouvent dans un morceau que Bob a écrit indépendamment).

    Heu… oui, les « fichiers » sont effectivement juste du contenu et la liaison avec un path donné n'est pas reverse-trackée et juste trouvée par heuristique, mais c'est plutôt très clair et simple comme concept. Oui, ça fait que les copies et déplacement de fichiers avec modification sont suivis par heuristique, mais c'est très cohérent en fait : il n'existe de « vrai » lien entre deux fichiers modifiés et déplacés que dans la tête du programmeur, et vouloir tracker ça en plus du contenu va pouvoir amener à des difficultés qui font que git préfère simplement ne pas le faire. Oui, les 3-way merge ne sont pas associatifs, mais pareil, je ne sais pas si chercher absolument un sens à toute combinaison de patch ne va pas t'amener vers des problèmes simplement insolubles. Ou alors qui de toutes façons amèneront une telle complexité que personne n'en voudra.

    Bref, pour quelqu'un qui dit très bien connaître git, je trouve certains de tes arguments légers. Après, je vois qu'on a une idée du design logicielle assez différente, et donc qu'on aura du mal à réconcilier nos arguments là-dessus, mais perso avec l'expérience (je vais ajouter un argument d'autorité : tu as l'air plus jeune que moi, vu tes vidéos ;-)) je trouve les concepts d'Unix, qu'on retrouve dans Git, vraiment géniaux.

  • [^] # Re: Pourquoi du théorie des patch c'est bien

    Posté par  . En réponse au journal Pijul, un nouveau gestionnaire de source. Évalué à 4.

    Des gens ont effectivement dit ça, mais en pratique plein de projets et d'entreprises sont encore sous CVS.

    Quel rapport avec git ? La réticence au changement en entreprise va parfois contre toute logique. Il y aurait le meilleur VCS au monde qu'ils resteraient à CVS…

    C'est vrai dans plein de cas. Dans le nôtre, c'est plutôt l'inverse qui est vrai : Pijul est capable de reproduire tous les workflows possibles de Git, et peut faire des choses largement plus puissantes, tout en restant simple.

    Alors j'avoue c'est bien présenté, et que ça donne envie d'aller voir. C'est bien d'avoir une certaine assurance comme tu le fais, et je vois que tu as la théorie derrière pour soutenir ton truc. Mais fais attention à ne pas voir toujours les défauts de git qui t'arrangent : tu pourrais passer à côté des choses géniales que tu ne remarques même pas. Genre le système sous-jacent exposé et exploitable, les formats de données simples et centraux, l'état du VCS exposé dans le filesystem, l'utilisation en shell facile (pas mal de fonctions de merge de git sont même juste du shell !). Plein de trucs sûrement « pas propres » et pas prouvés ni sûrs, mais qui le rendent génial.

    Ce genre de trucs a déjà existé avant en informatique : dans les années 70, plein de gens adoraient la courbe d'apprentissage de leur langage préféré (et étaient très créatifs pour inventer de nouveaux langages obscures chaque semaine). Et à un moment, tout le monde s'est rendu compte que C offrait au moins la même puissance que les autres, en beaucoup plus souple et facile.

    C'est drôle que tu prennes l'exemple du C, parce que justement il a une courbe d'apprentissage un peu rude quand même, il n'est pas parfait, et j'aurais donc fait le parallèle avec git…

    Ce n'est pas du tout le principal problème de ces gros utilisateurs. Leur principale préoccupation est bien le passage à l'échelle : Git devient très lent sur les très gros dépôts,

    Parce qu'il développent du soft d'une manière qui n'a aucun sens pour le libre. Souvent parce qu'ils ne veulent pas modulariser, parce qu'ils l'utilisent comme outil d'intégration, etc (c'est la liste que j'ai déjà citée). Et qu'aucun outil apportant les fonctionnalités de git ne pourra faire mieux en perf ; ils auront donc des très plus pourris, mais qui tiennent leur taille de projet. Ou alors ça serait une vraie révolution, mais j'y crois très peu. Pijul le serait, d'après toi ?

    parce qu'il a besoin de tout l'historique de tout pour fonctionner.

    Option « --depth » de git-clone, et pour aller plus loin voir le fonctionnement du fichier « shadow » dans le .git (je ne vois pas de doc, mais en gros tu peux mettre n'importe quel nombre de ref dedans qui permettent de cacher des parties de la hiérarchie ; ça fait partie des trucs avancés peu exploités mais qui donnent des idées).

    Torvalds lui-même le considère comme très imparfait, (…) Tu as le droit d'être sceptique, mais dans la vraie vie plein de gens sont insatisfaits de Git, y compris son inventeur.

    Ça fait deux fois que t'en parles mais je ne l'ai jamais entendu dire ça… source ?

  • [^] # Re: Computer in computer

    Posté par  . En réponse au journal Dongle 4G sous environnement libre. Évalué à 7.

    Si je comprends bien, le dongle est en réalité un adaptateur ethernet USB relié à un routeur 4G.
    vu que le routeur a la capacité d'embarquer d'un petit serveur web, on a donc un périphérique qui contient un ordinateur.

    Pour être plus précis (bon, je parle d'un E3372, mais ça doit être proche), la clé a un CPU ARM chinois avec RAM et Flash et tourne sous Android. C'est un Linux avec plein de logiciels à priori libres dessus, mais dont on ne sait pas où sont les sources. Il y a des russes sur un forum qui ont reverse-engineeré le bousin (pas de lien maintenant, boulot, toussa) et qui ont reprogrammé entièrement la clé, si ça vous intéresse de bidouiller.

    Le dongle faisant routeur + NAT avec la 4G, ça veut bien sûr dire zéro contrôle réellement sur le medium, ça interdit l'IPv6, ou tout autre truc qui sort un peu de l'ordinaire (IPsec, etc). Il existe plusieurs modes de fonctionnement, dont un pour revenir en PPP « simple », très peu documentés, variant avec les versions du firmware et les version du hard, qui ne sont bien sûr pas identifiés, ni trop documentés. Il plante régulièrement (enfin, ça dépend des versions), et pompe souvent plus d'1A sur le port USB (il chauffe bien, touchez-le !), donc par exemple ça ne marche pas avec des ports trop faibles en puissance (RasPi).

    Ce qui est drôle c'est de parler « d'environnement libre » avec ce genre de cochonnerie.

    Il se passera quoi quand l'OS embarqué dans le dongle sera troué? Quelles sont les garanties de mises à jour proposées par le fabriquant? Je ne connais pas les réponses mais bizarrement j'ai un gros doute.

    Effectivement, ta clé sera utilisée comme zombie, ou aura un ransomware pour retrouver ta connexion, ou plein d'autres trucs drôles. Les MàJ bien sûr c'est zéro. Et ce sont des clés officiellement poussées par Orange pour la 4G, pour info.

    Pouvoir y mettre openwrt

    Je crois qu'il parlait de brancher cette clé sur un routeur avec OpenWrt, pas de mettre OpenWrt dessus, ce qui est pour l'instant impossible à ma connaissance.

  • [^] # Re: Pourquoi du théorie des patch c'est bien

    Posté par  . En réponse au journal Pijul, un nouveau gestionnaire de source. Évalué à 3.

    Oui, sauf que ce problème peut être utilisé pour créer des failles dans un logiciel

    Mouarf, avec ton exemple, là ? Je veux bien un exemple concret, pour moi ça reste un cas irréaliste.

    Sur les autres avantages et "Git va être le meilleur", c'est un peu ce qu'on disait de SVN quand Git est sorti.

    Ah bon ? J'ai pas souvenir de ça. Dès le début, c'était le soft « codé par Torvalds » et même s'il était difficile d'accès, très vite les gens ont reconnu sa supériorité (et les problèmes de SVN) même si on imaginait une période de transition pendant laquelle SVN allait rester encore présent. Mais j'ai rarement vu un soft prendre de l'ampleur aussi rapidement que git !

    Il n'est pas 100% honnête (et même pas 99,999% honnête) de dire "Git est supérieur" en oubliant les questions essentielles du temps d'apprentissage et du passage à l'échelle sur de gros dépôts et de grosses équipes.

    Oui c'est vrai. Mais étant partisan des courbes d'apprentissage paraboliques, j'estime que ça vaut le coup à long terme.

    Par contre, on ne l'a absolument jamais entendu des gens avec qui on a parlé qui travaillent sur de très gros trucs (par exemple chez Apple ou Facebook, ou même des gens qui gèrent les dépôts du noyau Linux).

    Chez Facebook & co, et dans les entreprises en général, il y a des contraintes particulières qui font qu'il est moins adapté, mais ce sont pour moi de mauvaises raisons : soit ça donne trop de liberté aux devs et les chefs n'aiment pas ça (git c'est vraiment pour que chaque dev soit complètement indépendant, c'est très présent dans son idéologie, ya pas à dire), soit ça n'intègre pas tout le nécessaire d'intégration et on le tord pour en faire un outil d'intégration et ça marche mal, soit on fait des trucs crades parce que « on n'a pas le temps » et du coup ça foire parce que les branches deviennent n'importe quoi. Bref, oui, git impose une certaine méthodologie de développement (bien qu'il n'impose pas de workflow particulier), et c'est celle qui est au cœur du Libre : indépendance, fonctionnalités bien isolées (il y a d'autres outils pour l'intégration), et nécessité d'être plutôt propre et maintenable car c'est le seul moyen d'être gérable quand peu de gens contribuent.

    C'est intéressant de se poser ces questions (même si pour « des gens qui gèrent les dépôts du noyau Linux », je suis sceptique), mais je pense que ça a très peu à voir avec la théorie des patchs. Après, si tu veux t'atteler à la résolution des autres « défauts » de git, pourquoi pas, mais à ce moment-là ça n'est plus une histoire de théorie des patchs, qui semble pourtant être ton cheval de bataille ici.

    Et on soupçonne un tout petit peu que les gens qui nous disent ça "oublient" en général de mentionner qu'ils ont passé 10 ans à essayer de le comprendre, lus des quantités ahurissantes de livres, de blogs et de manuels pour essayer de forcer Git à rester dans les clous des axiomes que Pijul garantit au débutant qui fait son premier dépôt avec un pote, sans avoir la moindre idée de ces trucs ni de notre théorie.

    Je pense rentrer dans ta description, effectivement, même si elle est légèrement exagérée sur les besoins de maîtriser git comme il faut ; on y arrive avant 10 ans en général :-) Cependant, je suis convaincu que ça en vaut la peine. Alors que souvent, les soft plus abordables, c'est agréable à utiliser au début, puis quand on les maîtrise bien, ils deviennent limitants et on passe à autre chose…

  • [^] # Re: Pourquoi du théorie des patch c'est bien

    Posté par  . En réponse au journal Pijul, un nouveau gestionnaire de source. Évalué à 5.

    Plus tard je merge X dans master: il y a un conflit car X est appliqué deux fois, git ne réalise pas que c'est "le même commit".

    Dans 90% des cas, git va réaliser que c'est le même commit (cf. git-patch-id(1)). Dans 9% des cas où il bloquera, on se rendra compte que le merge n'est pas si « évident » que ça en pratique, et peut-être qu'il va même nécessiter de le re-travailler. Et dans 1% des cas, peut-être que oui, il aurait pu s'en rendre compte et le faire tout seul mais n'y arrivera pas. Et pour augmenter encore la possibilité de résolution, utiliser git-rerere(1).

    Bref, pour 99% des cas qui concernent ce problème précis, git va être le meilleur en pratique. Et vu que ce problème n'est pas rencontré si souvent, dans 99,999% des cas d'utilisation de git en général, il sera supérieur. À moins que tu arrives au même niveau sur tout le reste de git : fiabilité, communauté, évolution, rapidité, etc.

    Ça n'est pas pour te décourager, tu dis toi-même que c'est un projet d'expérimentation, et c'est très bien. Dire que la théorie des patchs, « c'est bien », oui, peut-être, mais je ne vois pas en quoi en pratique ça changera quoi que ce soit : l'exemple donné dans ton premier commentaire est complètement tiré par les cheveux et n'arrivera jamais en pratique. Oui, c'est mieux quand un outil semble « parfait » jusqu'au bout, mais pour ce problème en particulier je pense qu'on n'arrivera jamais à une jolie théorie des patchs qui n'ait pas des perfs de merdes et une complexité ahurissante, tout ça pour un gain très très minime.

    Bon courage pour l'expérimentation en tous cas, ça doit être marrant à coder !

  • # Sans liens symboliques

    Posté par  . En réponse au journal kyrbeis: un outil basique de gestion de dotfiles. Évalué à 4.

    Quand on y pense, git gère des « liens » placés dans un work-tree vers une version spécifique d'un fichier dans sa « base de données ». En pratique, ce sont des fichiers, mais l'opération de check-out correspond à une sort de « mise à jour des liens ». Bon, l'analogie est moyenne, mais chez moi ça a donné ça :

    http://dolka.fr/code/gitweb/?p=dotfiles.git;a=summary

    Bref, des dotfiles gérés réellement comme des fichiers (puisque j'ai juste déplacé le work-tree dans $HOME), et une utilisation à la git juste en changeant le nom de la commande, « dotg » (à part pour les commandes spécifiques de création initiale). Pour le code directement à lire, c'est ici :
    http://dolka.fr/code/gitweb/?p=dotfiles.git;a=blob;f=bin/dotg;hb=HEAD

    C'est sous GPLv3+.

  • [^] # Re: La suggestion de recherche activée par défaut ça améliore la confidentialité ?

    Posté par  . En réponse à la dépêche Firefox 55 est prêt pour la rentrée 2017. Évalué à 5.

    est-ce que tu veux que tes utilisateurs puissent utiliser ton logiciel ou préfères-tu qu'ils ne puissent rien faire pour les protéger ?

    Fausse dichotomie.

    Pour eux, une suggestion directe de la bonne recherche dans la barre d'adresse est certainement une très bonne chose (ils ne savent pas ce qu'est une adresse).

    Oui, avec un air paternaliste et en les prenant pour des cons. C'est comme dire que ça ne sert à rien de savoir lire, on va s'occuper de tout pour toi. Pour moi, dans une société libre, savoir ce qu'est une URL est la base que devrait connaître tout citoyen ; ça devrait s'apprendre à l'école. Alors forcément, il y aura toujours des entreprises pour prendre avantage des ignorants, mais ça n'est pas une justification, surtout quand on est Mozilla on qu'on a (il me semble) une volonté d'éduquer un minimum les gens sur le fonctionnement du Web.

    TorBrowser est un fork de Firefox qui lui justement vise un marché d'utilisateurs plus expérimentés, qui comprennent ce qui se passe (et qui cherchent à comprendre ?) et qui préfèrent sacrifier une partie de leur confort pour mieux protéger leur vie privée.

    TorBrowser c'est pour les terroristes et les pédophiles… (je caricature). Je ne vois pas pourquoi un utilisateur standard ne mériterait pas le droit à la protection de sa vie privée. Il ne devrait pas y avoir deux catégories de citoyen, à part si tu aimes bien te sentir dans la catégorie de « ceux qui savent » et que tu aimes bien entretenir les autres dans l'ignorance.

  • [^] # Re: La suggestion de recherche activée par défaut ça améliore la confidentialité ?

    Posté par  . En réponse à la dépêche Firefox 55 est prêt pour la rentrée 2017. Évalué à 6.

    Ce que je trouve être des informations privée, c'est la communication de la moindre touche que tu appuies sur ton clavier à Google. Pour moi c'est une sorte de limite qu'il ne fallait pas dépasser. Depuis longtemps, j'ai un peu en tête une règle générale qui est « mes entrées sont envoyées lors de la validation par la touche entrée » ; c'est une sorte de règle implicite que je trouve valide dans plein de cas (OK, pas pour SSH…). Ici, Mozilla a cassé cet accord implicite.