Thomas Debesse a écrit 3581 commentaires

  • [^] # Re: Ha les dernières lignes...

    Posté par  (site web personnel) . En réponse au lien Moi, journaliste fantôme au service des lobbies…. Évalué à 10.

    J'ai été surpris par la partie Linky, mon expérience de Linky est à l'opposée des exemples fournis, combien d'article à la con généralisant des cas ponctuels à la façon antivax

    Le problème c’est que tu as tendance à juger une opinion au faciès des porteurs d’opinion et non à la valeur des arguments qui pourraient exister si tu ne t’arrêtais pas à tes réactions primaires comme le déshonneur par association ou le présupposé que la surface est significative du fond. Je ne connais pas le sujet de Linky mais comme dans tous sujets ma posture prudente c’est qu’il y nécessairement des personnages et des discours caricaturaux (ce qui n’est pas propre au sujet mais à la nature humaine tout simplement) et je ne peux exclure par avance qu’il pourrait y avoir des arguments sérieux chez les opposants (ou les partisans).

    Plus un sujet touche de monde, plus il y a de chance de trouver des arguments complètement pétés quelque soit l’opinion défendue. La présence d’un argument pété en faveur de telle ou telle opinion n’est donc pas significative de la valeur de telle ou telle opinion (et/ou de la réalité des faits). C’est pour ça que les sujets comme le Linky, les vaccins, la 5G, etc. drainent énormément de trucs complètements pétés car ils sont déployés à l’échelle de l’intégralité de la population d’un pays, c’est énorme. Ça ne veut pas dire qu’il ne pourrait pas y avoir de vrais sujets honnêtes avec des arguments honnêtes.

    En fait cette réaction de rejet primaire face à des sujets de ce genre qui touchent la population et donc provoquent des réactions populaires (avec la couleur populaire inévitable) n’est qu’une manière de s’extraire de la masse, une forme d’élitisme de classe et une posture hipster : « ah mais ça c’est une préoccupation de plèbe, je ne suis pas de ces gens-là ».

    Bref, intéressant mais à prendre avec recul et une source que parmi d'autres pour se forger une opinion

    Tu ne tiens ce discours de « recul » et de « source parmi d'autres » que quand il s’agit de défendre ta première impression quand ta première impression est le doute, ou que le discours auquel tu es confronté est contraire à ta première impression. C’est bien mais normalement ça doit se faire dans tous les cas.

    ce commentaire est sous licence cc by 4 et précédentes

  • # « Application web » == Google Chrome + Microsoft Office + Microsoft Windows

    Posté par  (site web personnel) . En réponse au journal De retour aux années 2000 avec EDF. Évalué à 10. Dernière modification le 26 juin 2022 à 00:47.

    Il y a quelques années un client a changé de logiciel de CRM, il n’était pas vraiment décideur sur ce sujet : il faisait partie d’un groupe qui décidait pour lui pour de ce logiciel (pour tous les autres logiciels il pouvait faire ce qu’il veut). Jusque là pour tout ce qui était bureautique ordinaire tout le monde dans sa boîte utilisait Firefox et LibreOffice. Le nouveau logiciel était un produit Salesforce et était vendu comme étant « une application web ».

    Mais en fait, d’une part cette « application web » ne fonctionnait qu’avec le navigateur Google Chrome, mais en plus il fallait avoir Microsoft Office installé sur le même poste de travail. Le client a donc dû acheter le pack Office pour tous ses postes et j’ai donc dû déployer Google Chrome et Microsoft Office sur tous les postes. « Heureusement il utilisait déjà Windows », j’ai envie d’ajouter.

    À croire que la seule vraie différence avec ce genre d’application soit le fait de pouvoir basculer d’une application à l’autre dans les onglets de Google Chrome plutôt que dans la barre des tâches de Windows, ce qui n’est pas un plus, en fait.

    ce commentaire est sous licence cc by 4 et précédentes

  • # Outil de création de clé USB

    Posté par  (site web personnel) . En réponse au journal UEFI : y'a pas que les linuxiens qui pleurent…. Évalué à 10.

    Microsoft ne fournit Windows sous forme d’iso DVD mais fournit aussi un outil pour transformer l’iso en clé USB bootable. Mais pour cela il te faut déjà un Windows en plus de l’iso et de la clé USB.

    Ce que tu peux faire c’est d’installer un Windows avec l’iso dans une machine virtuelle, une fois ceci fait, tu montes la clé USB dans la machine virtuelle, tu utilises l’outil qui va formater et préparer la clé USB, et voilà ! Tu as une clé USB d’installation de Windows. C’est chiant mais ça marche. Et une fois que tu as fait cette clé USB d’installation Windows, tu la copie avec dd quelque part pour pouvoir faire d’autres clés si besoin avec dd à nouveau, (et ça, ça marche bien) !

    Mais sinon, à propos d’UEFI, je ne comprend pas pourquoi par défaut l’installation UEFI n’est pas portable (sans modifier une mémoire sur la carte-mère ou je-sais-pas-quoi) c’est super chiant et une énorme régression à mes yeux. Maintenant j’installe mes Linux avec l’option --removable de grub-install, car si une machine tombe en panne, je veux pouvoir déplacer les disques dans la machine d’à côté et booter sans autre configuration.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Partir à neuf..

    Posté par  (site web personnel) . En réponse à la dépêche Sortie de Samba 4.16.x. Évalué à 6.

    Oui tout à fait. J’ai eu des parcs où 100% du l’infra serveur/routeur/etc. était sous Linux et 99% des bureaux était du Windows (avec deux trois linux et macs minoritaires). Ce qui est certain est qu’on peut tout à fait avoir un parc 100% Windows sur les postes de travail, que ce soit à cause des besoins applicatifs, de certains matériels spécifiques (j’ai travaillé pour une exploitation viticole par exemple, je ne crois pas que l’imprimante d’étiquette à bouteille avait un pilote Linux :D), et avoir l’intégralité de l’infra de service sous Linux.

    Et si besoin, rien n’empêche d’avoir une machine virtuelle pour un besoin spécifique. Par exemple on peut très bien avoir un « manager » d’antivirus dans une machine virtuelle Windows pour administrer les antivirus clients sur les postes Windows, mais la gestion du réseau, des droits, le stockage, que tout soit géré sous Linux.

    Ce qui est certain c’est qu’avoir un parc utilisateur 100% Windows n’est pas du tout un argument en défaveur d’avoir une infra Linux, « on a déjà du Windows sur les postes » ou « il nous faut du Windows sur les postes » n’est pas un argument contre Linux sur les serveurs. De toute façon le décideur qui dirait ça pourrait acheter un Synology parce que quelqu’un lui en a parlé ou qu’il en a un à la maison, sans se rendre compte que c’est un Linux+Samba dedans (la magie de la boîte noire avec une belle étiquette qui, parce qu’elle forme un « produit », se soustrait à tous les discernements ordinaires).

    En soi être confronté à un parc de postes de travail 100% Windows est très instructif car Microsoft a bien dû apporter des solutions à des problèmes réels de leurs clients réels, donc autant appliquer les mêmes méthodes si elles fonctionnent, quand elles font sens et qu’elles sont éprouvées, plutôt que réinventer la roue. Ça n’a d’ailleurs plus vraiment de rapport avec la question libre/pas libre puisqu’aujourd’hui des outils comme Samba existent. Bon il y a des trucs qui m’énervent un peu dans l’infra Windows, mais si on m’interdisait d’utiliser Samba je ne vois pas pourquoi je devrais faire sans une infra NTP/DHCP/LDAP/Kerberos, que l’identifiant s’appelle samAccountName au lieu d’username est une windowserie dont je me passerai bien mais bon 🤫️…

    À noter que passer à une infra de type AD que ce soit avec Samba ou Windows Server peut apporter des problèmes, mais c’est pas la faute de Samba, les problèmes sont les mêmes sous Windows : des tas d’applications ne sont pas pensées pour un environnement d’entreprise de ce genre. Par exemple certaines applications enregistrent des préférences ou des données dans AppData/Local au lieu de AppData/Roaming, je ne sais pas où ça en est mais par exemple il y a quelques années j’avais remarqué chez un utilisateur que même l’application « post-it » de Windows enregistrait ses données dans AppData/Local qui est un cache local à la machine qui est donc sensé être jetable et pouvoir être perdu avec la machine ! Qt fait la même erreur à cause de ce qui semble être une mauvaise interprétation de la documentation et une formulation hasardeuse (ça impacte donc les applis KDE sous Windows). J’ai aussi vue une application de bureau à distance (type TeamViewer mais une autre dont j’ai oublié le nom) qui calculait son identifiant d’accès à une machine sur la base de l’utilisateur, sauf qu’avec un AD l’utilisateur est le même quelque soit la machine, dont il n’était pas possible d’accéder à telle ou telle machine si le même identifiant avait ouvert deux machines 🤦‍♀️️. Bref, il y a tout un pan de l’informatique, y compris des produits de Microsoft, qui ne sont pas testés sur un réseau d’entreprise. Je n’ai jamais rien vu de bloquant, mais ça fait toujours bizarre de faire ce genre de surprise. Ça plus certaines applications métiers sous Windows qui ne sont pas testées sur des machines qui ne tournent pas en super utilisateur 🤦‍♀️️… Rien que ne pas être administrateur sans capacité d’escalade peut encore casser des choses en 2020+. Mais Windows ou Linux/Samba ça sera pareil de toute façon.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Pas de swap … pas de problème

    Posté par  (site web personnel) . En réponse au journal Zswap, ZRam, EarlyOOM... organiser la gestion d'une pénurie de mémoire vive. Évalué à 7.

    Ta thèse c'est que Firefox n'est pas optimal en particulier quand tu as plus de 32Gio de RAM et que tu l'utilise sur des disques en réseau ?

    Non.

    Je n’ai pas dit qu’il fallait ces deux conditions.

    J’ai aussi dit que j’avais des problèmes même avec pas plus que 32Go de ram.

    Et il a été ajouté (et je le confirme moi-même, ça m’était juste sorti de l’esprit), que ce qui pourrait faire la ou une différence serait la quantité de swap réelle ou virtuelle (zram).

    Merci de ne pas fabriquer d’homme de paille.

    Je donne plusieurs exemples de contextes qui peuvent être indépendants, et je donne les suivants après que j’ai cité les précédents comme suffisants pour reproduire les problèmes, et je cite aussi divers problèmes qui peuvent se télescoper. Ça signifie que ces problèmes peuvent toucher des personnes différentes qui ne partagent pas forcément mes besoin ni les mêmes fournitures, c’est à dire que j’étends la couverture à une population plus large, et toi tu transformes ça en une espèce de « il faut cocher toute les cases en même temps » ce qui réduit drastiquement la couverture jusqu‘à en faire une exception. Je fait un ou inclusif, tu en fait un et.

    Je cite le cas du disque réseau (ce qui n’est pas mon usage, là tout de suite, mais j’ai aussi rencontré ce problème ou vu d’autres personnes rencontrer ce problème), mais je fais aussi un lien vers un article de quelqu’un qui parle de SSD, etc. Je parle du fait que le cache mémoire ne soit pas plafonné alors que le cache disque l’est (et est probablement plus petit que le cache mémoire réel) et j’ai ajouté le fait que Firefox écrit toutes les 15s. Il y a plein de scénarios où ça peut poser problème.

    Pour le premier problème, le plus évident c’est quand quelqu’un investit de la mémoire pour une application spécifique et que Firefox la mange à la place.

    Pour le second problème, ça peut concerner un disque réseau, disque mécanique, disque mécanique avec SMR (qui a une tête plus large que la piste, en gros, donc écrire une piste implique de réécrire plusieurs pistes, sachant que certains fabriquant dissimulent cette information), disque USB (c’est très pratique d’avoir un système portable avec son bureau dans la poche), etc. Et d’ailleurs ces écritures toutes les 15s peuvent aussi déclencher l’invalidation du cache disque au détriment d’autres applications qui pourraient être jugées plus productives, donc les deux problèmes peuvent se télescoper.

    Si je prend le premier exemple que je vois pour des config orientées jeux vidéo (donc relativement performante) : https://www.canardpc.com/les-configs-de-canard/

    Dois-je rappeler que le dimensionnement de la mémoire est aujourd’hui contrainte par le prix ? et le fait qu’il est plus facile de faire un compromis sur la mémoire que sur la carte graphique et que cette dernière souffre également d’une envolée des prix ?

    16Go aujourd’hui c’est le standard pour le matériel reconditionné (exemple), et ce depuis deux ou trois ans déjà. Beaucoup d’ordinateurs de joueurs n’ont pas plus parce que c’est la dèche. Ça fait 7 ou 8 ans que la mémoire stagne à 16Go ! Exemple: Best Gaming PC Build Under $1,500 [November 2015] : 16Go de ram, et c’était déjà de la DDR4.

    Et en fait il y a 10 ans avoir 16Go de ram c’était déjà super accessible, exemple High End Gaming Performance Under 1,000 [December 2012], avec 40$ les 8Go. Donc on était encore loin en dessous de 1500$ pour un PC “high end gaming” 16Go il y a 10 ans. 16Go ça coûtait 80€ les 2 barrettes. 32Go ça coûtait 160€ les 4 barrettes (les cartes mères avaient déjà 4 slots, pas de coût caché). Sur le lien que tu donnes, 16Go coûte aujourd’hui 95€, donc 190€ les 32Go. Sachant qu’entre temps l’inflation s’est envolée et que les ressources des ménages ont énormément baissées.

    Alors oui, tailler un Firefox qui marche bien quand il y a 16Go est normal vu que c’est ce que c’est ce qu’il y a sur le marché et ce depuis presque 10 ans. Mais ça ne justifie pas de ne pas mettre de limite haute par exemple.

    Tu utilise une fonctionnalité qui passe sous les radar

    Je donne ces exemples précis car le constat est aisé, je veux bien admettre que ces exemples sont spécifiques, mais je les ai choisis car évidents, et ils sont assez hors-norme pour que justement le constat soit évident et ne relève pas de la marge d’erreur. Mais oui toutes les applications qui font des lectures font appel au cache disque et sont donc concernées par l’invalidation du cache à cause d’une application qui s’étale, toutes les applications qui écrivent sont concernées par des écritures toute les 15s qui randomisent les accès et peuvent fragmenter le système de fichier.

    Ce n’est pas parce que quelqu’un ne se soucie pas de savoir ce qui est en cache ou pas qu’il n’est pas ralenti dans le montage de sa vidéo de vacance parce que Firefox se met à l’aise. Ne pas savoir être affecté n’est pas pareil que ne pas être affecté.

    Ça fait 5~6 ans que je me rend compte que sur ma machine avec 32Go Firefox marchait moins bien que sur ma machine avec 16Go et que chez des proches avec 8 ou 16Go. Jusque là ça je m’en satisfaisait en me disant « je verrai plus tard » et en râlant intérieurement. Et puis quand j’ai vu qu’avec 200Go de mémoire Firefox peut en manger 100… Là je me suis décidé à chercher.

    Je vais donner un autre exemple. Débuguer un pilote Mesa comme radeonsi ou clover peut requérir de recompiler Mesa depuis la branche main, mais ces pilotes sont intimement liés à LLVM, donc cela peut requérir de recompiler aussi LLVM depuis la branche main. Compiler LLVM en mode Debug ça peut prendre entre 6 et 8Go de mémoire par job. Sur une machine avec 16/32 Cœurs, ça veut dire qu’un meson compile -j$(nproc) va bouffer entre 192 et 256Go de ram, en fait un peu moins car tous les jobs ne vont pas faire 8Go et il y a une espèce de traîne, mais tu vois l’idée. J’ai écrit un script pour recompiler LLVM et Mesa et au moment de recompiler LLVM, le script récupère la quantité de mémoire disponible, divise par 8 et passe ce nombre à meson comme nombre de jobs de compilation parallèle à lancer.

    Débuguer un pilote va donc doubler ou tripler le nombre d’heures à passer en fonction de ce que décide Firefox, parce que « je suis bien content de ne pas me payer des barrettes de RAM pour le plaisir de vérifier qu'elles ne sont pas utilisées » ?.

    Là encore je prends un cas extrême (mais clairement identifiable), OK, mais en fait le problème que je pointe se présente dès lors que l’application principale de l’ordinateur demande plus de mémoire que Firefox, ou traite des gros fichiers, et qu’on a éventuellement investi de la mémoire pour cette application principale et non pas pour Firefox. Un joueur, un monteur de vidéo, quelqu’un qui compile de gros programmes (compilateur, noyau, suite office…) et tout plein d’usages qui peuvent réclamer de la mémoire peuvent être affectés par ce problème, même si c’est inconscient.

    Et puis ça amène des choses étonnantes ! Si quelqu’un se dit « je n’ai pas beaucoup besoin de swap sur mon ordi fixe car je n’hibernerai pas mais je vais mettre beaucoup de swap sur mon ordi portable pour pouvoir hiberner », il va penser que son ordi portable a des problèmes ou qu’il est plus lent pour une raison qui lui échappe. Et puis s’il applique la vieille règle de « la taille du swap est le double de la ram » pour se permettre d’hiberner même s’il swappe déjà parce qu’il a des gros programmes, passer de 16 à 32Go risque en fait de conduire Firefox à penser qu’il passe de 48Go à 96Go, et donc qu’il y a 48Go disponible en plus alors qu’il n’y a que 16Go disponible en plus en ram ! Et ce au détriment de toutes les autres applications !

    Personnellement quand quelqu’un me demande en quoi c’est mieux d’avoir plus de ram, je réponds « le cache disque », je ne dis pas aux gens de faire l’astuce du dd pour précharger les fichiers, non, non, je dis simplement que tout ce qui est écrit et lu ne sera plus jamais relu depuis le disque dur si la mémoire est assez grande pour ne pas devoir « oublier » le contenu du fichier. C’est à dire que pour quelqu’un qui n’a que des programmes qui prennent pas plus que 8 Go, s’il peut se payer 32Go c’est tout de même mieux que 16Go. Toute mémoire en rab est du cache en rab. Je donne souvent l’exemple du Jeu de pousse-pousse, la quantité de mémoire est parfaitement adaptée à la quantité de données traitées, mais le traitement est fastidieux et long, et tout case vide supplémentaire rendrait plus facile le traitement. Je donne aussi l’exemple d’un bureau où l’on aurait la place de mettre deux livres côte à côte et un autre bureau plus petit où l’on devrait les mettre l’un sur l’autre, et qu’on veut en faire une étude comparée (sachant qu’en plus en ram il n’y a même pas de notion de distance). Ces métaphores fonctionnent très bien.

    La mémoire en rab, c’est du cache disque avec l’accès le plus rapide du monde ! Alors c’est vrai aussi pour le web, sauf que le web a une sacré tendance à t’afficher mille choses dont tu n’as pas besoin. Si quelqu’un ne va que sur des sites qui ne lui affichent que ce que dont il a besoin, le problème que je décris ne le concerne pas, c’est vrai, mais par contre ça c’est désormais un cas d’usage vraiment très spécifique et anecdotique.

    Nos sites web modernes sont blindés de changement dynamiques, de défilement infini, et ça ne s’arrête jamais (et je ne parle pas des pubs, qui sont bloquées chez moi). Le web ne dors jamais et les sites web se rafraîchissent tous seul, d’où le besoin de plafonner la mémoire immédiate affectée à retenir la soupe qui sort de ce robinet grand ouvert.

    Jamais je n’aurai imaginé qu’un changement aussi simple que changer ce genre de clé aurait eu un tel impact sur l’utilisabilité des machines !

    Ah oui aussi, il peut être intéressant d’aller sur about:memory et de cliquer sur les 3 boutons GC, CC et Minimize memory usage, notamment après avoir plafonné la valeur de browser.cache.memory.capacity dans about:config. Ça peut récupérer une poignée de Go pour celui qui voudrait faire de la place pour une autre application.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Pas de swap … pas de problème

    Posté par  (site web personnel) . En réponse au journal Zswap, ZRam, EarlyOOM... organiser la gestion d'une pénurie de mémoire vive. Évalué à 6. Dernière modification le 18 juin 2022 à 15:40.

    Et pour Firefox que tu moque beaucoup. Pour un utilisateur comme toi qui utilise une partie réputé non assignée de la mémoire, ils ont des centaines de milliers d'utilisateurs qui se plaignent de sa lenteur. Ils font tout pour augmenter leur performance.

    À la base de mes investigations, il y a le constat que Firefox marche moins bien quand on a beaucoup de mémoire.

    C’est à dire qu’il y a une espèce de zone intermédiaire où Firefox marche mieux. Pas assez de mémoire ? Trop lent. Plein de mémoire ? Il s’étale, et ça devient gênant. J’ai vu des proches avoir des centaines d’onglets sur des machines à 8 ou 16Go et leur Firefox marchant mieux que moi sur une machine à 32Go.

    Le coup du swap qui semble visiblement déterminer la capacité de Firefox à s’étendre est assez étonnant, ce n’est pas de la performance que de swaper ou d’invalider le cache disque qui pourrait bénéficier aux autres applications

    J’ai vu des gens dire « j’ai assez de mémoire pour ne pas avoir de swap », au début quand je lisais cela je me disais que c’était bizarre car même sur des machines avec 30 ou 60Go le swap peut se retrouver utilisé même avec un swappiness qui dit de ne l’utiliser qu’en dernier recours, sauf que peut être que ça marche mieux sans swap en fait… Peut-être que certaines applications prennent plus de place (et donc provoquent plus de situation de swapper) s’il y a un swap.

    Parce que zram expose du swap virtuel qui n’existe pas (vue décompressée de page mémoire compressée), il est possible qu’activer zram encourage certains programmes à occuper plus de mémoire et donc à réduir la mémoire réellement disponible en accès immédiat.

    En échouant à trouver la doc linux du cache pour savoir si c'était ou non de l'ordre du hack. Je suis tombé sur ça qui pourrait être intéressant.
    https://www.kernel.org/doc/html/latest/admin-guide/device-mapper/cache.html

    Il y a aussi bcache qui permet d’intercaler des SSDs entre des disques durs et la mémoire vive, et si le disque dur a été préparé pour cela, il est possible d’ajouter/retirer les SSDs à chaud.

    Personne n’est contre la performance, mais il y a des pratiques qui peuvent-être contre-productives. Il y a une dizaine d’année il y avait une mode où plein de programmes sous Windows configuraient un démarrage à l’ouverture de session : tout et n’importe quoi se lançait à l’ouverture de session et se réduisait sous forme d’icône dans la tray bar. C’était sensé « accélérer l’ouverture des fichiers » et autre choses de ce genre, puisque le programme était déjà lancé. Sauf que rapidement la mémoire se trouvait occupée par des programmes qui ne servaient pas, et qui restaient ouvert avant et après qu’on ai édité un document, et puis l’ouverture de session était très lente. Une des premières opération pour rendre les performances d’origine aux machines constituait en la désactivation de tous ces programmes (coucou msconfig). Ce qui se passe avec Firefox (et il n’est probablement pas le seul) est du même ordre : le programme agit comme s’il était tout seul et que toute opération pour améliorer les performances est acceptable car l’idée de partager la machine semble étrangère. Par défaut le cache disque est configuré à 1Go, qu’est ce qui empêche de configurer par défaut le cache mémoire à 1 ou 2Go ? Ou un pourcentage ? Il est possible que la valeur du cache disque à 1Go soit un reliquat du passé puisqu’aujourd’hui le cache mémoire est très probablement plus large (puisque non limité), donc un pourcentage pourrait être une bonne idée.

    Au passage, parmi les choses qui peuvent améliorer les performances (et prolonger la durée de vie) d’un ordinateur faisant tourner Firefox, il y a la clé browser.sessionstore.interval. Cette clé configure à quel rythme Firefox enregistre sur disque son état actuel, ce qui permet de récupérer ses onglets si l’ordinateur s’éteint de manière imprévue ou que Firefox crash dans cet intervalle. La valeur par défaut est de 15 secondes (15000). C’est très très court, sur certains systèmes et avec certains usages Firefox ne s’arrête jamais d’écrire… avec le risque que l’écriture de l’état courant dure plus de 15s. Et ça peut évidemment ralentir les IO des autres programmes en se mettant en travers (surtout sur les stockages dont les accès aléatoires sont lent !). Actuellement cette valeur est assignée à 2 minutes (120000) de mon côté, ça veut dire que si j’ai un crash, au pire je perds ce que j’ai fait dans les 2 dernières minutes. C’est un compromis acceptable à mes yeux.

    Là, 15s est la valeur par défaut car considéré comme « safety critical for many users », voir ce commentaire d’un développeur de Firefox. La conversation date de 2016 et je ne sais pas trop où ça en est mais à l’époque il était dit :

    we are aware of the problem, but fixing it for real requires completely re-architecturing Session Restore. That’s something we haven’t done yet, as Session Restore is rather safety-critical for many users, so this would need to be done very carefully, and with plenty of manpower.

    Le ticket est toujours ouvert. Le dernier commentaire d’il y a trois ans dit:

    A significant amount of work happened since this bug was first filed that has reduced the severity of the problem.
    There's still more that can be done, that's why this bug is marked up as a metabug and there are still open related bugs.

    Je ne sais donc pas trop où ça en est, mais j’ai moi aussi remarqué la quantité énorme d’écritures que rapportait mon système. J’ai aussi remarqué le réveil fréquent de certains disques. Je parlais d’un script qui réduit la consommation ou endort certains composants sans tout suspendre, quand une machine a un bcache avec ce genre de script je peux aussi mettre le bcache en writeback et suspendre les disques durs, sauf que si Firefox n’est pas suspendu, les disques durs sont très vite réveillés, évidemment, parce qu’à un moment le cache en écriture atteint un seuil qui déclenche l’écriture sous-jacente ou bien diverses lectures sont faites par le même processus qui va écrire, et plus ça fait d’IO et plus il y a de chance que ça fasse une opération hors-cache. Bon, ce genre de chose est sensée ne pas se produire quand Firefox détecte qu’il est en train d’« idle », mais je ne suis pas certain que cette détection fonctionne toujours.

    Et comme certains le font remarquer sur le ticket, ce genre de comportement peut être gênant sur des disques réseau… Ce qui peut sembler performant, fiable, etc. à première vue peut ne l’être que dans des cas déterminés. Ce qui peut sembler évident diffère selon qu’on suppose qu’un programme soit seul ou non, par exemple.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Pas de swap … pas de problème

    Posté par  (site web personnel) . En réponse au journal Zswap, ZRam, EarlyOOM... organiser la gestion d'une pénurie de mémoire vive. Évalué à 7.

    je suis bien content de ne pas me payer des barrettes de RAM pour le plaisir de vérifier qu'elles ne sont pas utilisées.

    Souvent quand je travaille sur beaucoup de données, je fais quelque chose comme ça (dans le dossier contenant les données) :

    # astuce: remplacer 4 par un nombre précisément adapté au stockage,
    # ici 4 est donné comme exemple pour un RAID10 qui peut lire 4 fichiers en parallèle à la vitesse nominale de 4 disques durs.
    find . -type f -print0 | parallel --will-cite --bar -0 -I{} -P4 dd if={} of=/dev/null bs=10M status=none
    

    Cette commande va tout simplement lire tous les fichiers entièrement et donc les charger en cache disque.

    Une fois ceci fait, toute lecture sera extrêmement rapide, un programme peut lire un fichier de 100Go à plusieurs Go/s. Il est aussi possible de faire ce genre de dd pour charger le fichier suivant pendant que le précédent est en train d’être traité, etc.

    Avec un Firefox qui s’étale en prenant toute la place qu’il croit pouvoir prendre, les gros fichiers en cache mémoire se font virer du cache et sont alors lus depuis le stockage qui peut être plusieurs fois plus lent (disque mécanique par exemple !). Quand je travaille sur des images, vidéo ou du son je produit souvent des fichiers intermédiaires en sans-perte et peu compressé, mais le temps gagné à utiliser un codec qui compresse peu peut être perdu plusieurs fois si à chaque lecture du fichier produit la bande passante de lecture est celle d’un disque dur parce que Firefox en arrière plan a quelques onglets sur un réseau social à scrolling infini…

    Mettre des fichiers volontairement en cache mémoire est une stratégie très efficace. J’ai d’ailleurs parfois fait ça sur des serveurs par exemple : précharger les profils utilisateurs pour accélérer l’ouverture de session, j’ai parfois augmenté la ram de certains serveurs pour cette seule raison : pouvoir conserver tous les profils utilisateurs en ram.

    Alors si un développeur d’une appli ou service utilisé sur le même serveur a décidé qu’il allait sonder la mémoire pour décider de l’occuper pour son bébé sans m’en parler, je suis pas vraiment d’accord. Je n’achète pas de la ram pour lui.

    Pour continuer sur l’exemple initial, je n’achète pas de la ram pour que Firefox puisse conserver tout ce que peut afficher le scrolling infini de Facebook.

    Linux propose des outils très pratique pour rendre certaines opérations très rapide (copie-sur-écriture avec btrfs, cache disque…):

    $ du -shc */*blabla* | tail -n 1
    149G    total
    
    $ time cp -a --reflink */*blabla* process/
    real    0m5,546s
    user    0m0,000s
    sys 0m5,541s
    
    $ ls process | wc -l
    27
    
    $ echo 3 | sudo dd of=/proc/sys/vm/drop_caches status=none
    
    $ time find process -type f -print0 | parallel --will-cite --bar -0 -I{} -P4 dd if={} of=/dev/null bs=10M status=none
    100% 27:0=0s process/blabla
    
    real    5m28,149s
    user    0m0,902s
    sys 1m43,974s
    
    $ time find process -type f -print0 | parallel --will-cite --bar -0 -I{} -P4 dd if={} of=/dev/null bs=10M status=none
    100% 27:0=0s process/blabla
    
    real    0m5,193s
    user    0m0,201s
    sys 0m15,826s
    

    Interprétation : dans cet exemple j’ai environ 150Go de données à traiter en 27 fichiers (dans cet exemple réel, les fichiers font entre 1 et 22Go chacun). Grâce à btrfs je peux les copier dans un dossier de travail en 5s (copie sur écriture). Si le cache disque est vide (cas suboptimal), lire ces données prendra 5 minutes et demi (sachant que c’est possiblement séquentiel et donc déjà optimal), mettre ces données en cache disque prendra donc 5 minutes et demi. Mais, une fois ces données dans le cache disque, les lire ne prendra que 5s. Lire 150Go en 5s c’est une vitesse de lecture de 30Go par seconde. Il peut être donc très intéressant de précharger des fichiers en cache disque si une application doit les lire plusieurs fois et/ou de manière plus ou moins aléatoire, et ce serait vraiment dommage qu’un onglet de Firefox chargeant le prochain lolcat à la mode réclame d’éjecter du cache un gros fichier de 20Go, en plus mon petit doigt me dit que Linux pourrait précisément choisir d’éjecter le plus gros… 🤦‍♀️️

    Parmi les astuces dans mon couteau suisse, j’ai aussi ceci :

    $ killall -STOP firefox
    → faire des opérations gourmandes en CPU, ram et IO.
    $ killall -CONT firefox
    

    La première commande va suspendre tous les processus Firefox (comme si j’avais fait Ctrl+Z sur chacun d’eux), à lancer avant de faire des opérations gourmandes en calcul, mémoire et entrées/sorties quand Firefox est en arrière plan. La seconde commande va les réveiller (comme si j’avais fait fg sur chacun d’eux), à faire quand on a besoin à nouveau de visiter le web. En plus il est possible que puisque les processus dorment, le noyau décide de les déplacer vers le swap pendant que l’on précharge en cache disque les gros fichiers ! C’est tout bénéf !

    Accessoirement j’ai écrit un script que j’utilise pour suspendre Firefox quand je verrouille ma session et le réveiller quand je déverrouille ma session, comme ça Firefox cesse de faire du réseau, de faire chauffer le CPU et de gratter le disque dur pendant que j’ai le dos tourné, tout en conservant certains calculs en tâche de fond. C’est une forme de « mise en veille partielle ».

    Quand je dois laisser l’ordinateur traiter des données mais que ce n’est pas gourmand, le script suspend certains programmes, met le processeur et les cartes graphiques en économie d’énergie, désactive des cœurs… mais tourne toujours pour traiter ci ou ça ou servir tel ou tel service.

    Je rêve d’une application façon « gestionnaire de tâche » qui me permettrait en deux clic de suspendre telle ou telle application et de la déplacer dans le swap, pour laisser toute la place à autre chose. Si quelqu’un connaît un moyen de dire au noyau de déplacer une application donnée dans le swap, je suis preneur (sachant que si elle est suspendue, on sait déjà qu’elle n’en sortira pas toute seule).

    Le cache disque est un super outil quand on commence à l’utiliser intentionnellement, d’ailleurs j’ai remarqué que certaines applications comme Kdenlive font des xrun dans les premières secondes de lecture quand on déplace le curseur de lecture, et je me demande si on pourrait réduire simplement ces xrun si Kdenlive commençait à précharger le morceau de fichier qui va suivre (à la manière d’un basique dd) dès le positionnement du curseur. Entre le moment où l’utilisateur positionne le curseur et le moment où l’utilisateur lance la lecture il peut se passer 1/4 de seconde étant donné les réflexes humains, et ça peut être suffisant pour précharger assez pour éviter les micro-coupures audio, qui sait ?

    Tu peux peut être passer par des cgroups pour limiter la mémoire.
    https://www.kernel.org/doc/html/latest/admin-guide/cgroup-v2.html#memory

    Merci, je vais regarder ça ! =)

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Samba au détriment de...

    Posté par  (site web personnel) . En réponse à la dépêche Sortie de Samba 4.16.x. Évalué à 2.

    Aux dernières nouvelles il faut refaire un kinit en effet, je me demande aussi si ce kinit peut réutiliser les informations initialement fournies à la connexion. Ça fait partie des choses que je comptes investiguer pour que l’expérience soit plus “lisse”, même si en soit, tester si le réseau est là, si le ticket est absent, et faire surgir un formulaire le cas échéant n’est pas très compliqué.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Pas de swap … pas de problème

    Posté par  (site web personnel) . En réponse au journal Zswap, ZRam, EarlyOOM... organiser la gestion d'une pénurie de mémoire vive. Évalué à 6. Dernière modification le 18 juin 2022 à 04:09.

    Ah oui en effet, je confirme ton impression ! J’avais remarqué un truc (c’est un sentiment, pas mesuré, mais franchement très sensible) c’est que Firefox semblait consommer la mémoire en fonction du swap disponible. Donc imagines tu as 32Go de ram, tu veux pouvoir suspendre même si les 32 Go de ram sont plein et que tu swappes déjà ? T’as un gros swap de 64Go ? Ma sensation c’est que Firefox réagit comme s’il y avait 96 Go de ram et se met à l’aise et en laisse partout. Alors si tu utilises zram au lieu de zswap et que tu as plein de cœurs, tout d’un coup tu vas avoir des centaines de Go de swap (qui en fait n’existent pas !) !!!! Et Firefox va prendre encore plus de place !

    Sinon dans les applications qui gonflent, qui gonflent, j’ai remarqué nautilus aussi. C’est probablement lié aux vignettes (thumbnails), mais je ne sais pas si ça monte toujours et toujours dans tous les cas où si comme Firefox il se le permet en fonction de ce qu’il suppose être de la ram disponible. Mais sur la machine avec des centaines de Go de ram il n’est pas rare que je vois nautilus manger de la mémoire dans l’ordre de la dizaine de Go après quelques semaines…

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Pas de swap … pas de problème

    Posté par  (site web personnel) . En réponse au journal Zswap, ZRam, EarlyOOM... organiser la gestion d'une pénurie de mémoire vive. Évalué à 10.

    J'ai la chance d'avoir une machine avec assez de mémoire pour ne jamais la saturer.

    Je ne serai pas aussi prompt à l’affirmer. Saturer, peut-être pas, mais quelque soit la taille de ta mémoire, tu pourras toujours avoir des trucs qui l’occupent au détriment de ce dont tu as besoin.

    Il semble que certaines applications s’étendent autant qu’elles peuvent, alors chaque application ne va peut-être pas tenter de saturer, mais tu peux te faire surprendre.

    Je m’explique, j’ai plusieurs machines de plusieurs générations et de taille de mémoire différentes : une poignée de Go de ram, 16Go, 32Go, 256Go. La machine qui a 256Go avait 128Go il y a quelque mois et j’ai pu comparer le même usage avec la même installation, et en fait le système a été déplacé depuis la machine qui a 32Go donc j’ai pu aussi comparer.

    Avec les mêmes usages, sur la machine à 32Go la somme de certaines grosses applis comme Firefox atteignait facilement 16Go. Pourtant ces applis n’atteignent pas 16Go de RAM sur mon laptop avec 16Go de ram. Et autour de moi j’en vois bien utiliser Firefox sur des machines à 8Go de RAM avec dix mille onglets. Pourtant si je fais pareil ça explose de mon côté, ça explose d’autant que j’ai de la RAM. Avec 128Go, c’est devenu complètement dingue, avec Firefox bouffant parfois 64 ou 96Go de ram, c’est complètement indécent. Et une fois passé à 256Go de RAM Firefox s’est mis à manger 128Go… quoi???!!!!!

    J’ai aussi essayé une chose mais je ne pourrai que l’évaluer dans la durée. Depuis longtemps j’utilise /tmp en tmpfs (pour la performance), mais je soupçonne des applications d’ouvrir des fichiers temporaires, d’écrire dedans, de les supprimer mais de ne pas les fermer (et donc ils resteraient alloués en RAM). Donc pour le moment je suis revenu à un /tmp sur disque, pour voir. Je peux difficilement mesurer mais il me semble que la RAM occupée monte moins, mais monte toujours.

    Donc ces derniers jours j’ai cherché à voir où partait la mémoire ! Il n’est pas rare que dans le gestionnaire des tâches de GNOME (gnome-system-monitor) je vois des processus Firefox qui mangent 1 Go et plus ! Parfois 6 Go ! Si je tue ce type de processus, un onglet quelque part me dit qu’il a crashé et que je peux le recharger (bonne astuce !). C’est plus efficace que la page about:performance qui ne renvoie pas de valeur fiable et sur laquelle on ne peut pas compter.

    Et puis j’ai découvert la clé Firefox browser.cache.memory.capacity qui détermine le cache en mémoire vive de Firefox. Par défaut elle est mise à -1 ça veut dire, pas de limite haute ! La machine est super stable, la dernière fois que je l’ai rebootée pour installer un nouveau composant elle avait un uptime de deux mois ! Alors je ne sais pas combien prenait Firefox pour son cache mémoire, mais ça devait être dingue !

    J’ai mis la limite browser.cache.memory.capacity à 2000000 pour 2Go de cache en mémoire, ce qui le plafonne (et j’ai mis pareil à browser.cache.disk.capacity, au lieu de 2560Mo, ce qui l’augmente), et franchement, ça va beaucoup mieux ! Je n’ai plus de Firefox qui se met à bouffer 100Go, et c’est toujours plus gourmand que sur une machine à 16 ou 32Go mais ça reste contenu.

    Mais dans l’immédiat j’avais toujours beaucoup de mémoire utilisée. Quand j’ai fait ces tests pour récupérer ma mémoire la machine avait 20 jours d’uptime et une 100aine de Go utilisés. Je n’ai pas redémarré mais j’ai tout tué dans la session utilisateur, y compris la session utilisateur. J’en ai récupéré 20-30Go… quoi ??? ils sont où tout les autres ?

    Parce qu’indépendamment des applications, je voyais ma RAM occupée monter, monter, monter… et en effet même après avoir fermé toutes les applications, je ne récupérais pas tout, même après avoir fermé et ré-ouvert la session utilisateur.

    Alors j’ai essayé plus de trucs.

    Il ne faut pas confondre le cache mémoire et la mémoire, et je ne le confonds pas, et pourtant. J’ai vérifié, que si je faisais ceci :

    echo 3 > /proc/sys/vm/drop_caches

    je pouvais libérer non seulement une centaine de Go en cache (normal ! c’est aussi pour ça que cette machine a autant de mémoire, pour pouvoir traiter des fichiers de 100Go en cache mémoire !) mais surtout j’ai récupéré plusieurs dizaines de Go de mémoire non-cache, 30Go peut-être ?! Quoi ? Comment ?

    Et puis j’ai fait un deuxième chose, après avoir fermé toutes mes applications, après avoir vidé le cache qui semble affecter des trucs en mémoire quand même™, j’ai fait ceci :

    echo N > /sys/module/zswap/parameters/enabled
    swapoff -a; swapon -a
    echo Y > /sys/module/zswap/parameters/enabled

    Ces commandes désactivent zswap, désactivent le swap et le réactivent, puis réactivent zswap.

    En faisant cela, 5Go a été libéré du swap, et environ 20-30Go on été libérés de la RAM, simplement en désactivant zswap et le swap et en réactivant tout cela après.

    Alors je ne sais pas s’il y a un bug dans zswap où je ne sais pas quoi d’autre, mais wow, clairement cette mémoire était occupée pour rien.

    Avant de fermer mes applications j’avais autour de 100Go d’utilisé, après les avoir fermées j’en avais autour de 60~80Go, après avoir vidé le cache (qui semble vider plus que du cache !), désactivé zswap et désactivé le swap (et réactivé les deux), je suis tombé à ~7Go de mémoire utilisée (toujours 20 jours d’uptime). C’était encore beaucoup trop… j’ai sous la main quelques machines avec 8Go et le système ne prend que quelques centaines de Mo. Mais elle était où cette mémoire ? Car cette mémoire faussement occupée empêchait de conserver en cache de gros fichiers (j’ai vérifié).

    Alors on pourrait se dire qu’avec autant de mémoire on s’en moque un peu si Firefox et ce genre d’appli s’étale. Sauf que non, s’il se met à bouffer 64 ou 128Go sur un système parce qu’il se sent à l’aise, il ne sera pas possible de conserver en cache disque de très gros fichiers ni beaucoup de fichiers, et donc les activités de production qui traitent de gros fichiers vont devoir lire le disque dur au lieu du cache mémoire, tout ça parce que t’as un Firefox en arrière plan avec des onglets sur des sites web 2.360™ de märde avec scrolling infini.

    BREF, j’ai pas encore identifié tout ce qui fait qu’un système s’étale, mais clairement, la consommation de RAM augmente avec la RAM disponible, et pas forcément comme on le voudrait. Et quand les applications s’étalent parce qu’elles se disent « c’est bon ça va je peux », elles peuvent manger la mémoire que l’on destine à d’autres usages… par exemple le cache disque qui se retrouve invalidé par tout et n’importe quoi.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Partir à neuf..

    Posté par  (site web personnel) . En réponse à la dépêche Sortie de Samba 4.16.x. Évalué à 10.

    Je ne sais pas trop à qui tu réponds parce que je ne vois pas ce qui dans ta réponse, semble rebondir sur le commentaire auquel tu réponds directement. Tout comme je ne vois pas du tout le rapport avec la Nupes.

    En tout cas, il est légitime de se poser des questions avant de choisir Linux ou Windows ou de passer de l’un à l’autre. Windows donne l’illusion que c’est facile parce que tout le monde a un Windows chez soi. C’est d’ailleurs un point que je me suis rendu compte en me retrouvant face à certains décideurs : ils ouvrent leur Windows, ils éditent et enregistrent des fichiers, c’est comme chez eux ! Sauf que non c’est pas comme chez eux, les données ne sont pas sur l’ordinateur, l’ordinateur pourrait être remplacé qu’ils ne le sauraient pas, ils peuvent aller sur le poste d’à côté dans le bureau d’à côté sur lequel ils ne sont jamais allé et taper le même mot de passe et récupérer le même bureau avec les mêmes fichiers dans les mêmes dossiers, et ils peuvent aller dans tel dossier pour récupérer le fichier dans la version d’il y a une heure parce qu’ils l’ont supprimé par mégarde, mais ils ne s’en souviennent que quand ils appellent pour retrouver leur fichier et oublient aussitôt !

    Sur Linux il y a peut-être un peu plus de travail à la configuration d’un AD que sous Windows car déjà il faut le configurer pour mettre en œuvre un AD avant de configurer les paramètres eux-même. Car les outils sont plus génériques : prenons le paquet dnsmasq par exemple, il est généralement installé en dépendance quand on installe qemu pour virtualiser des systèmes, sauf que la configuration d’un dnsmasq pour qemu n’est pas tout à fait la même que la configuration d’un dnsmasq pour administrer un parc informatique, pourtant le paquet est le même. Donc il faut spécialiser la configuration des paquets. Mais une fois ceci fait, l’administration au jour le jour me semble plus simple. Sous Windows tout se fait à coup de fenêtres toujours différentes et dont la signification n’a pas beaucoup de sens pour qui n’a pas compris un minimum comment ça marche en dessous, de toute façon.

    Donc le décideur pourrait bien choisir de faire du Windows parce que ça lui parait plus simple, sauf que les centres de formations sont pleines de formations à ces outils Microsoft, parce qu’il y a besoin de formation, Windows ou non.

    Au final les outils équivalents sous Linux sont robustes, fiables et éprouvés. La spécialisation initiale est spécifique, mais la logique d’administration est la même. J’apprécie de pouvoir versionner la configuration sous Linux.

    Je me demande par contre s’il y a pas une place pour une “saveur” spécifique d’une distro qui soit prête pour ça (AD, serveur de fichier, client), un peu de la même manière que Proxmox fournit une Debian prête à l’emploi avec leurs paquets et qu’on a plus qu’à l’installer comme ça. Et puis ça ne serait qu’une Debian avec que des paquets Debian (ou quasiment, parfois c’est pratique d’avoir tel ou tel paquet plus récent), mais avec une configuration spécifique. Par contre je ne sais pas s’il y a moyen de financer ça. C’est du boulot de faire un produit générique qui est parfaitement reproductible chez n’importe qui en fermant les yeux…

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Partir à neuf..

    Posté par  (site web personnel) . En réponse à la dépêche Sortie de Samba 4.16.x. Évalué à 5. Dernière modification le 15 juin 2022 à 02:19.

    bref un ramassis d'outils à droite et à gauche

    Non.

    Pour un contrôleur de domaine AD tu as besoin de :

    • Samba (LDAP, Kerberos, DNS)
    • un serveur NTP, par exemple ntpsec
    • un serveur DHCP, par exemple dnsmasq

    Perso je surcharge le DNS minimaliste de Samba avec dnsmasq car je préfère gérer les domaines dans des fichiers plats et dnsmasq est pratique pour pouvoir déclarer nom, mac et ip sur une même ligne. J’ai d’ailleurs soumis un patch (désormais fusionné) à Samba pour simplifier la mise en œuvre d’une surcharge de Samba par dnsmasq (vivement que le patch arrive dans les distros !).

    Pour la distribution de logiciels il y a différents outils, mais en fait faire du SSH sur toute les machines ça marche très bien, surtout qu’avec le Samba il te suffit de créer un utilisateur que t’ajoutes au groupe Administrator et de déployer à la première installation de la machine un fichier sudoers qui rend tous les membres du groupe Administrator capable de faire sudo et hop, tu peux ssh toutes tes machines avec le même compte.

    Perso je fait même ça sous Windows tellement c’est pratique et j’ai laissé tombé les trucs de déploiement à la OCS.

    Pour l’authentification côté client Linux il faudra PAM et certains modules particuliers, une fois PAM configuré correctement les dossiers utilisateurs sont créés automatiquement à la première authentification et après ça il devient même possible de s’authentifier sans réseau.

    Pour le partage de fichier, voir mon autre commentaire.

    Pour les imprimantes, autant acheter des imprimantes qui font réseau directement, sinon il y a CUPS (mais franchement… autant acheter une imprimante réseau).

    Après, c’est un métier. La configuration par défaut ne fait clairement pas tout ça. Si besoin je suis spécialisé dans ce domaine : https://rebatir.fr/

    C’est robuste, ça marche très bien avec des centaines de machines, y compris séparées par des VPNs, et ça répond aux besoins.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Samba au détriment de...

    Posté par  (site web personnel) . En réponse à la dépêche Sortie de Samba 4.16.x. Évalué à 4.

    Parce que l’écosystème est éprouvé. Un Samba c’est un annuaire d’utilisateur dans un LDAP et une authentification avec Kerberos, et le partage de fichiers qui va avec. Avec PAM, etc. tu peux même avoir de l’authentification itinérante (où tu peux ouvrir ta session sur ton ordi portable alors que t’es déconnecté du réseau).

    Pour la gestion des fichiers, tout est très bien géré y compris la copie côté serveur avec copie clone (NFS le fait peut-être, j’en sais rien, mais c’est pour dire que Samba répond au besoin), et Samba apporte des fonctionnalités très pratiques, comme la capacité à ne pas lister les fichiers et dossiers non-lisibles : c’est très pratique parce que tu peux mettre tous tes dossiers partagés dans le même dossier parent et les utilisateurs ne verront pas les dossiers auxquels ils n’ont pas accès.

    Il y a un domaine dans lequel je privilégie parfois NFS sur Samba c’est quand le client est un client macOS. Par exemple NFS est meilleur sur macOS pour compiler sur le réseau.

    Mais sinon Samba apporte beaucoup de solutions. Aussi, Samba propose une architecture bien déterminée, qu’on aime ou on aime pas qu’elle ait été définie par MS, ça veut dire qu’elle est éprouvée et répond à beaucoup de besoins que tu n’imagines pas encore.

    Tu pourrais tout refaire avec des composants séparés mais le rapport coût/gain ne serait pas très avantageux.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Ça n’est pas parce qu’on peut faire quelque chose des outils qu’ils ne sont pas ...

    Posté par  (site web personnel) . En réponse au journal PAO, graphisme et colorimétrie dans le libre. Évalué à 10.

    Sur gimp, le projet a été très têtu pendant tres longtemps sur des choix tres douteux, […] Idem sur macOS, ou X11 était nécessaire pour le lancer, tout en cassant tous les raccourcis clavier (ctrl vs cmd) a fait beaucoup de mal a la réputation du projet.

    Autant sur les fenêtres flottantes tu as peut-être raison, autant là tu fais passer le besoin de X11 sur macOS comme un choix. Et je doute très fortement que ce soit par gaieté de cœur que X11 a été longtemps une dépendance de GIMP sur macOS, avec tous les problèmes que ça implique.

    macOS est une plate-forme très hostile à plusieurs égards.

    • macOS est une plate-forme hostile pour les projets bénévoles car les utilisateurs ne contribuent pas, l’utilisateur est surtout un consommateur c’est à dire qu’il exprime essentiellement des attentes. Il y a une économie sur macOS car il y a une clientèle et il est donc possible de travailler (même à contre cœur) sur macOS si on y a des clients, mais GIMP est un projet bénévole. Qui paie pour GIMP sur macOS, en argent ou en investissement personnel ?
    • macOS est une plateforme hostile pour les projets libres car les briques libres sont souvent gratuites, ce qui amène le problème du bénévolat précité, ou même quand il y aurait des gens payés à bosser sur telle ou telle brique libre, ils ne sont pas payés pour les porter sur macOS. Par exemple il y a certainement des gens payés pour bosser sur GTK, mais qui paie pour GTK sur macOS, en argent ou en investissement personnel ? Donc par exemple si tel composant de GTK ne marche pas correctement en dehors de X11, cela peut contraindre GIMP à requérir X11.
    • la masse critique de macOS est trop faible pour y susciter suffisamment de développeurs libristes, à la différence de Windows par exemple (ça plus le fait que la base utilisateur est surtout une population qui exprime principalement des attentes, ça ne laisse plus grande chose).
    • beaucoup de choses sur macOS sont très spécifiques ou obsolètes.

    Je ne participe pas à GIMP, mais je maintiens un autre logiciel cross-plateforme qui partage certaines technologies avec GIMP comme GTK, NetRadiant. En 2022 on utilise encore GTK2. Le logiciel a été porté sur GTK3 mais c’est pas encore 100% fonctionnel même sous Linux, car les ressources en main d’œuvre sont limitées et donc les besoins de production des utilisateurs passent avant, nous rencontrons d’ailleurs des problèmes pour lesquels nous ne savons pas si ce sont des limitations de GTK3 ou de notre façon de faire, et nous ne pouvons pas exclure que ces limitations ne viennent pas de GTK3. J’ai clairement identifié des fonctionnalités qui décrivaient une réponse à notre besoin mais qui ont été supprimées, et je n’ai pas encore trouvé si ça avait été implémenté autrement. Sous macOS, ni GTK3 ni GTK4 ne sont prêts pour nos besoins de toute façon : on utilise OpenGL avec GTK et on partage le contexte entre plusieurs fenêtres. GTK2 ne l’est pas non-plus mais j’ai réussi à ressusciter un vieux patch oublié et à l’entourer d’une montagne de hacks immonde pour que ça marche. Par exemple pour dissimuler un onglet d’arrière plan qui se dessine par erreur sur l’onglet d’avant plan je réduis sa taille à un carré d’un pixel de côté comme ça même s’il est toujours devant mais il cache pas le premier plan, LOL. Ou encore pour réafficher correctement l’onglet courant quand la fenêtre est dé-minimisée je fait en sorte que le logiciel bascule à l’onglet suivant et revient immédiatement à l’onglet courant pour forcer le redessin, re-LOL. Et grâce à ces hacks immonde j’obtiens un NetRadiant qui tourne sans X11. Avant ça… la seule solution c’était GTK2 avec X11 sous macOS. Ce n’était pas un choix.

    Je ne connais pas les écueils que rencontre GIMP sous macOS (mes problèmes sont surtout liés à OpenGL et GIMP ne fait pas beaucoup d’OpenGL), mais je n’ai aucune difficulté à imaginer la taille de ces écueils. Je n’ai aucune difficulté à comprendre sans qu’on ai besoin de me donner des détails précis pourquoi GIMP est toujours en GTK2, pourquoi GIMP a longtemps nécessité X11 sur macOS, etc. Je ne connais personne qui ferait ces choix autrement que « si on quitte GTK2 ou si on quitte X11 c’est pire : pour tel projet ça ne s’affiche pas correctement, pour l’autre ça n’est pas utilisable du tout, et pour encore un autre ça ne compile pas du tout.

    X11 c’est vraiment pas une bonne solution sur macOS, mais l’alternative est généralement « il n’y a pas d’alternative viable à un coût acceptable ».

    Mon expérience du coût de chaque plateforme des projets cross-plateforme auxquels je touche (unité pifométrique pas mentionnée) :

    Coût de la spécificité Linux
    🮋🮋
    Coût de la spécificité Windows
    🮋🮋🮋
    Coût de la spécificité macOS
    🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋
    🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋
    🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋🮋
    

    Porter un logiciel Linux sur macOS c’est un truc à maintenir seul un fork d’un composant de GTK pour un seul utilisateur déclaré.

    La ou libre office était occupé à singer ms office […] Google s’est pointé ni vu ni connu avec Google docs et a mit la tannée a tout le monde.

    C’est tout à fait normal, car LibreOffice répond aux besoins de ceux dont les besoins sont satisfaits par ce genre d’outil (y compris MS Office).

    1. Google docs répond à d’autres besoins.
    2. Google docs est un service.

    Pour que LibreOffice ait damé le pion à Google il aurait fallu que les développeurs de LibreOffice considèrent pour eux-même que ces autres besoins étaient prioritaires sur ce que les utilisateurs de LibreOffice attendent de LibreOffice (par exemple le rendu des documents et les fonctionnalités de Google Docs sont toujours très limitées même en 2022), tant de risques pour que des gens se satisfassent que LibreOffice ait doublé Google sur un nouveau produit en délaissant celui pour lequel on les attend pour produire ?

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Une partie seulement

    Posté par  (site web personnel) . En réponse au journal GPL NVIDIA driver. Évalué à 10.

    va maintenir en parallèle un module kernel fermé, et maintiendra/aidera les développeurs libres en charge de ce nouveau module

    Euh, ça ne marche pas comme ça, libérer du code ne signifie pas abandonner la maintenance et la refiler à d’autres. C’est le module officiel de Nvidia qu’ils maintiendront, il remplace donc le module kernel fermé, par contre on ne sait pas encore comment ils collaboreront avec la communauté et notamment comme se feront les contributions. Ils ont tout pouvoir de ne pas accepter de contributions sur leur dépôt par exemple et ça restera libre (je ne dis pas que c’est ce qu’ils vont faire, simplement qu’ils peuvent le faire). D’une part libérer du code ce n’est pas l’abandonner à d’autres, d’autre part libérer du code ne génère pas spontanément des contributeurs.

    Je trouve très étrange cette proposition « maintiendra/aidera les développeurs libres en charge de ce nouveau module », quels développeurs libres seraient sensés prendre en charge ce nouveau module ? qui décide de qui devraient le prendre en charge ? pourquoi c’est Nvidia qui devrait aider d’autres et non pas d’autres qui devraient aider Nvidia ?

    D’une part les développeurs libres qui contribuent à des projets libres ne sont pas de la main d’œuvre gratuite qui pousse à chaque fois qu’on colle une licence libre sur du code, d’autre part le logiciel libre n’implique pas que les auteurs originaux s’en séparent, et enfin une libération de code ne se fait pas que dans le cadre de l’abandon de code mort (déjà mort ou sacrifié pour l’occasion) qu’il faudrait faire revivre (ça c’est la modalité d’un fork, pas d’une libération).

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: En plus long

    Posté par  (site web personnel) . En réponse au lien Nvidia fait un grand pas en avant vers le libre ?!. Évalué à 10.

    Hector Martin fait remarquer que leur firmware fait 34MB, ce qui est beaucoup (à pondérer avec le fait qu’un firmware gère plusieurs matériels), avec la supposition qu’il pourrait y avoir un transfert de code vers le firmware. Étant donné qu’Nvidia a fait de sa capacité à segmenter les usages via ses pilotes un argument de vente (par exemple en promettant d’empêcher le minage sur les cartes de jeu en détectant le minage), je ne serai pas surpris qu’un tel déplacement de code stratégique vers le firmware était nécessaire pour rendant le pilote noyau moins critique, et dans cette hypothèse, ça suppose un plan à plus long terme qu’une simple réaction à une fuite.

    Par ailleurs je ne pense pas que ce genre de fuite ait ce pouvoir, puisque gérer du code fuité est compliqué (comme tu l’expliques), il n’y a pas besoin de leur favoriser le boulot en mettant sous licence libre, autant les laisser s’emmerder (et puis, qui veut s’interdire à vie de contribuer à nouveau ? pas moi).

    Ça fait quelques années que Phoronix nous promet une grosse nouvelle côté Nvidia mais qu’il pouvait pas dire quoi™.

    Pour revenir à l’hypothèse du déplacement de code stratégique vers le firmware, il faut bien voire qu’il y a trois niveaux où le code peut contenir de tel “code stratégique”.

    • Espace utilisateur : bibliothèques spécifiques comme CUDA (marché captif), la plateforme Nvidia : toujours proprio.
    • Pilote noyau : plus rien de stratégique si déplacé vers le firmware, peut être libéré (et est libéré).
    • Firmware : toujours plus gros, toujours proprio, toujours signé.

    J’ai cru comprendre que seules les cartes actuelles ont de si gros firmwares, bref, que ça a requiert un changement de conception en amont qui ne s’improvise pas et a forcément été pensé il y a déjà longtemps.

    Il est donc tout à fait possible d’imaginer qu’ils avaient prévu de repenser leur cartes et leur pilotes et la répartition des fonctionnalités pour permettre de conserver le même contrôle sur la captivité des utilisateurs tout en ayant un pilote libre. En bref ils auraient seulement élargi leur interface entre leur code proprio et Linux.

    CUDA est toujours proprio, leur firmware est toujours signé, ils ont seulement agrandi la couche d’interfaçage avec Linux pour simplifier la gestion du code noyau. Ça va clairement simplifier la vie des utilisateurs avec des distributions qui pourront fournir la couche de compatibilité avec le noyau, et même peut-être la possibilité de rétroporter indépendamment les futurs pilotes noyau lorsque les cartes actuelles ne seront plus prises en charge par Nvidia pour toujours bénéficier des nouvelles bibliothèques proprio sans avoir à utiliser de vieux noyaux. Mais concernant l’applicatif, ce sur quoi s’appuient les applications (Vulkan, CUDA, NVENC, NVDEC), tout cela reste proprio.

    Nvidia est une plateforme. Un programme qui requiert CUDA ou autre technologie spécifique à Nvidia n’est pas multi-plateforme. Quand un programme requiert CUDA, le choix de Linux ou Windows n’est alors qu’un choix accessoire comme on choisit un bureau GNOME ou KDE, la plateforme c’est Nvidia (Nvidia/NT ou Nvidia/Linux, c’est toujours Nvidia). Nvidia n’a rien changé à cela.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Godot

    Posté par  (site web personnel) . En réponse au journal Fin de GarageGame. Évalué à 7.

    On peut désormais lister Open 3D Engine aussi : https://www.o3de.org/

    Pas essayé, mais c’est pour ajouter à la liste que l’on peut opposer à l’affirmation « le seul logiciel libre qui aurait pu espérer un jour concurrencer […] ».

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Pilote Linux pour carte graphique, pas pilote graphique pour Linux

    Posté par  (site web personnel) . En réponse au lien NVIDIA publie désormais ses pilotes graphiques pour Linux sous licence libre. Évalué à 4.

    L’avantage de rebaser le pilote mesa sur ce nouveau module noyau libre c’est que ça pourrait permettre de faire cohabiter le pilote OpenGL mesa avec les pilotes Vulkan ou OpenCL de Nvidia, comme il est possible de le faire avec AMD. L’inconvénient c’est que ce serait Nvidia le mainteneur et seul décideur du projet et que certains ne seraient peut-être pas chaud de contribuer du code dans ces conditions même si c’est libre.

    Dave Airlie avait écrit un article très pertinent sur le libre non communautaire, et une bonne partie de ce qui y est dit peut s’appliquer ou pourra s’appliquer à ce nouveau pilote libre, un pilote jeté par dessus la clôture, dont la priorité ne serait pas l’intégration et la coopération absente : https://airlied.blogspot.com/2020/11/linux-graphics-why-sharing-code-with.html

    ce commentaire est sous licence cc by 4 et précédentes

  • # Pilote Linux pour carte graphique, pas pilote graphique pour Linux

    Posté par  (site web personnel) . En réponse au lien NVIDIA publie désormais ses pilotes graphiques pour Linux sous licence libre. Évalué à 5.

    Pilote Linux pour carte graphique, pas pilote graphique pour Linux, mais au moins ça permettra aux distributions de distribuer ce module noyau précompilé facilement et réduira les problèmes de fiabilité de mise à jour.

    ce commentaire est sous licence cc by 4 et précédentes

  • # « OpenOffice »

    Posté par  (site web personnel) . En réponse au lien Valoriser la recherche par le logiciel libre. Évalué à 10.

    Firefox, OpenOffice, VLC, Ubuntu… À l’image de ces quelques exemples célèbres

    Alors oui OpenOffice est célèbre, mais faudrait peut-être commencer à citer LibreOffice à la place, quitte à faire « Firefox, LibreOffice (OpenOffice), VLC, Ubuntu » dans ce contexte particulier…

    En vrai il existe encore des gens qui ne savent pas que LibreOffice existe, et cherchent, installent et conseillent OpenOffice.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: egoportrait

    Posté par  (site web personnel) . En réponse au sondage Quel terme québecois mériterait le plus d'être généralisé en francophonie ?. Évalué à 6.

    Jérôme de Stridon a plussé ce commentaire.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Les métiers du doigt

    Posté par  (site web personnel) . En réponse au sondage Quel terme québecois mériterait le plus d'être généralisé en francophonie ?. Évalué à 10. Dernière modification le 06 mai 2022 à 18:25.

    Ils l’étaient, mais leurs disparitions sont l’effet d’une ringardisation voulue par une politique de communication visant à sans cesse rafraîchir le concept pour le présenter comme une nouveauté.

    De la même manière que les années 2005 ont vu venir le “web 2.0“ pour vendre tout et n’importe quoi pour remplacer le “web” qui sentait trop les années 1990-2000, les années 2010 ont vu la “digitalisation” pour vendre tout et n’importe quoi pour remplacer “l’informatisation” et la “numérisation” qui sentaient trop l’informatique du gars dont on veut prendre la place. Il faut toujours paraître neuf pour faire peur aux décideurs de manquer le prochain train de la hype, leur faire payer des refontes complètes, et renouveler les équipes par du sang neuf qui se croit né avec le soleil. Ces dernières années quand j’expliquais ça aux gens je leur disais « vous verrez ils sortiront un jour le web 3 ». Il semble que ce soit fait.

    Les consultants sont venus vendre du « passage au web 2.0 », puis sont venus vendre de la « stratégie digitale », c’est rien que de la créativité de commercial, la classique étiquette « nouvelle recette ».

    Amusant : les “numéros de versions” du web dans la page web 2.0 qui ont probablement été rédigés aux alentours du “web 2.0” sont désormais rétrospectivement ridicules, je vous laisse en apprécier le croustillant de ringardise du futur décrits par les diseurs de bonne aventure, façon voiture volante du web du futur.

    En aparté, j’ai comme l’impression que la rédaction des pages Wikipédia francophones relatives aux technologies semblent s’être arrêtée il y a 10 ans, j’ai souvent l’impression de voyager dans le temps en lisant des phrases au présent ou futures qui décrivent des réalités oubliées ou qui ne sont jamais arrivées.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: egoportrait

    Posté par  (site web personnel) . En réponse au sondage Quel terme québecois mériterait le plus d'être généralisé en francophonie ?. Évalué à 10.

    J’aime bien aussi égographie ! 😄️

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Pourtant ça partait bien

    Posté par  (site web personnel) . En réponse au journal Comment j’ai été réduit en esclavage, comment vous m’avez aidé, et les leçons que j’en ai tirées. Évalué à 4.

    Tu dis que si tu n'a pas écris ton propre contrat de travail c'est que tu ne sais pas dire non.

    Non, je dis que celui qui n’écrit pas son propre contrat de travail ne peut pas dire aux autres qu’ils ne savent pas dire non.

    Il y a d’autres moyens de dire à quelqu’un que son avis n’est pas recevable que le simple «toi-même» de cour de maternelle, et ce n’est pas ce que je fais. Par exemple celui qui dit à un autre qu’il ne sait pas dire non ne s’est pas forcément vu proposer le même contrat dans le même contexte, et nul ne saura jamais vraiment ce qu’il aura fait, par contre on sait déjà qu’il n’a pas encore prouvé qu’il aura su ou pu dire non, alors si son propre jugement de lui même est incertain dans ce contexte son jugement de l’autre l’est au moins autant.

    Au passage, la proposition initiale à laquelle je répondais était pour le coup vraiment simpliste, beaucoup plus explicite et simpliste que ce que tu as cru lire et qui t’a fait tiquer. Je ne t’ai pas vu remettre en question cette proposition explicite simpliste qui déclare qu’une personne très précise serait manifestement une personne fragile qui ne sait pas dire non.

    Par contre le fait qu’on puisse exprimer de manière non-spécifique des doutes concernant le jugement de quelqu’un d’indéterminé qui n’aurait supposément jamais écrit son propre contrat de travail semble motiver beaucoup plus ton besoin de répondre et de contredire.

    Je rappelle simplement cette phrase :

    Pourtant quand je dis « l’employé doit rédiger son contrat de travail », je me prends parfois des oppositions et même des contradictions de la part d’employés. C’est peut-être un moyen de se justifier de ne pas l’avoir fait ? C’est peut-être aussi la peur de remettre en cause un certain ordre établi.

    Fais-tu partie de ceux qui ont déjà signé un contrat sans l’amender ? Le cas échéant il n’y aura aucun jugement négatif de ma part, moi aussi ça m’est déjà arrivé de signer un contrat que je n’avais même pas amendé. Et puis ce n’est pas quelque chose qu’on apprend à l’école, à peu près tous les premiers contrats sont donc souvent signés ainsi. Personnellement je signe des contrats depuis 16 ou 17 ans donc forcément avec le temps j’ai appris, et je n’ai pas de problème avec l’idée que je fais mieux qu’avant.

    Je trouve quand-même que ta réaction ressemble beaucoup à des réactions que j’ai déjà vues, mais pour te rassurer, j’ai vu bien plus explicite, comme des gens (y compris des salariés) qui m’ont affirmé avec beaucoup de certitude que non un salarié ne doit jamais écrire son contrat, et parfois j’ai pu entendre que ça pourrait remettre en cause la nature même du salariat, ou encore que la seule liberté d’un employé serait de signer ou non le contrat, et que s’il y a déjà un contrat signé, la seule liberté serait de démissionner (ce qui signifierait d’ailleurs que l’employé ne pourrait être acteur de sa propre évolution de carrière/salariale, etc.).

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Pourtant ça partait bien

    Posté par  (site web personnel) . En réponse au journal Comment j’ai été réduit en esclavage, comment vous m’avez aidé, et les leçons que j’en ai tirées. Évalué à 2. Dernière modification le 01 avril 2022 à 02:07.

    Tu vises quoi ? C’est quoi ton but ? C’est quoi ta proposition ?

    Ce n’est pas bizarre. La phrase à laquelle je répond ne peut être ni vraie ni fausse.

    Les hommes ne sont pas absolus ni intemporels. Il y a des erreurs qui rendent vulnérables, ce qui ne justifie en rien l’abus. Toutes les expériences sont d’une manière ou d’une autre des leçons. Mais la proposition initiale était caricaturale et inapplicable, je n’ai donc pas répondu dans le même absolu. En plus l’auteur du commentaire en fait une définition de ma personne. Je n’ai pas à répondre à ce n’est pas un procédé honnête. Le « manifestement » est même purement gratuit.

    La phrase à laquelle je réponds est un absolu dans un présent d’éternité : « L'auteur du journal est manifestement une personne fragile qui
    ne sait pas dire non », je ne suis ni absolu ni éternel, je suis inscrit dans le temps et l’espace. La notion de vrai ou faux sur un tel absolu n’est pas applicable.

    Je ne me reconnais pas dans cette phrase mais je trouve quand même les deux sujets intéressants, parce que cela soulève la question de la vulnérabilité et la question du non. C’est pourquoi j’ai quand même saisi l’occasion et développé le sujet. Par exemple je n’ai pas de problème à dire que j’ai été vulnérable et que j’ai été soumis à des procédés malhonnêtes. Mais ce n’est pas un absolu qui définit ma personne et ça concerne des faits inscrits dans une temporalité. Je n’ai pas à dire que la phrase d’origine est vraie ou fausse, ce serait absurde.

    Par exemple non je ne contredis pas le fait que je n’ai pas toujours signé des contrats parfaits. C’est aussi pour ça que j’ai plus d’expérience aujourd’hui, et que justement, je peux la partager, que ce soit pour expliquer ce qui peut se passer, ou prendre les moyens de l’en empêcher. Je sais aussi que celui qui ne subit pas ce que j’ai subit ne dit pas forcément grand chose sur lui-même car ce qu’il vit est aussi très dépendant des autres. Par ailleurs je sais aussi qu’un non n’est pas toujours suffisant.

    Mais je ne dis pas non-plus que je ne sais pas dire non, ce serait mentir pour commencer. J’ai payé très cher certains de mes non. Il est vrai que je me suis peu étendu sur ce que j’ai aussi subit à cause de mes refus et de mes non mais j’ai le sentiment que raconter cela me demanderait d’être encore plus précis et je ne veux pas prendre ce risque. Je n’ai pas vraiment de leçon à recevoir sur la capacité à dire non et je pourrai en redonner des leçons. Mais pour justifier mon affirmation il me faudrait donner quelques exemples et j’en viendrai à nommer directement des personnes, et ça je dis non, justement. Et puis je n’ai pas besoin de me justifier. Tout ce que je pourrai dire pourrait être utilisé contre moi™.

    Il y a des non que je n’ai pas donné et qui m’ont beaucoup coûtés, et il y a des non que j’ai donné et qu’on m’a fait payer plus cher encore. Au final, je peux dire que tous les non que je n’avais pas donné il a fallu que je les rachète plusieurs fois leur prix, et il a fallu que je les rachète tous, sans exception et intégralement. Je sais donc aussi, par l’expérience, que le non qui doit être donné est toujours moins cher quand il est immédiat. Donc je connais la valeur du non, je connais la valeur du non quand il faut le reconstruire et le racheter, je connais la valeur du non quand il est donné tout de suite. J’en connais le prix.

    Ah, un exemple me vient que je peux donner sans donner de nom ni de contexte trop révélateur. Quelqu’un a conditionné mon évolution de carrière et l’amélioration de ma condition au fait que je retire une plainte contre quelqu’un. J’ai dit non. J’ai été acteur de ce non et donc certains pourront dire que j’ai été acteur de la non-amélioration de ma condition et même de son aggravation. D’autres plus pervers diront même qu’en refusant le marchandage j’ai accepté le maintien de ma condition et donc que j’aurai accepté ma condition. Je savais ce que ce non signifiait, et j’ai payé très cher ce non.

    Une leçon que j’ai reçue fut l’histoire tragique d’une personne qui m’était proche. Dans ce qu’elle vivait cette personne m’exprimait sa crainte de parler, elle me disait que si elle parlait elle serait mutée. Coïncidentalement elle est morte sur son lieu de travail. Je sais que si elle avait parlé, si elle avait été mutée, elle ne serait pas morte. Alors si les deux choix sont à risque, autant parler, autant dire non.

    Des options autres où tu es acteur de ce qui t'arrive.

    Ta phrase est belle comme un bourreau qui se justifie.
    La survie implique d’être acteur un minimum dans tous les cas, sinon t’es mort.

    J’aimerai bien t’y voir.

    ce commentaire est sous licence cc by 4 et précédentes