Thomas Debesse a écrit 3624 commentaires

  • [^] # Re: Peu probable...

    Posté par  (site web personnel, Mastodon) . En réponse au journal Un livre d'histoire de sixième. Évalué à 10.

    PIB/habitant PPA du Sénégal : 2500 /an (contre 43 000 /an pour la France). 2x moins en nominal. Un fait.

    Attention avec ce genre de comparaison. Déjà pour commencer tes nombres n’ont aucune unité.

    Ensuite, le PIB est un ordre d’idée mais ne peut pas être un indicateur fiable de comparaison entre deux entités différentes, surtout quand les deux entités ne sont pas dans la même zone économique/le même marché intérieur. C’est beaucoup plus fiable de comparer le PIB de la France en 2021 avec le PIB de la France en 2022, de comparer le PIB de la France et celui de l’Allemagne en 2022, que de comparer le PIB et celui du Sénégal en 2022.

    Je ne doute pas que le PIB du Sénégal soit très inférieur à celui de la France. Mais à “2x moins en nominal. Un fait.” j’ajoute un autre fait : la comparaison n’est pas juste, très loin d’être juste.

    Je connais moins le Sénégal que La France, certes, mais je sais que la France est dans une zone économique particulière extrêmement gonflée par diverses choses, dont une inflation énorme liée à une dette colossale.

    Pour grossir le trait avec un exemple très basique, est deux fois plus riche celui qui a un salaire de 200€ par mois dans un pays où la baguette coûte 5 centimes d’€ que celui qui a un salaire de 2000€ par mois dans un pays où la baguette coûte 1€.

    Par exemple j’aimerai bien voir un indicateur qui indique la proportion d’argent dette dans la valeur d’une chose (salaire, produit de consommation…)

    C’est notamment je crois une des raisons de la résilience de la Russie face aux sanctions des pays de l’OTAN, beaucoup moins de dette que les pays qui mettent des sanctions, des salaires intérieurs plus faibles que les adversaires économiques mais aussi des prix intérieurs plus faibles que les adversaires sur les biens de consommation essentiels. La disparité de valeur des choses devient même un indicateur de plus en plus inutile plus l’économie est autonome et coupée du reste du monde : à quoi sert de savoir si ton voisin vend deux fois le prix si tu n’as pas besoin d’acheter à ton voisin ? Tu ne gagneras pas deux fois plus si tu vends, mais tu ne paiera pas non-plus deux-fois plus si t’achètes…

    Bref, je ne doute pas que le niveau de vie au Sénégal soit bien plus inférieur que celui en France, mais ton argument est complètement pété : pas d’unité, pas de contexte qui apporterait au moins un début d’échelle, pas d’argument défendant que la comparaison soit valable ni même un semblant de proposition de variable d’ajustement à prendre en compte, tout ça pour balancer un « 2× moins en nominal, un fait » qui sonne bien, qui claque, qui ferme le débat, mais qui est surtout très peu fiable.

    Clairement, il est certainement mieux pour beaucoup de personnes de vivre dans une France qui vit au dessus de ses moyens qu’au Sénégal, mais ça n’enlèvera pas le fait que la France vit énormément au dessus de ses moyens et que notre valeur monétaire est fictive.

    Que le pokémon A soit 2× plus fort que le pokémon B est une chose, un fait, mais est ce que c’est une comparaison utile dans le débat?

    Si on joue à ça on doit aussi pouvoir dire que la France du moyen-âge a asséché des marais et bâti des cathédrales avec un PIB inférieur à celui du Sénégal (j’en sais rien, mais ce genre de comparaison est tout aussi absurde).

    Le PIB est entièrement dépendant du marché, mettre tous les PIB de tous les pays sur une unique carte c’est surtout un moyen d’évaluer le monde avec le biais de la monnaie dominante/zone économique dominante/marché dominant (en gros, c’est un colonialisme). Il n’y a pas de marché unique mondial. Il n’y a pas de marché intérieur mondial.

    C’est d’ailleurs pour ça qu’il est intéressant d’aller travailler dans un pays avec une économie gonflée par l’inflation pour transférer les fonds dans un pays avec une monnaie plus faible. En Europe avec ton salaire gonflé de dettes tu achètes une baguette gonflée de dette. Tu réinjecte donc la dette dans le marché. Mais si avec le même salaire tu achètes le même genre de baguette dans un pays avec une monnaie plus faible, tu achètes plus de baguette, et tu as détruit la dette du pays émetteur car tu ne l’as pas réinjectée dans le marché, et donc tu as détruit la monnaie du pays émetteur car c’est une monnaie fondée sur la dette.

    C’est exactement le même mécanisme de destruction de monnaie que celui qui achèterait avec un salaire Français tous ses produits en France sans TVA et qui ne paierait pas les cotisations sociales de ses salariés français : une part de cet argent appartient au fonctionnement de la société, le revenu et le prix des produits intègre cette part, si le revenu intègre cette part mais pas la consommation, c’est un sabotage, une destruction de monnaie, et une destruction sociale.

    Défendre le mythe du marché unique mondial c’est dissimuler la destruction de monnaie qui a lieu dans les échanges entre marchés. Cette dissimulation rend surtout service à des milliardaires financiers. Le migrant qui opère ces transferts de fonds à son petit niveau est surtout un esclave : il n’a pas de papier, il n’a pas de droit, il contracte une dette en posant son pied sur le sol Français, et ne doit sa survie qu’au fait d’opérer les basses œuvres de transfert monétaire dérégulé entre deux marchés différents, au profit de ses maîtres. La famille du migrant bénéficie certes des virements du migrant, mais le maître financier récupère sur le marché le même argent qui peut alors être échangé contre plus de produit et moins de dette, au lieu d’être échangeable contre plus de dette et moins de produits.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: À propos du http pas s

    Posté par  (site web personnel, Mastodon) . En réponse au journal Un switch beaucoup trop à l'écoute .... Évalué à 3.

    D’où le côté très pratique d’avoir dans un coin un très vieux Firefox pour Windows avec un vieux plugin Java (voire un vieux Silverlight, vous l’aviez oublié? et Flash, oh non pas lui…) dans un préfixe Wine au cas où…

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: shotcut, bien entendu

    Posté par  (site web personnel, Mastodon) . En réponse au sondage Ton éditeur de vidéo non linéaire favori. Évalué à 3.

    1. T’as pas compris, je n’ai jamais utilisé un paquet tiers (donc par exemple là si j’avais envie de réessayer, c’est que j’irai), mais par contre je ne l’ai jamais recompilé parce que :

    2. Mais c’est délicieux les endives cuites vapeur. Évidemment si tu les achètes en supermarché elles sont dégueu, mais le troisième vendredi du mois à Porte de Champeret il y a un producteur qui passe et qui peut te filer de vraies endives pas chères il faut juste s’inscrire etc….

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: shotcut, bien entendu

    Posté par  (site web personnel, Mastodon) . En réponse au sondage Ton éditeur de vidéo non linéaire favori. Évalué à 3.

    J’ai toujours utilisé les paquets fournis par les développeurs, je ne suis même pas sûr qu’il y ait d’autres moyens.

    La seule option pour soutenir qu’en fait ça marche mais que les paquets que j’utilise sont mal faits, ce serait d’affirmer que les développeurs ne compilent pas proprement les paquets. Vraiment ???

    Donc, non.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Agenda caché

    Posté par  (site web personnel, Mastodon) . En réponse au journal Le gouvernement veut rendre le sexe payant sur internet. Évalué à 6.

    Le masque ça sert pour les autres, mais pas pour soi-même

    Pas du tout. Ça protège soi-même, mais pas les autres.

    Bon OK je provoque, si je précise pas quel masque, mon commentaire est aussi bidon que le tien.

    Un masque FFP3 par exemple, protège soi-même mais pas les autres : il a une valve qui se ferme quand tu inspires, ce qui force l’air à passer par le masque (et donc à être filtré), et la valve s’ouvre quand tu expires, ça veux dire que ce que tu expires n’est pas filtré.

    C’est aussi un rappel rapide qu’on ne peut pas supposer que FFP1 < FFP2 < FFP3. Ça dépend à quoi il sert.

    ce commentaire est sous licence cc by 4 et précédentes

  • # Bonne nouvelle!

    Posté par  (site web personnel, Mastodon) . En réponse au journal Memtest86+ v6.00 est sorti. Évalué à 10.

    J’ai longtemps utilisé la version béta “mt531b.iso” parce que la version fournie avec le paquet memtest86+ dans Debian/Ubuntu a un bug sur certains ordinateurs (faux positif, il dit que la mémoire est défectueuse alors que non).

    Pour moi la meilleure façon d’utiliser memtest c’est de copier le fichier iso dans /boot/images et d’installer le paquet grub-imageboot (exécuter update-grub après chaque ajout de fichier image). Ça ajouter un menu dans GRUB pour démarrer l’iso. Ça marche pour toute iso pas trop grosse et complètement autonome (genre qui ne cherche pas un lecteur CD physique pour retrouver ses données), donc c’est parfait pour memtest!

    J’utilise la même astuce pour mettre à jour de vieux bios sur de vielles machines, j’ai une iso freedos que j’édite avec ISO master et j’ajoute les programmes à l’iso que je démarre avec GRUB. J’ai toujours une Ubuntu installée sur une clé USB configurée pour être à la fois bootable en BIOS ou en UEFI avec secure boot (ça demande un peu de bidouille car les paquets s’opposent mutuellement).

    En parlant de secure boot, je viens de voir que le grub-imageboot n’est pas autorisé à lancer les isos quand secure boot est activé. Je ne sais pas si l’iso elle-même est compatible secure boot si elle est démarrée directement (j’ai pas essayé).

    Pour ceux qui se demandent pourquoi il y a une version grub, je viens de voir, c’est une iso qui contient un grub avec un menu pour différentes options, notamment pour gérer les clavier USB en natifs ou avec l’émulation BIOS.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: shotcut, bien entendu

    Posté par  (site web personnel, Mastodon) . En réponse au sondage Ton éditeur de vidéo non linéaire favori. Évalué à 6.

    OK, mpeg2 et mp4 et picétou.

    Je vais pas vérifier la liste précise des codecs, mais tkr rapporte son expérience de liste de codecs pris en charge trop limitée, j’imagine qu’à chaque fois qu’il a essayé, il n’a même pas pu importer ses vidéos. Personnellement c’est mon expérience.

    Je rééssaie de manière régulière. J’ai commencé à l’essayer il y a 15 ans, et depuis de temps en temps je réessaie. Récemment, genre l’année dernière, j’ai réussi pour la première fois le test de « j’installe, je lance, je prends une vidéo au hasard et je regarde si ça charge ». 15 ans pour aligner les planètes et réussir à charger une vidéo en la prenant au hasard.

    C’est donc peut-être imprécis, mais non, ce n’est pas « n’importe quoi ». Cinelerra fait le difficile avec les formats, c’est factuel.

    Tu exprimes juste que tu as de la chance que les planètes s’alignent de ton côté en mode « chémoiçamarche ».

    Ou alors ça vient de changer et personne ne s’en est encore rendu compte.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: honnetement..

    Posté par  (site web personnel, Mastodon) . En réponse au journal La première procédure bâillon au nom du secret des affaires, c'est pour Reflets.info. Évalué à 4.

    Ton premier lien est cassé !

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Documents bruts?

    Posté par  (site web personnel, Mastodon) . En réponse au journal La première procédure bâillon au nom du secret des affaires, c'est pour Reflets.info. Évalué à 10.

    Le darknet n’est pas une technologie. Est du darknet tout ce qui n’est pas public et référençable sur Internet. La page tkr n’affiche pas publiquement ton karma, pourtant tu peux le consulter. C’est déjà du darknet. Les moyens techniques pour accéder à des espaces non-publics et non référencés sont divers.

    « le » darknet n’existe d’ailleurs pas. Ce qui existe ce sont des dark nets. C’est à dire des réseaux invisibles, donc dans le noir. Darknet n’est pas un nom propre, c’est un nom commun. Parler « du darknet » comme d’un nom propre et d’une platforme, une technologie, un réseau spécifique est un folklore très français.

    La page Wikipédia francophone est un bon exemple de docufiction : https://fr.wikipedia.org/wiki/Darknet

    Ça commence bien pourtant :

    Un darknet est un réseau superposé (ou réseau overlay) qui utilise des protocoles spécifiques intégrant des fonctions d'anonymat[1]. Certains darknets se limitent à l'échange de fichiers, d'autres permettent la construction d'un écosystème anonyme complet (web, blog, mail, irc) comme Freenet.

    Et puis rapidement :

    Le masque Anonymous ou Guy Fawkes est l’un des symboles du Dark Web.

    On remarquera que le titre de cette partie est en contradiction avec le texte qui suit:

    Genèse du réseau
    Inventés à l'origine durant les années 1970 pour désigner les réseaux qui étaient isolés d'ARPANET (lequel a évolué en Internet) pour des raisons de sécurité[6], les darknets étaient capables de recevoir des données de la part d'ARPANET mais avaient des adresses qui n'apparaissaient pas dans les listes de réseaux et ne répondaient pas aux ping et autres requêtes.

    Et puis:

    Utilisateurs du réseau
    Le Darknet est surtout connu pour ses applications illégales.

    Vous reprendrez bien un peu de « du réseau » avec votre « le darknet » ?

    La page anglophone tombe moins dans la mythologie d’adolescents : https://en.wikipedia.org/wiki/Darknet

    A dark net or darknet is an overlay network within the Internet that can only be accessed with specific software, configurations, or authorization,[1] and often uses a unique customized communication protocol. Two typical darknet types are social networks2,[3] and anonymity proxy networks such as Tor via an anonymized series of connections.[4]

    Terminology
    The term originally described computers on ARPANET that were hidden, programmed to receive messages but not respond to or acknowledge anything, thus remaining invisible, in the dark.[7]

    Origins
    "Darknet" was coined in the 1970s to designate networks isolated from ARPANET (the government-founded military/academical network which evolved into the Internet), for security purposes.[7] Darknet addresses could receive data from ARPANET but did not appear in the network lists and would not answer pings or other inquiries.

    This paper described "darknet" more generally as any type of parallel network that is encrypted or requires a specific protocol to allow a user to connect to it.[1]

    Bref, ce qui devrait être « Genèse du terme » est « Genèse du réseau », ce qui devrait être un nom commun est un nom propre… N’importe quoi. Évidemment ça contredit la partie qui dit que « Il existe des dizaines de darknets différents. » qui reprend en gros la trame de la page anglophone, qui elle, est cohérente.

    Bref, une machine qui ne répond pas au ping c’est déjà du darknet.

    Chatter avec Jami c’est déjà du darknet.

    Surfer sur un site en .onion c’est déjà du darknet.

    Des gens qui utilisent des groupes Facebook avec des comptes anonymes pour s’échanger des références codées de fichiers, c’est déjà du darknet.

    Ta page karma c’est déjà du darknet.

    Freenet c’est aussi du darknet et c’est lent, plus lent que tor.

    Alors des darknets avec une vitesse de téléchargement qui avoisine l'ADSL 1Mbps, oui il y en a. Mais ce n’est pas le darknet. Le darknet n’existe pas en tant qu’entité unique ni comme technologie unique.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: VirtualBox passe de Opus à Vorbis

    Posté par  (site web personnel, Mastodon) . En réponse au lien Patent clouds for the Opus codec. Évalué à 4.

    Dans la FAQ de Xiph qui développe à la fois Vorbis et Opus:

    Q: Does Opus make all those other lossy codecs obsolete?
    A:Yes.
    From a technical point of view (loss, delay, bitrates, …) Opus renders Speex obsolete and should also replace Vorbis and the common proprietary codecs too (e.g. AAC, MP3, …).

    Et aussi:

    Q: Will Opus replace Vorbis in video files?
    A: For Ogg video files (which use the Theora video codec), you can use Opus instead of Vorbis, but the overall size reduction will be minimal and it will break compatibility with existing players.
    For WebM video files, the convention is to use the VP9 video codec when using Opus as an audio codec.

    Ici Vorbis n’a que d’intérêt dans un format particulier (Ogg video qui ne prend en charge que Vorbis et Theora). Pour WebM ils recommandent Opus, et VirtualBox fait du WebM.

    Et pour reprendre ton lien. Déjà le comparatif a 7 ans, c’est beaucoup, et certains points listés sont très actualisés.

    Les points positifs:

    • Opus is better for streaming / communication due to it's low latency.
    • Opus has a voice mode with CD quality voice @ 32Kbs
    • Opus sounds okay @64Kbs and great @96Kbs [Vorbis okay @ 96 and great @ 128Kbs]
    • Opus is more robust to packet loss

    Ça ça n’a pas changé. Il semble qu’il était aussi mentionné “Default on Android 5+” et quelqu’un avait corrigé que ce n’était pas encore exposé dans le framework multimédia. Mais c’était il y a 7 ans, justement. Android 5 est sorti en 2014. En quoi cet argument nous concernerait ou motiverait VirtualBox ?

    Les points négatifs :

    • Vorbis is deployed on more portable music players

    J’avoue que je n’utilise pas ce genre de gadget, je me demande à quel point c’est encore vrai. Il est vrai qu’un autoradio peut avoir une grande longévité, j’ai vu des autoradios qui ne lisaient que du mp3 sur du FAT16, ceux-là ne lisent pas Vorbis de toute façon. Par contre c’est ça que vise le patent troll. Mais en quoi ça motiverait VirtualBox ? Est-ce que VirtualBox veut streamer des bureaux virtualisés sur des autoradios qui ne lisent que des clés USB en FAT16 ?

    • Vorbis is used on videogames(which is cool when you find them in the game directories)

    Là aussi c’est qu’une question d’actualité. Par exemple Unvanquished a implémenté Opus en juillet 2013 et distribue ses sons en Opus depuis ce temps. Ça fait 9 ans. Le commit implémentant ça s’appelle “Port over opus code from ioq3”, ce qui signifie que le code est porté depuis un autre moteur (ioq3) qui est le parent de plein d’autres. Le commit “Add Ogg Opus support” d’ioq3 date de février 2013. Ça fera 10 ans dans 4 mois. Et ça c’est pas un argument concernant « faut-il utiliser Vorbis ou Opus », mais un argument « j’aime bien quand les autres utilisent Vorbis ou Opus ».

    Et pour les jeux en particulier, toute la chaine de production et diffusion est contrôlée donc la popularité d’un format n’entre pas en ligne de compte. Les jeux utilisent même parfois des formats super spécifiques (je pense notamment aux images et vidéos) pour répondre à des besoins très particuliers et de toute façon le codec est intégré au jeu. Bref c’est un argument « j’aime bien quand les autres choisissent ça ». Ce n’est pas un argument « je développe un logiciel, quel format choisir pour mon besoin ».

    • Vorbis is easier to have different sample rates(48Khz is implied by Opus[you can use other sampling rates through a non standard mode])

    Argument intéressant. Opus fait du 48KHz qui est déjà mieux que le CD (44.1KHz) et qui correspond à l’usage de l’industrie. Par exemple les logiciels de montage en radio font du 48KHz, qui est l’échantillonnage du DAT. Idem pour le transport aux émetteurs. Les CD sont rééchantillonés en 48KHz à la radio depuis que le CD existe. La justification de Xiph (toujours dans la FAQ) pour les limitation arbitraires est ceci : “lossy codecs are designed to preserve audible details while discarding irrelevant information”. Ils ne justifient même pas de ne pas faire moins détaillé en fait. Vu qu’Opus est censé couvrir toute la gamme d’usage depuis la téléphonie jusqu’à l’écoute musicale et remplacer les codecs existant à la fois pour l’écoute musicale (Vorbis) et la téléphonie (Speex), c’est que même 48KHz n’est pas de trop même pour un son de téléphone.

    Bref, non, je ne vois aucun argument valable en faveur de Vorbis, autre que « mon vieux lecteur MP3 lit déjà du Vorbis », mais est-ce que la fonction de VirtualBox d’enregistrement audio/vidéo est taillée pour ce besoin ?

    Opus est sensé remplacer Vorbis dans tous les usages où Vorbis est adapté, il est conçu pour ça. Si tu édite un logiciel, Vorbis est moins bien qu’Opus dans tous les cas sauf si le besoin auquel tu réponds est précisément celui de produire du Vorbis.

    Le format WebM est très lié à Opus. C’est du MKV donc ça peut prendre en charge d’autres trucs comme le Vorbis mais justement, la prise en charge d’Opus dans Android 5 c’était le WebM avec Opus. Opus a commencé dans Android pour WebM. La prise en charge des fichiers .opus n’est arrivé que dans Android 10. Et si WebM a été sorti avec VP8 et Vorbis en 2010, WebM a pris en charge VP9 et Opus dès 2013 (il y a neuf ans). C’est juste qu’Opus n’était pas prêt (le développement d’Opus était en cours, notamment avec CELT), le Vorbis c’était juste pour attendre d’Opus. Aujourd’hui tu vois un WebM tu t’attends à de l’Opus.

    Les plateformes de visio-conférence, de VoIP (notamment celles utilisées par les joueurs), de streaming vidéo, etc. font du Opus. Youtube c’est du Opus. Youtube a probablement des encodeurs considérés comme ”matériel” par les patent trolls, d’où peut-être la raison d’être de ce genre de patent troll.

    À part si le besoin est précisément le besoin technique de faire du Vorbis (comme viser un matériel spécifique qui ne lit que ça), il n’y a pas vraiment de raison de préférer Vorbis à Opus. Je serai curieux de savoir quel besoin technique a VirtualBox de faire du Vorbis en 2022. Je ne sais pas quand VirtualBox a ajouté Opus, mais ici on voit un correctif pour Opus il y a 6 ans : https://www.virtualbox.org/changeset/65281/vbox

    Donc Opus a été techniquement adapté à VirtualBox pendant au moins 6 ans… Je doute vraiment que la raison du retrait d’Opus soit technique.

    ce commentaire est sous licence cc by 4 et précédentes

  • # VirtualBox passe de Opus à Vorbis

    Posté par  (site web personnel, Mastodon) . En réponse au lien Patent clouds for the Opus codec. Évalué à 7.

    Serait-ce la raison pour laquelle VirtualBox passe d’Opus à Vorbis, ce qui est une forme de régression du point de vue des fonctionnalités et des performances ?

    Audio recording: Now using Vorbis as the default audio format for WebM containers. Opus is no longer being used.
    -- 2022-10-10 https://www.virtualbox.org/wiki/Changelog-7.0

    ce commentaire est sous licence cc by 4 et précédentes

  • # Première phrase de l’article

    Posté par  (site web personnel, Mastodon) . En réponse au lien Joe Biden signe un décret sur le transfert des données personnelles entre les Etats-Unis et l'Europe. Évalué à 5. Dernière modification le 08 octobre 2022 à 06:30.

    Le président américain Joe Biden a signé vendredi un décret permettant d’avancer dans la mise en œuvre d’un nouveau cadre pour le transfert des données personnelles de l’Union européenne vers les Etats-Unis, crucial pour l’économie numérique.

    Cette phrase ne dit pas si c’est crucial pour l’économie numérique des États-Unis, ni lesquelles autres économies.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: twit ?

    Posté par  (site web personnel, Mastodon) . En réponse au journal ManjaroARM se fait épingler par Asahi Linux. Évalué à 4.

    Après, c’est Asahi qui le dit… Et ils disent « The release is still up. » mais ne mettent pas de lien.

    J’aurai à gérer ça je ferai une copie dans la web archive et je mettrais le(s) lien(s) pour sourcer.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: twit ?

    Posté par  (site web personnel, Mastodon) . En réponse au journal ManjaroARM se fait épingler par Asahi Linux. Évalué à 10. Dernière modification le 04 octobre 2022 à 13:12.

    J’ai lié ça, je vais en citer des bouts : https://dont-ship.it/

    Personne n'oblige les developpeurs d'Asahi de publier leurs branches les plus expérimentales sur internet non plus hein. Git c'est décentralisé. Ce n'est pas comme si ils ne peuvent pas avoir une QA avec un passage en branche publique uniquement quand le code a été sujet à des tests sur les plateformes hardware supportées.

    Réponse pré-existante :

    “It discourages developers from working on new features publicly, something we care about a lot in the Free and Open Source Software community. It also frustrates developers, and in some cases, causes developers to stop supporting a distribution altogether. In this scenario, the end user gets the worst of both worlds: a broken distribution and developers who are unwilling to help.”

    « Cela décourage les développeurs de travailler publiquement sur de nouvelles fonctionnalités, ce qui nous tiens à cœur dans la communauté des logiciels libres et open source. Cela frustre également les développeurs et, dans certains cas, les amène à cesser complètement de soutenir une distribution. Dans ce scénario, l'utilisateur final subit le pire des deux mondes : une distribution cassée et des développeurs qui ne sont pas disposés à aider.

    Là tu prends la posture du saboteur pour le seul bénéfice de gagner un débat sur un forum Internet.

    Tu crois que toutes les distros envoient un mail au développeur de chaque bout de code, librairie, petit utilitaire avant de fournir un paquet? Tu crois que c'est une méthode de fonctionnement valable? Moi je serais le dev de la lib trucumuche, ça me gaverait de recevoir 50 emails de ce genre.

    Réponse pré-existante :

    “In short: when a project is being actively developed, tagged releases are the only safe option to ship to users.”

    « En bref, lorsqu'un projet est en cours de développement actif, les versions taggées sont la seule option sûre pour la distribution aux utilisateurs. »

    Bienvenue à l’homme de paille. C’est toi qui prétends qu’il n’y a pas de graduation dans le traitement du code des autres.

    Pas besoin de contacter un développeur si c’est clairement marqué comme prêt pour la publication. On parle ici de code en cours de développement dont une bonne partie relève probablement de l’essai & erreur.

    Tu remarqueras qu’ils ne disent pas « la seule option », mais « la seule option sûre », c’est à dire l’option qui peut-être choisie les yeux fermé et donc sans interaction. Si tu sors des pistes, bien sûr t’es libre, mais tu peux te mettre à risque ou mettre les autres à risque, c’est mieux de s’y initier avec quelqu’un d’expérimenté dans le hors piste et dans ce terrain en particulier. Surtout qu’ils sont probablement disposés à aider, et peut-être même enthousiastes à cette idée.

    Mais au final tu démontres précisément ce que je relevais : tu ne fais aucune différence entre un code en cours de rédaction et un code vérifié, relu, revu, validé, committé, releasé.

    Sachant que même un code en cours de rédaction a plusieurs niveau, ça peut-être un code qui suit une documentation adaptée, qui réécrit un code existant et éprouvé, ou qui, comme ici, explore un terrain qu’aucune personne ne peut témoigner avoir exploré avant.

    Comme je disais : C’est un variante de « si c’est sur Internet c’est pour être utilisé » : « si c’est sur Internet c’est que c’est prêt pour la production ».

    Si tu supposes qu’il n’y a pas de différence et que tout code publié est distribuable, cela dit que tout code publié est prêt pour la production, et donc que tout code publié doit être prêt pour la production, cela interdit toute collaboration sur une forge publique, et on en revient au sabotage car il s’agit ici de poser des exigences qui font obstacle à l’effort de production.

    Moi aussi, mais je préfère qu'ils ne pleurnichent pas si leur ego est blessé parce que quelqu'un a l'audace de l'utiliser et qu'ils ravalent leur fierté. Et s'ils n'en sont pas capables ils savent quoi faire.

    Bienvenue à l’homme de paille. C’est toi qui supposes que c’est une affaire d’égo.

    Ça s’appelle rationaliser une posture pré-éxistante, c’est précisément ce dont je parle dans mon commentaire précédent. Celui qui ne fait pas l’effort de communiquer avec l’amont quand c’est nécessaire ou qui défend ce genre de déséquilibre doit appaiser sa tension interne et pour se faire il doit se persuader qu’il y a une bonne raison qui empêche de le faire ou qui justifie de ne pas le faire.

    Le plus simple pour cela est de calomnier comme tu viens précisément de le faire. Tu prétends que ce sont des pleurnichards égoïstes imbus de fierté, ce faisant tu persuades les autres et te persuades que toute communication avec eux sera difficile et douloureuse et qu’ils rendent les relation sociale difficile si ce n’est qu’ils s’y opposent, et donc cela justifie de ne pas communiquer avec eux ou même qu’au final, ils sont la cause de toute absence de communication car il faut bien se protéger des gens toxiques. Distribuer leur code dans ces conditions et selon ces manières serait même un acte héroïque qui permettrait de sauver cette production de la main de ces gens problématiques, c’est être une forme de robin des bois des temps modernes qui prend aux méchants pour donner aux gentils.

    Quod erat demonstrandum.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: twit ?

    Posté par  (site web personnel, Mastodon) . En réponse au journal ManjaroARM se fait épingler par Asahi Linux. Évalué à 10.

    Je trouve particulier que Asahi communique via twitter, pourquoi ne pas contacter avant manjaro ?
    le gitlab manjaro existe et pas une seule issue ? le repo existe depuis 4 jours
    https://gitlab.manjaro.org/manjaro-arm/packages/apple-silicon

    La communication par Twitter est un problème en soi. Mais par contre c’est Asahi l’upstream ici, donc si quelqu’un a un intérêt dans ce que produit Asahi, c’est à lui de contacter Asahi, pas l’inverse. C’est ça l’essentiel du message à la base malgré la forme du tweet/

    Pour se faire une idée d’à quel point “expérimental” veut dire dans ce contexte, on peut donner cet exemple : récemment une personne contribuant à Asahi a publié une vidéo titrée « ÇA MARCHE! GNOME, Firefox, applications KDE, tout !!!! ». Et effectivement à première vue ça marche… SAUF QUE de ce que j’ai lu à droite et à gauche, il y a un énorme HACK qui est utilisé pour contourner un gros bug, et ce hack ce serait d’éteindre et rallumer le GPU à chaque frame. Quelqu’un qui livrerait ça ce serait un peu comme livrer une voiture qui, pour pouvoir être conduite par des tiers et rouler y compris à 120 sur l’autoroute, le démarreur doit être maintenu continuellement en marche et le frein jamais touché. Si Manjaro livre des choses expérimentales d’Asahi sans concertation avec Asahi, les utilisateurs sont à risque de recevoir ce genre de choses, et peut-être pire.

    Quand on développe, on peut avoir des situations où les choses commencent à prendre vraiment forme, suffisamment pour en faire des démos, mais en sachant qu’il y a des trucs bien sales voire des choses super risquées qu’il ne faut pas du tout faire. Le développeur qui fait la démo peut faire exprès de ne PAS faire ci ou ça, ne PAS cliquer là, etc. Mais dans une démo contrôlée pour communiquer sur l’avancement (ce sont déjà des succès énorme, chaque bug après l’autre) on ne peut pas tout dire, et parfois le développeur n’a que des intuitions sur ce qui serait super risqué de faire sur la base de ce qu’il sait avoir grossièrement dégrossi à l’arrache.

    Ça peut donc être très préoccupant pour un développeur de voir son patch se retrouver en prod alors qu’il n’est public que par amour de l’open source, méthode de travail, transparence, communication, toussa, ou même rien que pour se faire mousser, et se dire « merde ça peut flinguer le matos des gens il y a que moi qui le sait et ce gus il a pris mon code et il leur a donné sans même me demander s’il y avait un risque 😱️ ».

    C’est un variante de « si c’est sur Internet c’est pour être utilisé » : « si c’est sur Internet c’est que c’est prêt pour la production ».

    Là récemment je suis de près le travail sur rusticl, un nouveau pilote OpenCL pour Mesa. Le développeur a publié une copie d’écran de LuxMark fonctionnant avec une carte Radeon, puis que le pilote “passait la conformité OpenCL 3.0 CTS”, j’ai démontré la capacité à utiliser plusieurs GPUs en même temps et la couverture large des générations de matériel, puis j’ai montré que Darktable fonctionnait. Vu comme ça c’est super excitant. Ça a l’air de marcher et tout. Certains pourraient être tentés de livrer ça sur la base de ces images et autres témoignages. En fait il y a d’énormes limitations, par exemple le compilateur ne sait pas encore gérer les appels de fonctions donc toutes les fonctions sont “inlinées”. Le premier benchmark de LuxMark marche parce que le code est simple, mais prend le deuxième et 20h après le compilateur OpenCL compile encore sur ton Ryzen de compétition et le process te bouffe 70Go de mémoire. Alors ici ça va peut-être pas flinguer ton matos (mais qui sait?), mais tu vas possiblement paniquer ton kernel ou juste voir ton PC planter par manque de ressource. Mais qui sait tout ça ? Le développeur qui sait précisément là où il en est dans son code, et là où il n’est pas. Comment moi je sais ça ? Parce que je discute avec le développeur, je teste ce qu’il produit, lui fait des rapports sur mes tests, il corrige en fonction de mes rapports, etc.

    J’imagine que les gens d’Asahi ont aussi plein de trucs qu’on ne peut pas savoir si on n’est pas avec eux à chaque étape. Ils font des jolies démos, ils montrent le travail accompli, et PAF ils voient leur code hautement expérimental qui n’est pas beaucoup plus qu’une preuve de concept être distribué par un tiers comme un produit “releasé”, et sans même s’être enquit d e quoi que ce soit avant… Et ce tiers est genre un inconnu qu’ils ne voient jamais ? Comment pourrait-il savoir ce qu’il fait ? Il ne peut pas savoir ce qu’il fait, c’est impossible.

    Récemment j’ai découvert cette page : https://dont-ship.it/

    Il y a des arguments intéressant. Ils précisent bien qu’il n’y a pas de problème à ce que les gens aient envie d’essayer des trucs.

    Mais là on a des gens qui font essayer à d’autre ce qu’ils n’ont pas développés et les autres (ceux qui essaient) n’ont pas l’initiative de l’essai. Les testeurs n’ont ni l’initiative du développement ni l’initiative du test. Et celui qui livre le travail du développeur au testeur ne communique pas avec le développeur sur les risques et les manières de livrer ça au testeur, et il n’est pas clair dans sa communication auprès du testeur non-plus (à part dire que c’est tout neuf tout beau).

    Un des arguments avancés c’est notamment que les projets amonts qui souffrent de la mauvaise réputation que font les utilisateurs trahis par les intermédiaires. Ceci peut pousser les développeurs à cessent de travailler de manière ouverte et transparente.

    Et au delà de ça il y a un vrai problème concernant le fait que, non, s’il y a une vidéo, une copie d’écran, un tweet d’émerveillement concernant une étape atteinte dans un produit en cours de développement, non ce n’est pas livrable.

    Je donne un autre exemple : Le moteur Dæmon qui propulse le jeu Unvanquished est un descendant du moteur XreaL. Il y a dix ans, les développeurs d’XreaL avaient montré des vidéos excitantes de fonctions en cours de développement. Depuis, il y a quelqu’un qui passe de temps en temps pour nous cracher à la gueule en disant que les développeurs ne savent pas ce qu’ils font, qu’ils gâchent tout, etc. Qu’ils retirent des fonctionnalités, et que c’est bien la preuve de leur incompétence car ça montrent qu’ils ne savent pas comment ça marche ni le maintenir, etc. La réalité, c’est qu’XreaL était une preuve de concept. Un tas de preuve de concepts posées à côté les unes des autres (parfois même pas empilées les unes sur les autres). Chaque fonctionnalité que l’on voit dans les vieilles vidéos, en gros elle marchent mais une à la fois. T’en active deux ça pète. Aucun produit fini n’a jamais existé avec ces fonctionnalités. J’ai moi-même terminé l’implémentation d’un code qui avait été incorporé à l’état de brouillon il y a dix ans et jamais touché depuis : le code des “heightmaps”. Un point qui montre que c’était une preuve de concept c’est que la carte codait la hauteur si la donnée était stockée dans un fichier à part et codait la profondeur si la même donnée était stockée dans un fichier stockant d’autres données. Et si on activait la fonctionnalité, toute absence de canal alpha dans une image était interprétée comme une profondeur maximum (!!!), ce qui avait poussé le développeur de la preuve de concept à implémenter un mot-clé (à écrire pour chaque image !!!) pour « empêcher de lire l’absence de canal alpha » (lol) pour contourner le bug du bug du bug. Bref. Les copies d’écrans et vidéos étaient séduisantes. Mais entre le jour où les vidéos ont été faites (ou même des démos jouables distribuées) et le jour 10 ans plus tard où j’ai transformé le code depuis l’état « preuve de concept qui pour marcher demande d’enregistrer les données de manière incorrectes et de configurer chaque données pour dire au moteur de faire une autre erreur qui annule la première » en implémentation correcte, j’ai pourtant été témoin années après années des plaintes disant que les développeurs étaient incompétents et qu’ils supprimaient des fonctionnalités qui marchaient avant, que tout marchait avant, etc.

    Et d’ailleurs pendant dix ans j’ai vu quelqu’un promettre ce genre de tas de preuve de concept à des gens en leur vantant monts et merveilles, pour les laisser dans la désillusion amère quelques années plus tard, recommençant la montagne russe émotionnelle avec des nouvelles victimes toutes les X années. Il y a des gens comme ça, qui se placent entre les développeurs amonts et les utilisateurs, qui ont d’ailleurs assez de compétence pour être un développeur amont s’ils voulaient travailler en équipe (mais ce serait inconcevable), et qui utilisent surtout ces compétences pour vendre du rêve à des victimes toujours renouvelées. Parfois ils arrivent quand même à livrer des choses vraiment intéressantes avec des gens satisfaits quand même, parfois ils ne laissent que de la souffrance, et dans tous les cas les développeurs amonts sont dénigrés, ignorés, voire calomniés avec des ribambelles d’utilisateurs indirects biberonnés à du dénigrement, si ce n’est de la haine ou du mensonge envers les développeurs amont.

    Je ne connais pas Manjaro, je ne sais rien de plus que le fait qu’ils auraient distribués une preuve du concept sans concertation avec le projet amont, je ne dis pas qu’il y a plus grave comme ce que j’ai dit avoir vu dans d’autres projets. Mais je comprends tout à fait que cet évènement cristallise les souffrances de plein de gens, et pas forcément à cause de leur implication dans les projets en question, mais aussi à cause de leur propre expérience dans d’autres projets. Et ça ressemble quand même au schéma de l’équipe qui vend du rêve sur le travail des autres en se plaçant comme intermédiaire opaque et mettant ses utilisateurs à risque (ne serait-ce qu’au risque de la déception, du découragement et autres poisons émotionnels).

    En général quand il y a quelqu’un qui livre à des utilisateurs le travail d’un autre sans concertation avec un autre et que ça devient constitutif de la méthode de travail, il y a rapidement d’autres trucs bien toxiques qui couvent et font surface de façon pas très honnêtes. Par exemple, l’absence de communication avec l’amont, si elle s’installe, devient du passif-agressif, passif-agressif qui devra être rationalisé pour être supportable par son acteur, et donc rationalisé en calomnies ou en haine ou autres choses justifiant a postériori l’absence de communication. Quand bien même à la base l’absence de communication n’était motivée que pour se présenter comme un sauveur et satisfaire un besoin narcissique par exemple, sans aucune haine ni calomnie ni malveillance initiale envers les autres.

    Des gens qui vivent ce genre d’expérience, il y en a beaucoup en fait. Peut-être que Manjaro paie pour les autres, à cause du motif, du “pattern”. Mais ça ne m’étonne pas que ce petit fait divers soit en train de popper dans plusieurs de mes flux d’informations à la fois. Marmite, vapeur, pression, toussa. Ça aurait pu être un autre déclencheur.

    ce commentaire est sous licence cc by 4 et précédentes

  • # Firebird

    Posté par  (site web personnel, Mastodon) . En réponse au lien Il y a 20 ans sortait Phoenix 0.1 – Coup d'œil dans le rétro. Évalué à 4.

    Quand j’ai commencé il s’appelait encore Firebird (entre Phoenix et Firefox)?. Il y avait Firebird (rouge) et Thunderbird (bleu).

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Pas nouveau

    Posté par  (site web personnel, Mastodon) . En réponse au lien La Russie, un pays sous Linux ?. Évalué à 4.

    C’est ce que fait notre gendarmerie d’ailleurs : GendBuntu

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Je change

    Posté par  (site web personnel, Mastodon) . En réponse au lien It's time to stop using C and C++ for new projects, says Microsoft Azure CTO. Évalué à 6. Dernière modification le 24 septembre 2022 à 16:34.

    C’est le directeur technique d’Azure qui parle, tu n’es pas la cible de la recommandation.

    Ton code n’est ni sensé tourner sur Azure, ni faire tourner Azure.

    ce commentaire est sous licence cc by 4 et précédentes

  • # J’aime bien cette image

    Posté par  (site web personnel, Mastodon) . En réponse au journal La richesse des ultra-riches, à raison de 1000 USD par pixel. Évalué à 10.

    J’aime bien cette image (rien à voir avec Martial) :

    Lucy vs Bernard Arnault

    Citation :

    Au total, alors qu'il n'a fallu que 70 ans au milliardaire français pour accumuler ses richesses, il faudrait 10,3 millions d'années à une Lucy smicarde pour en faire autant.—Marianne, 2019.

    Et ce sont 10.3 millions d’années sans manger, sans se loger, sans se vêtir, sans se soigner, etc.

    Et ce ne sont « que » les 67 milliards d’euros de Bernard Arnault de 2019 comparé au 185 milliards de dollars de Jeff Bezos d’aujourd’hui… petit joueur !

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Mon avis

    Posté par  (site web personnel, Mastodon) . En réponse au journal "Use plaintext email" ? Vraiment ?. Évalué à 5. Dernière modification le 27 août 2022 à 19:00.

    Si je t'envoie un message pour te demander quelque chose, c'est généralement parce que je te considère comme plus compétent que moi sur le sujet

    Dans ce cas il convient d’exprimer l’intention clairement. Comme dans l’exemple déjà proposé : « Tu peux me faire une synthèse ? ».

    La même question peut d’ailleurs être posée en ces termes exacts même s’il n’est pas question d’être plus ou moins compétent, simplement par répartition de charge/répartition de tâche/délégation/spécialisation/autres motifs relevant de l’organisation du travail et de l’effort social.

    Défendre le « peux-tu regarder ? » contre le « tu peux me faire une synthèse » (ou autre besoin/intention explicite) c’est défendre un ordre social qui exige que l’autre doive connaître les intentions sans les exprimer, ce qui à un certain niveau peut même relever d’une forme d’abus : 1. l’exigence peut-être démesurément élevée, 2. l’investissement pour y satisfaire (ou s’en approcher) peut être démesurément élevé.

    Évidement on est en droit d’exiger une connaissance commune et une culture partagée jusqu’à un certain niveau (exiger que rien ne soit implicite serait une autre forme de violence) mais les transfert de mail en mode sans intention explicite où l’on ne sait pas si ça demande une synthèse, un commentaire, ou même une mise en œuvre, c’est quand même un exemple classique de dysfonctionnement de communication.

    La bonne recette du boulot pourri : 1. Intention non explicite, 2. Insatisfaction, 3. « comment ça c’est pas évident, mais ça devrait être évident, en fait c’est ça ton problème !!!! ». :D

    Ça se désamorce généralement bien en proposant une question façon « c’est bien ça que tu me demandes ? ». Au pire, le « mais ça devrait être évident » arrive à ce moment-là avec moins de violence, plutôt que d’avoir sur le dos les conséquences de l’incompréhension. Et puis si l’autre ne répond pas à la question, la responsabilité de son insatisfaction lui revient objectivement. :D

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Aux confins de l'absurdité

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Apache OpenOffice 4.1.13. Évalué à 10. Dernière modification le 22 août 2022 à 18:38.

    Je n'utilise ni AOO, ni LibO, mais vous semblez tous en vouloir au projet parce qu'Oracle fut derrière il y a 10 ans.

    J’en ai rien à faire qu’Oracle fut derrière il y a 10 ans, mais ces dernières années j’ai vu des gens conseiller OpenOffice sans savoir que LibreOffice existait, ils conseillaient donc un produit sacrément en retard. J’ai aussi vu des reconditionneurs de PC préinstaller OpenOffice alors qu’ils auraient pu installer LibreOffice, probablement à cause de cette même inertie. Là encore c’est l’utilisateur qui se retrouve avec un produit sacrément en retard.

    Et ça c’est vraiment problématique parce que LibreOffice est bien plus compatible avec Microsoft Office, donc il y a moins de chance que 1. des gens reviennent à Microsoft Office (ou le pirate) par déception, ou 2. pensent qu’OpenOffice c’est pourri (peut-être à raison ?) mais sans même connaître l’alternative LibreOffice ni avoir essayé.

    Et puis, si OpenOffice est si en retard, est-il pleinement compatible avec LibreOffice ? Pourquoi laisser prendre ce risque par ignorance et devoir gérer les problèmes et insatisfactions éventuelles si on peut conseiller LibreOffice à la place ?

    Pour collaborer avec des gens je ne vois aucune raison qu’une seule personne parmi les collaborateurs utilise OpenOffice.

    Je peux imaginer que des entreprises ont intérêt dans OpenOffice pour des raisons de licence, mais je ne vois aucun intérêt pour la collaboration et l’échange de document. Si LibreOffice n’était pas aussi facile d’accès pour l’utilisateur la question pourrait se poser, mais les deux sont libre et gratuit, et l’un est une version obsolète de l’autre.

    À propos de « il y a 10 ans » et autres durées. OpenOffice était déjà obsolète bien avant l’apparition de LibreOffice et n’était déjà pas l’OpenOffice préinstallé ou distribué dans les distributions Linux.

    L’OpenOffice préinstallé ou distribué dans les distributions Linux était Go-oo, mais ce nom n’est pas connu parce que c’était surtout un nom de code (un nom de branche ?) et que le logiciel était nommé OpenOffice, il était simplement compilé avec les patchs Go-oo.

    La prise en charge des formats Office Open XML de Microsoft (.docx, etc.) c’était pas dans OpenOffice que c’était développé, c’était dans GO-Office. Les versions officielles d’OpenOffice (comme celle alors utilisée généralement sous Windows) était très en retard sur la compatibilité des formats comparé aux OpenOffice (en fait GO-Office) distribué sous Linux. Quand t’installais Ubuntu t’avais Go-oo, pareil pour Debian, SUSE et les autres.

    Cette distinction entre OpenOffice et GOo-oo date de l’époque de Sun (bien avant Oracle) parce que déjà les conditions de collaboration avec Sun étaient compliquées. C’est à dire que quand Oracle a racheté Sun, Oracle n’a pas racheté Go-oo mais un produit déjà en retard, et les développeurs de Go-oo ne pouvaient pas être rachetés en rachetant Sun. Après qu’Oracle a racheté Sun des développeurs OpenOffice de chez Sun sont partis et Oracle a viré les autres. Mais Go-oo existait déjà des années avant qu’Oracle ne rachète Sun, la force d’innovation et une bonne partie de la force de travail n’était déjà plus chez Sun (ou ne l’avait jamais été). Quand Oracle a racheté Sun, OpenOffice était déjà en retard de plusieurs années.

    L’usage du nom LibreOffice (l’usage d’un nouveau nom étant désormais requis pour des raisons légal) n’a fait qu’expliciter une réalité qui précède de plusieurs années le rachat de Sun (et d’OpenOffice) par Oracle.

    Les informations sur Go-oo seraient aujourd’hui difficiles à trouver si Wikipédia n’avait pas conservé les informations à ce sujet Go-oo (aparté: ce n’est pas vrai de tous les projets, il y a beaucoup de deletionnistes qui suppriment des informations précieuses à tour de bras).

    Citation :

    Go-oo (also Go-Open Office; previously called ooo-build) is a discontinued free office suite which started as a set of patches for OpenOffice.org, then later became an independent fork of OpenOffice.org with a number of enhancements, sponsored by Novell.
    ooo-build was started in 2003. The go-oo.org domain name was being used by 2005. The first separate release of Go-oo was 2.3.0, in October 2007. Go-oo was discontinued in favour of LibreOffice in September 2010.

    The ooo-build patchset was started at Ximian in 2003, before that company was bought by Novell. This was originally because Sun was slow to accept outside patches to OpenOffice.org, even from corporate partners. Most Linux distributions used ooo-build rather than OpenOffice.org upstream code directly.

    Since the end of 2007, various Linux distributions, including SUSE in its various forms, Debian and Ubuntu, had cooperated in maintaining Go-oo as a large set of patches to the upstream OpenOffice.org that, for various technical or bureaucratic reasons, had not been accepted (or, in some cases, even submitted) upstream.

    Michael Meeks, from Novell (who also worked on OpenOffice.org and GNOME), said that the differentiation was done because Sun Microsystems wanted to preserve the right to sell the code on a proprietary basis, as they did for IBM Lotus Symphony. Sun was accused of not accepting contributions from the community. Go-oo encouraged outside contributions, with rules similar to those later adopted for LibreOffice.

    In September 2010, The Document Foundation announced LibreOffice as a fully separate fork of OpenOffice.org. Go-oo was deprecated in favour of LibreOffice and Go-oo changes were incorporated into LibreOffice. LibreOffice and Collabora Online are current descendants of Go-oo.

    Go-office était plus rapide, prenait en charge l’écriture de fichiers OOXML (docx, xmlx, etc.), quand OpenOffice ne pouvait que les lire, prenait en charge le SVG, savait utiliser GStreamer pour les contenus multimédia, etc.

    À propos de “Sun Microsystems wanted to preserve the right to sell the code on a proprietary basis, as they did for IBM Lotus Symphony.” certains diront que c’est ce même genre de motivation qui est la seule raison d’existence d’OpenOffice : ce pourquoi OpenOffice a été maintenu sous perfusion jusqu’à ce qu’Oracle le refile à la fondation Apache.

    L’aventure Go-oo a commencé en 2003, trois ans seulement après que Sun ait libéré StarOffice en OpenOffice. Donc d’une certaine manière, l’aventure LibreOffice a commencé en 2003, mais c’était complètement transparent pour les utilisateurs de distribution Linux jusqu’à ce que le changement de nom vers LibreOffice soit rendu nécessaire pour des raisons légales.

    En fait la page Wikipédia pour OpenOffice.org précise :

    The ooo-build patch set was started at Ximian in 2002, because Sun were slow to accept outside work on OpenOffice.org, even from corporate partners, and to make the build process easier on Linux. It tracked the main line of development and was not intended to constitute a fork. Most Linux distributions used, and worked together on, ooo-build.

    Sun's contributions to OpenOffice.org had been declining for a number of years and some developers were unwilling to assign copyright in their work to Sun, particularly given the deal between Sun and IBM to license the code outside the LGPL. On 2 October 2007, Novell announced that ooo-build would be available as a software package called Go-oo, not merely a patch set. (The go-oo.org domain name had been in use by ooo-build as early as 2005.) Sun reacted negatively, with Simon Phipps of Sun terming it "a hostile and competitive fork". Many free software advocates worried that Go-oo was a Novell effort to incorporate Microsoft technologies, such as Office Open XML, that might be vulnerable to patent claims. However, the office suite branded "OpenOffice.org" in most Linux distributions, having previously been ooo-build, soon in fact became Go-oo.

    Ah et à propos de « OpenOffice n’avait de raison d’existence que pour le code propriétaire », en plus d’IBM Symphony :

    Sun used OpenOffice.org as a base for its commercial proprietary StarOffice application software, which was OpenOffice.org with some added proprietary components. Oracle bought Sun in January 2010 and quickly renamed StarOffice to Oracle Open Office.

    En fait Oracle n’est qu’un acteur qui a fait plus de bruit que les autres dans le drama affectant ces projets, mais le véritable impact d’Oracle sur LibreOffice c’est le fait que LibreOffice a dû trouver un nouveau nom qu’OpenOffice… et que 10 ans après il y a encore des gens qui par ignorance utilisent un produit obsolète à cause de l’inertie des marques.

    Dans tous les cas l’existence même de la séparation entre OpenOffice et Go-oo puis LibreOffice c’était la nécessité pour Sun puis Oracle de produire du code propriétaire. Et ça fait 20 ans que c’est vrai. Peut-être que 20 ans après on peut commencer à accepter cet état de fait et embrasser pleinement LibreOffice.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: blockchain et crypto-monnaie sont deux choses différentes

    Posté par  (site web personnel, Mastodon) . En réponse au journal Ethereum prépare son passage de Proof of Work à Proof of Stake. Évalué à 10.

    Cette suite d’affirmations est assez incroyable :

    • La mission est […] persuadée qu’une […] plateforme blockchain fournit un ensemble de fonctionnalités qui peuvent trouver [des] applications.
    • Savoir quelles applications sont […] adaptées à une telle plateforme n’était pas dans le champ d’investigation de notre mission.

    On est persuadé, mais on n’investigue même pas, la recette magique du croyant. Ce qui compte c’est de donner des garanties de pureté de foi. Et pourquoi pas la terre plate, aussi ?

    • La mission est persuadée que le modèle de la terre plate peut trouver des applications.
    • Savoir quelles applications sont adaptées à ce modèle n’était pas dans le champ d’investigation de notre mission.

    Cherchez pas, ces chercheurs sont surtout doués pour trouver des financements.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Coquilles ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de Joomla 4.2.0. Évalué à 3.

    Ça me rappelle des pubs pour WinDev dans des magazines vers ~2006 qui disaient qu’avec on pouvait développer des applications « en Linux ».

    Mais « en MySQL » a tout de même plus de sens comme abus de langage si on signifie par-là la variante mySQL du langage SQL et donc la syntaxe qui permet de mettre en œuvre des mécanismes spécifiques à cette base (et autres méthodes de travail qui induiraient directement la forme du code), alors que pour « en Linux », je cherche encore…

    ce commentaire est sous licence cc by 4 et précédentes

  • # Langue et écriture

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Unvanquished 0.53 Beta est là : un petit pas pour les bots, un bond en avant pour Unvanquished !. Évalué à 6.

    Je viens de remarquer une faute de frappe dans le chapitre Les nouvelles d’Unvanquished 0.53 :

    - 29 févier 2022 !
    + 29 février 2022 !

    Sinon c’est amusant je n’avais pas repéré à la relecture dans le chapitre Les changements des interactions et de l’environnement du jeu cette formulation :

    sans même en faire exprès, parfois

    Il me semblait que les expressions consacrées sont « en faisant exprès » ou « le faire exprès », mais ce sont des idiomatismes, et « en faire exprès » avec un infinitif semble être une spécificité régionale. Une conversation sur le forum languefrancaise.net évoque même l’existence d’un belgicisme « le faire en exprès ». Je soutiens donc l’option du maintien.

    Cette dépêche sur Unvanquished est la première à être rédigée en français par quelqu’un d’autre que moi depuis très longtemps et c’est une étape importante pour Unvanquished. L’emploi d’idiomatismes et autres spécificités régionales qui ne sont pas les miens est donc un marqueur de succès. 😊️

    D’ailleurs cette fois-ci, quand bien même la dépêche LinuxFr succède à la sortie du jeu, cet article a d’abord été rédigé en français et c’est le brouillon en français qui a servi à rédiger l’article en anglais officiel du blog Unvanquished. Seules deux-trois parties qui ont été ajoutées directement en anglais lors de la phase finale de rédaction de l’article de blog en anglais ont été rétroportées ici et traduites en français. 80% de cette dépêche, le tronc commun, sa structure, etc. ont été pensés en français.

    ce commentaire est sous licence cc by 4 et précédentes

  • [^] # Re: Tâche ou tache ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Unvanquished 0.53 Beta est là : un petit pas pour les bots, un bond en avant pour Unvanquished !. Évalué à 4.

    C’est un lapsus qui fait tache.

    Il y a une malédiction qui veut que souvent lorsqu’on corrige quelqu’un, on laisse malencontreusement un faute dans la correction, ça marche peut-être aussi quand on évoque les bugs que l’on corrige. 😂️

    ce commentaire est sous licence cc by 4 et précédentes