Jehan a écrit 1667 commentaires

  • [^] # Re: Rigolo

    Posté par  (site web personnel, Mastodon) . En réponse au journal Bref, on a fait un film avec de la pâte à modeler. Évalué à 10. Dernière modification le 07 novembre 2021 à 02:37.

    Non, j'ai bien conscience que le film est très brouillon. Et oui avec une télécommande on peut faire beaucoup mieux (en plus j'en ai une).

    Il y a un très bon logiciel libre de prise de photo en "tethering" qui s'appelle Entangle. Donc on branche son appareil en USB, et on déclenche les photos sur l'ordi, évitant ainsi vibrations et mouvements. Bon par contre, c'est vraiment un logiciel fait pour les appareils de type reflex. Notamment ça marchait pas avec les webcams par exemple (mais ça a peut-être changé? Je sais pas).

    Il y a pas mal d'années, quand je me suis intéressé à ce logiciel pour la stopmotion, quelqu'un avait implémenté l'onion skinning (en gros on peut voir X images avant ou après — mais je crois pas/sais plus si Entangle a la possibilité de voir après en transparence), que j'ai même un peu amélioré. C'est super utile pour la stopmotion (c'est même une fonctionnalité de base des logiciels spécialisés). Notons qu'en plus de peaufiner la qualité d'animation, cela aide aussi à retrouver un cadrage si l'appareil a bougé par inadvertance.

    J'avais aussi implémenté une fonctionnalité permettant d'enregistrer l'image "preview" plutôt que de déclencher l'obturateur pour chaque image. Explication: typiquement quand tu prends une photo, l'obturateur s'ouvre et se ferme clac-clac, or si tu dois prendre 12, voire 24 images par seconde (sans compter les ratés), ça fait beaucoup d'images et ça diminue la durée de vie de l'appareil (ça se répare, mais c'est cher). Typiquement en 12 images par seconde, si ton film fait 1h, ça ferait 43200 ouvertures/fermetures (en supposant aucun raté). Or il me semble qu'on estime entre 100 et 300.000 ouvertures dans la vie d'un appareil (car c'est mécanique, donc ça casse). En gros, on zigouille un appareil très vite.
    Or les appareils électroniques ont une fonction "preview" où l'obturateur s'ouvre et on récupère juste le flux continu en moins bonne qualité vidéo. Ça permet donc de prendre une série de photos en ouvrant l'obturateur une unique fois. Pour un film pro, c'est pas acceptable, mais pour s'amuser ou des ateliers enfant, la qualité est largement suffisante. Cette fonctionnalité s'active dans les préférences d'Entangle (si je me souviens bien).

    Ensuite il manque plein de fonctionnalités pour en faire un logiciel de stopmotion digne de ce nom. J'ai même un patch que j'avais écrit en 2014 pour la lecture et autres simplifications pour ce cas d'usage. Malheureusement je n'ai pas fait le suivi et il n'a jamais été intégré. Un jour on fera peut-être un projet stopmotion et ce sera sûrement vers Entangle encore que l'on se tournera et qu'on améliorera à nouveau.

    Donc: je conseille!

    [une table lumineuse] C'est déjà du gros équipement :)

    Quand on dit "table lumineuse", certains pensent sûrement aux grosses tables dédiées comme on en voit dans des reportages (chez Disney ou autres…).

    Table animation

    Ou aux grosses tablettes épaisses de plusieurs dizaines de cm, qui peuvent même être DIY donc c'est vraiment cool:

    Boîte lumineuse

    Ensuite, de nos jours, pas mal d'entreprises vendent aussi simplement des tablettes lumineuses, qui sont donc des tablettes LED, de quelques mm d'épaisseur (un peu comme une tablette-ordi sauf qu'y a pas d'ordi, juste des LEDs. Ça sert juste à faire de la lumière sur une surface plate). C'est très plat et fin, peu lourd, peu encombrant, à tarif tout à fait raisonnable. Je vais pas donner de marques en particulière, mais cherchez juste des "tablettes LED", vous en trouverez par dizaines en vente.

    On en a en A4 et A3, ça coûte juste quelques dizaines d'euros, et ça marche bien sans être énorme. On en a même utilisé dans des ateliers d'animation pour jeunes qu'on a fait à un moment donné, y a quelques années.

    Alternativement, vous pourriez aussi faire cela sur un écran d'ordi (ou de tablette) avec une page blanche en plein écran (faites attention à pas rayer l'écran!). Aryeom me disait même qu'elle avait déjà dessiné (quand elle était plus jeune et sans le sou mais avec la passion) sur des feuilles sur une vitre de bâtiment en plein jour pour faire office de table lumineuse (donc dessiner en vertical, il faut le vouloir mais quand il faut, il faut). Donc tout est faisable pour qui veut vraiment!

    Il faut bien avoir en tête qu'a la base c'est une activité pour occuper les enfants, et il faut les «tenir» pendant le tournage !

    Le stopmotion est en effet une super activité pour les enfants. On a fait plusieurs ateliers "stopmotion" pour enfants (toujours un énorme succès). En fait quand des gens nous demandaient de faire des ateliers animation sur ordinateur (pour des festivals, notamment le festival NUMOK des bibliothèques parisiennes), on trouvait que c'était une grosse erreur pour les plus jeunes de les coller à un écran. Avec le stopmotion, on leur donne une vrai activité tactile et créative. C'est donc ce qu'on a proposé.

    Par ex quelques résultats d'ateliers dans notre asso: 2014, 2015 (une jeune fille de 12 ans, film dessiné sur tablette lumineuse comme expliqué plus haut), et encore 2015. Ça c'était nos vieux ateliers à l'asso LILA avec très peu d'enfants à chaque fois. Depuis on a fait plusieurs ateliers de pixilation — c'est à dire de la stop motion avec des humains — pour le festival NUMOK. C'est extrêmement ludique pour les enfants et on a eu des séances géniales avec une dizaine d'enfant (parce qu'on limitait les inscriptions, c'était toujours plein). En pixilation, on peut faire plein d'effet spéciaux à peu de frais, on peut faire voler les enfants, faire de la magie, etc. Malheureusement on n'a pas de vidéos sur le web (car on voit les enfants à l'image et souvent on n'arrivait pas à avoir la permission d'un ou 2 parents et on n'insistait pas; mais ça fait qu'on montre pas les vidéos sur le web), on les montre juste en direct aux gens qu'on rencontre. Mais un bon exemple est ce petit projet marrant qu'on avait fait en 2013 avec juste une enfant. C'est dommage, on a pas mal d'autres vidéos super marrantes avec plein d'enfants. 🙂

    En tous cas, on valide carrêment la stopmotion pour un atelier enfant! Et on valide aussi de ne pas faire participer les enfants à la partie chiante sur ordi parce que pour des très jeunes, je pense que c'est vraiment pas ce qu'il faut mettre en avant (malheureusement ils auront suffisamment l'occasion de se coller le nez à un écran). D'ailleurs en fait quand on s'est mis à faire des ateliers en bibliothèque avec beaucoup d'enfants, j'ai même pris le parti de limiter la post-prod à un script unique — que j'avais préparé en avance — qui ajoute une image fixe de titre puis colle toutes les images ensemble dans l'ordre. Ça nous permettait de générer une vidéo immédiatement en quelques secondes à la fin de l'atelier pour donner un fichier à tous les enfants (ou à leurs parents surtout) qui ont amené une clé USB. Temps de post-prod: 10 secondes.

    Le truc c'est que je ne me rendais pas compte à quel point c'est long à faire.

    Dans le milieu professionnel, on dit qu'animer 1 ou 2 secondes par jour, c'est une bonne moyenne. Bien sûr, selon la qualité désirée, cela peut être beaucoup plus ou beaucoup moins (on n'animera clairement pas à la même vitesse un Disney ou Miyazaki et un Simpsons voire South Park qui fait des records de temps de production). Et attention, quand je dis 1 ou 2 secondes, dans le métier, c'est juste l'étape "animation" (possiblement un seul personnage dans un plan qui peut en avoir plusieurs, pas le cleanup, pas la colorisation, pas les fonds…).

    Par exemple, Richard Williams, une des pointures historiques de l'animation (rendu très connu notamment pour son livre sur le sujet, qui est une des références pour tout animateur) disait que le plus rapide qu'il ait jamais fait fut 90 secondes en 3 semaines. Comme on le voit dans les réactions du tweet en lien, les animateurs sont en général sidéré qu'il soit même possible d'atteindre une telle vitesse d'animation.

    Donc oui, animer, c'est long. Ensuite clairement un professionnel n'a pas les mêmes attentes et tolérances qualitatives que dans un cadre purement loisir (lequel peut donc animer beaucoup plus rapidement dans des ordres de grandeur ×10 ou plus). Quand je vois qu'Aryeom va parfois refaire plusieurs fois un bout d'animation d'une seconde parce qu'elle n'est pas contente du résultat… des fois elle me demande mon avis entre 2 versions, je vois à peine la différence et je pense que presque personne ne fera attention dans le résultat final; mais pour un animateur, ces petits points de détail font toute la différence.

    En tous les cas, pour le dessin animé, il faut trouver un enfant qui s'intéresse vraiment au dessin déjà et a la passion du détail et de la technique. C'est beaucoup plus frustrant aussi (l'animation fait partie de ces métiers très technique où il faut une sorte de folie du détail; je pense que c'est très similaire au code en un sens où beaucoup de gens n'y trouveraient aucun plaisir et auraient l'impression de devenir fou; les développeurs ou les animateurs, on est peut-être juste déjà fous 🤪). Tu ne dis pas quel est l'âge des enfants en question mais je ne sais pas si on conseillerait cela à des enfants sous 10-12 ans (et encore même pas tous, comme je disais). Ensuite je peux me tromper et ça dépend clairement de chacun.

    La stopmotion reste bien plus adaptée aux très jeunes car on peut masquer plus facilement les parties les plus techniques derrière du jeu (notons que la stopmotion au niveau professionnel est cependant tout autant technique et complexe et y a la même folie du détail; d'ailleurs ça prend des temps d'animation similaires au final, à ce qu'il me semble; mais ça s'adapte juste mieux à un usage de loisir). C'est beaucoup plus dur avec du dessin.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: GIMP everywhere

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de GIMP 2.99.8 (version de développement). Évalué à 10. Dernière modification le 05 novembre 2021 à 19:42.

    À ce propos, tu mentionnes plusieurs fois GTK3 mais que je sache GIMP est encore sur la 2 ; qu'en sera-t-il de GIMP 3 ?

    La version stable est sur GTK2, mais toutes les versions de dév 2.99.x (donc celle-ci comprise) sont sur GTK3.

    En gros, les version 2.99.x sont ce qui deviendra GIMP 3.0 une fois qu'on considèrera tout cela "sortable" (pour une version labellisée "stable", s'entend).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: en même temps ...

    Posté par  (site web personnel, Mastodon) . En réponse au lien La loi pour verdir le numérique déçoit les écologistes . Évalué à 10.

    Oui ou même les pailles. Maintenant tous les bars vous donnent le moindre verre de jus avec des pailles en papier (ou autre matière recyclé). Quand on va dans un bar ou café, on doit encore et toujours (ça a pas changé quoi) demander aux serveurs de ne pas nous mettre de pailles.

    Ils ont tant besoin que ça d'un petit tube pour boire leurs sirops et jus les gens? Je sais bien qu'il y a des cas particuliers (on m'a sorti les personnes âgées, ou handicapées ou certains enfants qui ont besoin de pailles…) mais comme le nom indique: ce sont des "cas particuliers", pas le cas général. Les restaurateurs pourraient avoir un stock et en ajouter au besoin (avec demande explicite), pas par défaut.

    À croire que personne ne comprend pourquoi y a ces interdictions. Certes une paille en papier, c'est mieux qu'une paille en plastique, mais au final, le mieux du mieux, c'est rien. Ne pas avoir à fabriquer tous ces petits bitoniaux à usage unique!

    En gros, non seulement ces "avancées" légales sont risibles du point de vue "on avance, mais à tatillon… faudrait surtout pas essayer de sauver notre environnement trop vite" mais en plus même ces micro-avancées sont suivies juste suffisamment pour ne pas être hors-la-loi sans aucun effort réel des commerces et industries. C'est juste triste.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Maître esclave

    Posté par  (site web personnel, Mastodon) . En réponse au journal Comme une impression de déjà vu…. Évalué à 10.

    LOL.

    L'alphabet latin est utilisé partout dans le monde, par des langues et des cultures très différentes.

    C'est pas parce que c'est vrai que de nos jours, tu trouves de plus en plus des caractères latins à côté de caractères locaux que ça veut dire que les gens les lisent réellement. On trouve ces caractères parce que les gens sont résignés dans ces pays à se dire qu'effectivement "l'anglais gagne". Donc on met des sous-titres pour les touristes, ou des noms de magasin en anglais (ou français si c'est un boulanger ou un magasin de produits de beauté!), du moment que ce sont des mots courts (qui seront mal prononcés mais qu'importe… et possiblement même avec une faute d'orthographe bien joliment imprimée en grand sur une bannière!).

    C'est un peu pareil qu'en France quand on met de l'anglais sur tous les slogans marketing et les pubs parce qu'on sait bien qu'il n'y a pas de mot en français pour dire "Let's go!" ou "love"… 🙄

    Devrait-on arrêter de parler français?

    Il est simple à apprendre

    Maintenant soyons sérieux. C'est pas compliqué (plus ou moins toutes les exceptions, qui seront différentes par pays, parce que tes lettres "latines", tu les prononces pas pareil en espagnol, français, anglais, allemand… Mais passons aussi ce "léger" détail!), c'est vrai. Néanmoins c'est pas le leur (à ceux qui ne l'utilisent pas… pléonasme!). Donc en fait, c'est aussi compliqué pour eux que ça l'est pour vous d'apprendre un autre alphabet (en plus du fait que la société s'attend à ce que vous maîtrisiez déjà bien votre propre langue). Or s'il était aussi simple d'apprendre un autre alphabet, tout le monde ici lirait parfaitement d'autres langues. D'ailleurs, prenons encore l'exemple de l'anglais: même alphabet (avec moins de lettres en plus!), on doit "juste" en apprendre la prononciation! Combien ici peuvent se targuer de lire de l'anglais pour le prononcer parfaitement (je demande même pas de le comprendre, juste d'arriver à le lire avec la bonne prononciation des lettres)?

    Là on demande à ceux qui n'ont même pas le même alphabet de l'apprendre… pour quoi? Avoir le droit à un nom de domaine et un email? Autant dire tout de suite qu'on veut rester entre nous sur internet, entre "bons" occidentaux! Pas besoin de ces barbares venus d'ailleurs qui utilisent des caractères bizarres (quelle idée!)!

    Dans la réalité de ces gens barbares qui utilisent d'autres systèmes d'écriture, certes tu pourrais voir de l'anglais écrit sur des posters dans des boutiques, ou des "sous-titres" pour les noms de stations de métro, ou des cartes en anglais… mais c'est pas pour les locaux, c'est pour les touristes. Les locaux ne lisent jamais ces mots en alphabet latin (ils liront ceux au milieu de textes en écriture locale, genre des noms propres, etc. Et encore, souvent même c'est transcrit dans leur propre système d'écriture, c'est pour dire à quel point ils ont du mal).
    Genre va prendre le métro à Tokyo, tu vois des noms de stations affichés en lettres latines. Peut-être même que tu vas sortir de là en te disant que tout est écrit principalement en latin car tu n'auras même pas remarqué les caractères japonais écrits juste au dessus en 2 fois plus gros, tout simplement car ton œil est attiré vers ces caractères que tu connais. Ben les japonais, ce sera pareil… mais à l'inverse. Ils ne voient même pas ces caractères latins, leurs yeux sont attirés vers leurs caractères. Même si nous, avec notre vision franco-française, on s'imagine qu'ils lisent des lettres latines parce qu'on en a vu quand on y était, ben en fait non. Ils ont leur système d'écriture, c'est ça qu'ils utilisent (de même qu'on a parfois du chinois ou japonais ou de l'allemand prononcé dans des hauts parleurs ou écrits sur des panneaux de métro parisiens… ça veut pas dire pour autant qu'en France tout le monde lit et comprend ces langues!).

    Par exemple, va dire à un japonais ou un coréen qui aura étudié des années l'anglais (comme nous), mais qui n'aura pas eu l'occasion de voyager et d'approfondir l'étude par l'usage, à lire un texte en anglais. Tu le verras bégayer des mots à vitesse d'escargot, pas juste parce qu'il essaie d'en comprendre le texte, mais même juste pour déchiffrer les lettres.
    Même ces derniers après quelques années en France par exemple (et donc qui parlent pour le coup bien français pour la vie quotidienne), mets les devant un film avec des sous-titres en français et demande leur s'ils ont toujours le temps de bien lire les sous-titres!

    On s'imagine que c'est "facile" et que n'importe qui aura autant de facilité parce qu'on se rend juste plus compte, et on réfléchit pas qu'on nous a appris à lire ces lettres dès le plus jeune âge, et qu'on baigne dedans au quotidien. Forcément pour nous, lire et écrire ces lettres, c'est "facile" et "rapide". Pour ceux dont la seule rencontre de ces lettres, c'était à l'école (y a 10, 20, 30 ans ou plus selon l'âge) ou lorsqu'un étranger est nommé dans un journal papier, ben c'est quand même moins évident.

    Il est simple à apprendre et se code sur moins d'un octet.

    Tiens, comme l'arabe, le coréen, l'hébreu, le grec, l'alphabet cyrillique (russe…), le Thai, et autres… J'espère que tu n'en voudras à personne si on choisissait n'importe lequel de ces systèmes d'écriture à la place des lettres latins, hein! Après tout, se coder sur un octet a l'air d'être une raison décisive. Au passage va changer ton nom pour l'écrire dans un de ces autres alphabets! 😛 Ton nouvel email: 바보@댑.뉴턴 😉

    Non mais sans rire, ta remarque est quand même super fermée d'esprit aux autres cultures et méga européen-centrée pour le coup. Il y a un monde en dehors de nos quelques petits pays et c'est pas parce qu'on leur a imposé plein de trucs jusque là à coup de colonisations, guerres, mondialisation forcée, accords commerciaux ("libre échange") etc. que c'est normal de continuer à leur dire qu'ils pourraient quand même être "comme les gens normaux et écrire dans un alphabet 'simple à apprendre'" (dit le colonisateur qui veut pas se faire chier à apprendre l'alphabet tout aussi simple de l'autre! Bande de barbares!)

    En gros, on aime bien dire aux autres pays qu'ils pourraient quand même s'ouvrir un peu à notre culture occidentale, mais faudra quand même pas pousser Mémé 🧓 dans les orties 🌵 en s'ouvrant nous aussi!

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Pas trop étonnant

    Posté par  (site web personnel, Mastodon) . En réponse au journal Comme une impression de déjà vu…. Évalué à 10. Dernière modification le 27 octobre 2021 à 14:00.

    Au niveau fonctionnalités, je suis tout à fait d'accord avec Goffi. Tous les soit-disant manques évoqués par Groumly sont un peu sorti du chapeau.

    Au contraire les messages hors-ligne étaient déjà une des forces de XMPP y a 15 ans. De même que le "online presence". Je rappelle même que "presence" est dans le nom du protocole, c'est une des fonctionnalités de base du protocole, pas une XEP, pas un module optionnel, non c'est vraiment la base donc parler d'un manque de cette fonctionnalité est surréaliste (hormis si tu parles d'un nouveau type de fonctionnalité avec un nom similaire, mais dans ce cas faut expliciter ce que tu entends par "online presence"). C'était justement des raisons qui faisaient que XMPP était en avance sur d'autres à l'époque

    Les "réactions" au message, c'est quoi, pouvoir mettre des émoticones sur un message? Certes ça n'existait pas au début mais ça n'existait pas non plus à l'époque sur aucun autre protocole de messagerie. Ce concept de réaction est relativement récent et finalement vient d'un besoin particulier en réponse aux réseaux sociaux. En effet dans un contexte pur chat, c'est d'un intérêt limité puisqu'on peut directement répondre avec un émoticone dans la discussion (ce qu'on a toujours pu faire depuis l'arrivée de ceux-ci dans Unicode, soit 2010, puisque XMPP utilise UTF-8 depuis toujours 🙆; et avant cela avec les émoticones à l'ancienne, créés sur bases d'autres caractères \o/). C'est surtout quand on s'est mis à faire des messages publics où des centaines/milliers de gens peuvent intéragir que c'est devenu utile (pour éviter 1000 messages émoticones ou avec des +1 en réponse!).
    Donc c'est récent, oui, mais le besoin aussi est récent.

    Pour moi, XMPP a surtout toujours été sabordé par ses acteurs commerciaux qui ont implémenté des trucs hors-standards par exemple. Tiens puisqu'on parle de Jingle, excellent exemple: Jingle fut effectivement initialement contribué par Google (d'ailleurs si ma mémoire ne me joue pas des tours, il existait déjà une autre proposition de protocole audiovisuel que Google a simplement ignoré, non? Ensuite peut-être que Jingle était vraiment beaucoup mieux… j'ai pas étudié la question technique mais néanmoins cela a créé une divergence et des incompatibilités technologiques très tôt), néanmoins ils n'implémentaient pas eux-même la version standardisée (alors même qu'ils en étaient l'origine), et ce pendant des années (2011 soit 6 ans après les premiers brouillons et 2 ans après la stabilisation du protocole en 1.0; et encore même à ce moment, il me semble qu'il y avait encore des problèmes dans l'implémentation de Google — intéressant que dans ma dépêche de l'époque, je restais optimiste… j'avais tort!)!

    Sans compter qu'on s'émerveillait devant les usages non-fédérés de XMPP, que ce soit par Facebook, ou si je me souviens il y avait même eu des expérimentations publics de Microsoft/Skype et/ou Yahoo (je retrouve cela d'ailleurs dans ma même dépêche de l'époque et je constate que j'étais déjà circonspect à l'époque sur les fédérations limitées… bon il me semble que Skype a fini par fédérer réellement un peu plus tard, mais comme on le voit, ils ont aussi arrêté par la suite; quant à Yahoo, il y a bien eu un test à une époque… si ma mémoire est bonne, quelqu'un avait découvert un serveur XMPP sur le réseau Yahoo mais ça n'avait jamais été publiquement annoncé et je crois que ce n'est jamais sorti de l'état d'expérimentation).
    Puis Google eux-même, qu'on considérait comme le saint Graal qui montrait (croyait-on) que XMPP avait "gagné", a fini par dé-fédérer progressivement. Un temps, il me semble que la messagerie marchait encore mais qu'on avait perdu la présence, c'est à dire qu'on ne savait plus si un utilisateur GTalk était là où pas (ou bien c'était l'inverse? On les voyait mais eux ne voyaient plus les utilisateurs non-GTalk?)… puis un jour juste plus rien! De nos jours, je ne sais même pas s'ils utilisent encore vraiment XMPP (ou même une variante) en protocole. J'ai pas suivi, mais qu'importe. Ils se sont retirés du réseau et ont juste cassé ce qui en faisait la force (ce qui fut aussi idiot pour nous que pour eux, d'ailleurs il suffit de voir la bataille des réseaux propriétaires que se jouent les sociétés de nos jours pour voir à quel point ils ont été stupides et se sont tirés une balle dans le pied! Ils auraient pu pousser un véritable standard et être un acteur majoritaire du réseau à la place par le simple fait qu'ils étaient parmi les plus anciens soutiens).

    Toutes ces entreprises qui jouaient de politique, faisaient des coups bas, essayaient de se fédérer mais en étant légèrement incompatibles ("Embrace, Extend…") voire qui ne se fédéraient pas du tout (pour profiter des avancées sans vraiment donner à fond en retour), c'est tout cela qui a porté de gros coups à la généralisation du réseau standard.

    D'ailleurs ça continue. J'en vois encore qui s'extasient que des gros acteurs comme WhatsApp utilise XMPP en interne. Mais qu'est-ce qu'on s'en fiche! Encore des parasites qui essaient de profiter de toutes les avancées, 22 ans de recherches communautaires sur comment faire le meilleur protocole de communication possible, et même du code (si j'en crois ce que je lis, ils utilisent une version modifiée de la librairie XMPP Smack, de même que du serveur ejabberd; en gros profiter à fond en contribuant le moins possible… et c'est là encore que l'on peut rediscuter le besoin de licences copyleft, GPL pour les clients et AGPL pour les serveurs!).

    Donc toutes les plaintes sur raison technologique, c'est juste n'avoir rien compris à l'historique de XMPP. Et c'est d'autant plus incohérent si la conclusion de ces critiques est de se tourner vers des réseaux propriétaires (même lorsque basés sur XMPP mais en non-fédéré).

    Je dis tout cela avec mon chapeau d'ancien membre de la XSF qui a vraiment cru en XMPP (j'avais même participé à la vague de standardisation de 2011, et suis nommé dans les remerciements des 3 rfcs de l'époque… de jolis souvenirs et fiertés de jeunesse 🥲) mais qui — clairement — a un peu perdu la foi (même si je crois toujours que c'est techniquement la meilleur alternative qu'on a si on veut vraiment un protocole standard). Les entreprises ont vraiment sabordé la standardisation. Ensuite il y a aussi — je pense — un peu une faute à la fondation qui n'a sûrement pas pris les bonnes décisions et les bonnes postures quand il fallait (c'est aussi ça qui m'a fait abandonner), mais c'est une critique facile et c'est pas si simple quand on est en plein dedans (pas dit que je ferais mieux; ni que quiconque ferait mieux d'ailleurs).

    Enfin bon, je voulais juste réagir aux remarques techniques. De même que croire que la décentralisation complique les choses, c'est aussi ridicule. Il n'y a rien de compliqué et au contraire, XMPP avait une longueur d'avance sur pas mal de sujets. Quant au "ramassé d’un point de vue business", c'est l'inverse: c'est justement parce que ces entreprises ont fait des choix business et politiques qu'on en est là. Ils ont justement tous essayé de se créer leur propre réseau fermé en essayant tous de dominer le marché pour avoir le beurre (profiter du protocole et de toutes les recherches autour) et l'argent du beurre (être le seul à en profiter et devenir un monopole). C'est bien parce qu'ils ont tous fait ces choix (et on peut pas dire qu'ils se soient ramassés d'un point de vue business même si aucun n'a un monopole unique certes, mais ils ont tous bien profité financièrement et ils sont tous encore là avec une bonne place bien assise même s'ils continuent à se battre entre eux) à leurs profits et au dépends du réseau et des gens qu'on en est là.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: kudos

    Posté par  (site web personnel, Mastodon) . En réponse au lien Sortie d'OpenBSD 7.0. Évalué à 4.

    simple à installer (à la BSD )

    Je ne vois pas le rapport avec le noyau (y a pas d'installeur simple pour le noyau Linux non plus, c'est pas vraiment la cible! Linux n'est-il donc pas fonctionnel non plus?). Mais si tu veux dire une distribution complète (il y a un peu mélange des genres, mais soit), ben sans connaître suffisamment tous les installeurs *BSD pour pouvoir comparer, en tous cas, je trouve l'installeur Debian très simple. Donc "check" ✅.

    et qu iatteind une masse critique nécessaire

    À combien d'utilisateurs trouve-t-on que c'est suffisant? Dans tous les cas, quel que soit le nombre choisi, Hurd ne l'atteint probablement pas. Mais en même temps, si tu compares aux grands projets, je pense que la plupart des logiciels du monde n'atteint pas la masse que tu jugeras critique. Quand je vois que j'ai travaillé pour un éditeur logiciel métier b2b avec quelques dizaines de clients à peine (et qui pourtant marchait très bien financièrement car c'étaient de gros clients). Ils avaient sûrement moins de clients que d'utilisateurs de Hurd. Si je les revois (c'était y a bien plus de 10 ans), je leur dirai qu'en fait leurs logiciels n'ont pas encore eu de "release fonctionnelle" malgré toutes ces années à rentrer des sous avec. 🤣

    En fait, avec une telle définition, il n'y a donc vraisemblablement qu'une très faible proportion de logiciels dans le monde entier qui ont des "releases fonctionnelles".

    Ça me paraît donc être une définition un peu… limitée.

    Je maintiens personnellement des logiciels (en dehors de GIMP) que probablement quelques poignées de personnes seulement utilisent dans le monde (dont moi, pour l'un deux quotidiennement) et que je considère être tout à fait fonctionnels. En tous les cas, le logiciel auquel je pense surtout (crossroad) m'est pleinement utile au quotidien et maintenant je pourrais pas travailler sans. Alors si on vient me dire "ah oui mais y a peu d'utilisateur, c'est pas une 'release fonctionnelle'", ça me ferait doucement rigoler (sérieux, il pourrait n'y avoir que moi comme utilisateur dans le monde entier que je considérerais encore un logiciel qui me sert — très bien en plus — au quotidien comme tout à fait fonctionnel, j'ai même du mal à voir le rapport entre un nombre d'utilisateur et la qualité fonctionnelle d'un logiciel). 🙄

    Et donc que tu peux utiliser en prod , ou ailleurs que sur une VM virtualbox

    Je vois pas ce qui empêcherait quiconque d'utiliser une Debian Hurd en prod. Et il n'est nulle part écrit que ça ne doit tourner qu'en VM. Donc "check" ✅.

    2/3… pas mal. Et probablement aussi bien que la majorité des logiciels du monde.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Biais

    Posté par  (site web personnel, Mastodon) . En réponse au journal Baromètre des villes cyclables. Évalué à 7.

    Un pieton te dira qu'un cycliste a plus de chances de te blesser qu'une voiture

    Parce que la voiture le tuera plutôt que le blesser? 🙄

    Non mais sinon, ce qu'il faut pas lire. Bon allez une rapide recherche sur le web (parce qu'on sait jamais, peut-être qu'aujourd'hui j'apprendrai que les cyclistes sont de véritables tueurs routiers!) et le second résultat me donne ce rapport sur "l'accidentologie des piétons" du "conseil national de la sécurité routière": https://conseilnational-securiteroutiere.fr/wp-content/uploads/2019/07/ComiteExperts-Accidentologie-pietons.pdf

    Bon ça date de 2018 (et apparemment uploadé en 2019), j'ai pas vérifié s'il y avait une nouvelle version, mais on va supposer que ça n'a pas drastiquement changé. Ça ne parle pas trop de vélos (ou alors ils les appellent d'un autre terme; j'ai pas tout lu, juste cherché par termes).

    Par contre dès le 1., page 2, on peut lire:

    Les piétons sont majoritairement heurtés par des voitures (65% selon l’ONISR, 2017). Les conducteurs impliqués dans des accidents piétons sont de tous âges : 16% de 18-24 ans, 60% de 25-64 ans et 14% de plus de 65 ans (Source : BAAC 2016). Cette répartition est similaire à celle concernant plus généralement des conducteurs de voiture impliqués dans un accident corporel (respectivement 19%, 69% et 12% selon le BAAC). Il y a donc un enjeu à sensibiliser l’ensemble des conducteurs aux spécificités des piétons.

    Alors 65% des accidents piétons sont par un heurt voiture. Donc même en supposant que tout le reste étant un heurt par un vélo (ce qui n'est absolument pas dit hein! On parle du cas extrême pour besoin de démonstration), ça ferait 35% maximum de heurts vélo contre 65% avérés de heurts voiture.

    Donc bah voilà pour la petite blague des méchants cyclistes dangers de la route qui blessent plus de piétons que les voitures. 🤣

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: kudos

    Posté par  (site web personnel, Mastodon) . En réponse au lien Sortie d'OpenBSD 7.0. Évalué à 9. Dernière modification le 22 octobre 2021 à 14:20.

    Qu'est-ce qu'une "release fonctionnelle"? Il me semble bien que Hurd a des sorties depuis un moment. Il y a même une version Debian GNU/Hurd dont la dernière est sortie y a quelques mois (en même temps que la dernière Debian). Bon c'est i386 seulement pour environ 70% des paquets Debian (ce qui est pas si mal!).
    Parfois même, on a des patchs par rapport à la compilation de GIMP pour Hurd (enfin je m'en souviens de 2 récemment, mais en gros pour le même problème, à savoir une macro qui n'existe pas dans les headers de GNU/Hurd). Donc faut croire que ça intéresse des gens. 🙂

    Pour moi, sans avoir jamais utilisé Hurd, il me semble que c'est une réalité depuis longtemps mais qu'il a juste une utilisation trop confidentielle donc que ça a du mal à aller très loin. Je place ça au même niveau que d'autres distributions ou noyau tiers dont on entend parfois parler sur LinuxFr, qui sont très intéressants comme expérimentations et peut-être même meilleurs conceptuellement et/ou techniquement (j'en sais rien) mais qui n'ont pas réussi à atteindre la masse critique nécessaire. Peut-être un jour, peut-être pas.

    Et bien sûr, ils n'ont pas autant de prise en charge de matériel, sûrement peu de pilotes, moins de logiciels, etc. Mais c'est normal quand on a peu d'utilisateurs.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Le réseau où la vérité est un argument marleting.

    Posté par  (site web personnel, Mastodon) . En réponse au lien Le réseau social de Trump serait basé sur Mastodon et ne respecterait pas sa licence. Évalué à 10.

    C'est d'autant plus idiot que tous ces gens qui essaient de reprendre du logiciel libre en le cachant et en propriétarisant son code transforme une bonne opportunité marketing en un désastre marketing.

    De nos jours, le logiciel libre a bonne réputation, et dire qu'on en utilise, voire même qu'on compte contribuer des patchs au besoin, c'est en général une possibilité de se faire de la pub à pas cher en tant que "bon acteur du numérique". Ça montre vraiment à quel point ils comprennent pas le monde dans lequel on vit (du côté technologique du moins, ce qui tombe mal pour… un service technologique que représente un réseau social sur le web).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: done

    Posté par  (site web personnel, Mastodon) . En réponse au journal Baromètre des villes cyclables. Évalué à 6.

    Il y en a bien une pour savoir s'il est facile ou non de louer un vélo,

    Je pense que c'est de cette question qu'il parle car j'ai aussi pensé la même chose et ai un peu mis au hasard.

    et ça, utilisateur ou non, tu devrais pouvoir y répondre.

    Euh… ben non. Je ne suis pas utilisateur de vélo de location non plus et n'ai aucune idée s'il est facile de louer ou pas dans ma ville.

    Je connais un service (y en a peut-être d'autres), qui est celui de notre asso qui loue des vélos d'occase (et encore soudain j'ai un doute; je suis même plus sûr. Je me rappelle d'un email qui parlait de location de tandems que l'asso avait récupéré… mais ça se trouve c'est juste ça qu'ils louent et pas d'autres vélos; je me rends compte que j'ai possiblement basé ma réponse sur une info fausse… justement parce que je n'utilise pas de tels services!).

    J'ai aussi vu une boutique pas loin de chez moi qui fait de la location, mais il me semble que c'est que du VAE. Là aussi pas sûr.

    Et dans tous les cas, je ne connais ni le volume de vélos qui se louent, ni celui de gens intéressés (donc s'il est facile d'en avoir un quand on a besoin ou s'il faut attendre/réserver à l'avance, etc.), ni les tarifs, ni les conditions de location et d'usage…

    Donc répondre à cette question fut aussi pour moi une grande question et j'ai mis un peu au hasard. Je vois pas pourquoi on saurait magiquement ce genre de choses quand ça ne nous intéresse pas et qu'on n'utilise donc pas un tel service. 🤷

    Mais oui, ça manque de NSP en effet.

    Conclusion: oui je confirme. J'aurais bien aimé du "sans avis" sur plusieurs questions.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Biais

    Posté par  (site web personnel, Mastodon) . En réponse au journal Baromètre des villes cyclables. Évalué à 9. Dernière modification le 20 octobre 2021 à 15:45.

    Le questionnaire a une "question" qui consiste à mettre des points précis sur la carte de la commune pour les endroits où un changement d'infrastructure devrait être fait. C'est parfait pour ton cas d'usage. 👍 C'est à dire que même si on trouve l'infrastructure vélo globalement satisfaisante dans une ville (et donc répondre avec des notes plutôt positives pour les questions plus globales), on peut vouloir pointer des coins précis dangereux ou à améliorer. Il y a même la possibilité de rajouter un commentaire à un moment du questionnaire (s'il y a besoin d'ajouter des infos par exemple).

    Et qui sait… si suffisamment de gens pointent le même coin problématique que toi, peut-être que ça ferait bouger l'administration en charge du coin de route. Je sais que les gens de notre asso locale ont dit que le sondage précédent (le fait notamment que notre ville était parmi les plus mauvaises de France) a permis de mettre un peu de pression et de faire bouger certaines choses (même si cela reste très limité car la municipalité est super réfractaire ici malheureusement; mais disons que c'était mieux que rien).

    On pourrait imaginer qu'une administration très réceptive utilise ces infos pour de nouveaux projets d'urbanismes (sans même avoir besoin de faire pression, ce qui serait le cas idéal, bien entendu).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Biais

    Posté par  (site web personnel, Mastodon) . En réponse au journal Baromètre des villes cyclables. Évalué à 10. Dernière modification le 19 octobre 2021 à 21:34.

    En même temps, personne n'empêche ceux qui sont super contents de leur ville pour la pratique du vélo de répondre. Si vraiment les autres villes que tu traverses ont un très bon réseau vélo, tu peux remplir le questionnaire pour le dire. C'est aussi ça le but de ce questionnaire. Donc dire que c'est biaisé est aussi un biais. 😉

    La vérité, c'est que la France est en retard d'au moins 40 ans. Je dis pas cela au hasard. J'étais en échange universitaire au Danemark, il y a presque 20 ans. Ålborg, la troisième ville du pays. J'allais tous les jours à l'université en vélo sans passer une seule voiture. Il y avait des réseaux cyclables partout, séparés du réseau routier, avec des ponts ou tunnels pour ne pas avoir à croiser les voitures. Copenhague était aussi super évoluée en matière de vélo, même si je n'y suis allé qu'en touriste, donc je ne peux pas trop en parler. À l'époque déjà (donc il y a 20 ans), le Danemark avait au moins 20 ans d'avance en matière d'infrastructure (d'où mon "40 ans d'avance" maintenant, puisque eux ont évolué encore plus dans cette direction, mais nous, on avance, mais leeeentement, limite à reculons; ensuite ça reste un nombre sorti du chapeau, mais je me dis que s'il est faux, c'est possiblement un retard encore plus grand qu'on a! 🙄). De tels réseaux cyclables, entretenus et sécurisés, c'était du jamais vu en France. Ça l'est encore.

    Je suis retourné au Danemark pour la première fois, il y a 2 ans. Copenhague est toujours aussi impressionnante, avec une infrastructure vélo extraordinaire, des parkings vélos gigantesques partout, de la signalisation vélo, tout. J'ai traversé un pont avec des voies vélo et piétons seulement (sans voie voiture; et même les vélos et les piétons sont séparés physiquement), super spacieuses (je ne saurais plus dire lequel, mais ils en ont tellement à Copenhague). De toutes façons, mêmes les autres ponts ou routes mixtes vélo-voiture, les voies vélos sont quasi aussi larges que les voies bus et voitures (par exemple cette photo du pont levant Knippelsbro, où piétons, voitures, bus et vélos ont chacun à peu près autant de place! Rien à voir avec le micro bout de route qu'on donne aux vélos sur le bord de nationales super dangereuses car les voitures vont à toute berzingue (en fait en France quand une ville met un coup de peinture sur un bord de route pour donner le minimum légal à des vélos, ils s'en félicitent et se prennent pour une ville accueillante aux cyclistes). Tous les métros ont un wagon dédié aux vélos (bien organisé avec marque sur le sol pour l'entrée et on sort de l'autre côté, comme ça c'est efficace et on se bouscule pas) et les bus ont des emplacements à l'arrière pour accrocher des vélos (en tous cas les bus inter-villes qu'on a pris; je me souviens plus pour les bus urbains).

    Bon je parle beaucoup du Danemark, mais pour être allé plusieurs fois en Allemagne, j'ai pu constater que les vélos y sont aussi très bien desservis.
    Dans d'autres pays aussi, par exemple l'autre jour, Ton Roosendaal (de Blender) partageait une vidéo de son trajet vélo quotidien (environ 8km) qui part donc d'Amsterdam même pour aller dans une petite commune pas loin. Il croise un peu plus de voitures que je n'en croisais et il fait même des petits bouts sur des routes voiture (presque vides) mais en même temps, on parle d'Amsterdam (bien plus peuplée qu'Ålborg) et un trajet plus long que ce que je faisais. On remarque toutefois qu'une majorité de son trajet se fait sur des chemins cyclistes bien entretenus (pas un bord de route nationale dangereux). Un trajet impensable en France proche d'une grande ville (voire même proche de petites villes).

    Donc est-ce réellement biaisé? Non, je pense même que le résultat du sondage est plutôt gentil (parce que la plupart des habitants ne savent pas le niveau de prise en charge dans les pays voisins et donc ce qu'il est possible d'avoir s'il y avait une vraie volonté politique). La France est grave à la ramasse en matière de réseau cyclable. Mais vraiment beaucoup beaucoup beaucoup. Et pas par rapport à une sorte d'idéal utopique et théorique. Mais même déjà par rapport à nos pays voisins proches qui ont des décennies d'avance sur les infrastructures. Et pendant ce temps là, les administrations rechignent et quand ils daignent faire un coût de peinture, limite c'est le bout du monde.

    Nos villes peinent à atteindre la note C (voir résultats 2019, je conseille notamment le PDF des résultats si vous voulez une vision d'ensemble plutôt que la carte intéractive, laquelle est plus adaptée pour avoir le détail d'une ville). Il y avait 8 villes à B et une seule avec A (une ville de moins de 20.000 habitants, comme 5 des villes B d'ailleurs). Mais franchement ce n'est pas biaisé et il n'y a pas de "recul" à prendre. Quiconque a visité ou habité des villes où les vélos sont réellement les bienvenus l'a constaté: la majorité de la France n'a pas d'infrastructure adaptée et on se bat pour faire ne serait-ce qu'accepter les vélos dans nos villes. Pour info, ma ville est l'une des plus mal notée de France, l'asso locale (à laquelle on est aussi adhérents même si on ne participe pas tellement à la politique urbaine, notamment car on est des petits nouveaux dans la ville) se bat pendant des années pour obtenir au final quasi rien parce que les administrations ne comprennent même pas et pour eux la voiture a juste priorité, c'est tout. C'est juste super triste.

    P.S.: pour le sujet du journal, ici on a déjà répondu au sondage. 👍

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Greffon G'MIC pour GIMP 2.10.28

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de GIMP 2.10.28 et nouvelles autour du projet. Évalué à 4.

    Pas tellement étonné de la réponse (connaissant un peu le personnage ;) ).

    En fait je comprends ce qu'il veut dire. Il a tendance à ne pas aimer les comportements élitistes et il est vrai que je le suis assez dans cette démarche. Il y a notamment l'élitisme du langage en général et du vocabulaire des professionnels en particulier (dans le cas qui nous concerne). Perso même en tant que développeur, sortir des noms pour tout et n'importe quoi, ça m'insupporte assez. Et allez qu'on va nommer des "design patterns" pour n'importe quel truc de base. Des fois, y a des branquignoles qui savent à peine programmer, mais qui te disent "ah oui faut faire tel pattern". Moi je suis là "mais de quoi il parle?" En fait il parle en général d'un truc super basique que n'importe quel dév aura lu voire écrit dans du code un jour et se sera pas fait chier à nommer (et la personne aurait pu expliquer ce qu'elle voulait dire en mots courants, mais au lieu de cela, va juste te sortir un "nom" que tu es bien sûr censé connaître, sinon c'est toi le branquignole à ses yeux). Donc au lieu de coder, tu vas avoir quelques dévs hipster qui vont disserter pendant 1h dans un blog post pour expliquer et promouvoir un pattern et il deviendra alors primordial de connaître ce terme (j'ai ouï dire que de nos jours, dans des entrevues pour certaines grosses boîtes, on te demande d'expliquer des patterns… juste donnez moi du code pas des mots pour brasser du vent! 🙄 Franchement quand j'entends ça, je suis heureux de pas postuler pour ces entreprises).

    En fait j'ai un apriori négatif sur le besoin de donner des noms compliqués à des trucs simples qu'on pourrait dire en français (ou anglais ici!). Alors je dis pas que c'était ton cas, tu veux juste donner un nom générique assez commun dans le milieu. C'est aussi ce que beaucoup de dévs font quand ils veulent juste nommer un concept. Mais ça donne tout de même matière à réflexion sur le besoin de nommer différemment que le langage ne le permet plus simplement, avec des mots que tous comprennent (même les non-experts et les non-natifs anglais). Et moi c'est ainsi que je comprends sa réponse.

    Par contre, je suis un peu plus étonné de la justification donnée. Je pensais (vraiment) que GEGL (qui veut dire pour rappel "GEneric Graphical Library") était une bibliothèque de programmation "générique" pour la manipulation et le traitement des images (en tout cas, c'est comme ça qu'elle est présentée sur l'article wikipedia dédié).

    On utilise beaucoup l'introspection dans GIMP, et dans GEGL aussi. Donc notamment cela nous permet de générer des GUI à partir juste d'une opération GEGL (sans aucun code spécifique à cette opération). GIMP fait cela par défaut pour n'importe quelle opération (si quelqu'un ajoute une opération personnelle, GIMP la verra et générera une GUI dans GIMP même; c'est extrêmement puissant comme pouvoir). Maintenant on peut aussi créer des interfaces plus avancées et spécifiques. On le fait pour certaines opérations quand on pense qu'elles méritent mieux que ce que l'interface entièrement introspectée propose. Néanmoins même là, on va beaucoup utiliser l'introspection pour les termes, descriptions, etc. Y a-t-il en effet réellement un besoin de nommer différemment les mêmes choses dans l'API pour dév et dans l'interface graphique? N'est-ce pas mieux d'avoir des termes bien compréhensibles en anglais pour tous?

    C'est aussi ça la généricité. Avoir une interface qui marche aussi bien pour le CLI, le code, des interfaces graphiques…

    Notons que comme je disais, on utilise ça pas mal dans GIMP. Dernièrement j'ai aussi implémenté assez massivement des capacités d'introspection et de génération d'interface graphique pour les plug-ins (qui n'ont alors pas besoin de long code GTK; quelques dizaines de lignes de code et on a une interface équivalent à 600 lignes de GTK → je rigole pas, c'est en gros le ratio qu'on a eu quand j'ai porté le plug-in JPEG sur cette nouvelle API). Là aussi, les plug-ins vont déclarer des procédures avec des paramètres et des descriptions, qui vont servir autant d'interface de programmation (comme des procédures qui pourront être appelés depuis d'autres plug-ins par exemple) que de textes pour une GUI.

    Apparemment, c'est donc plutôt une bibliothèque de traitement d'images destinée à être appelée uniquement depuis des interfaces graphiques ? C'est pas très vendeur :)

    Pourquoi cela ne pourrait pas être les 2? 🙂

    En fait, c'est même très clairement les 2 dans notre cas!

    Et si ce n'est pas le cas (ce que je crois), pourquoi les noms des paramètres des fonctions devraient être forcément les mêmes que les noms des widgets que l'on présente à l'utilisateur d'une UI ?

    Je renverse la question: pourquoi cela devrait-il être différent? Après tout, pourquoi un nom ou une description serait-elle bonne dans un cas mais pas dans l'autre? Si un nom décrit bien un paramètre en API, elle le décrirait aussi bien en GUI. 😉

    Mais bon, j'admets que je chipote un peu :)

    Je pense aussi. 😛

    Perso je connaissais pas ce terme. Quand je regarde une opération, je regarde ce qu'elle fait, essaie de comprendre son algorithme/code, me documente… comment s'appelle tel ou tel paramètre, de toutes façons, je l'aurai oublié 5 minutes après (mais je me rappellerai le code et la logique longtemps car c'est ça qui m'intéresse dans le traitement d'image, pas les noms!). Sincèrement je saurais déjà même plus redire de tête le nom que tu as donné ou celui actuel sans scroller pour vérifier (je rigole pas). Et ce même si c'est le sujet principal de notre discussion! Par contre, je me rappelle que l'on parle d'un paramètre pour décider comment considérer les pixels hors des bords de l'image d'entrée. Ça me suffit. Comment ça s'appelle dans l'API, de toutes façons, je revérifierai encore lorsque j'aurai besoin de l'utiliser.

    Enfin bon, pour moi, je pense que ça a du sens de rajouter le terme que tu proposes dans la description (c'est ce que je propose) puisque c'est effectivement un nommage classique, comme ça ceux qui connaissent feront le rapprochement en effet. Mais ça ne me gêne pas plus que ça que la propriété n'ait pas ce nom en principal.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: activité lente, sinon moribonde du côté de macOS…

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de GIMP 2.10.28 et nouvelles autour du projet. Évalué à 10.

    il n’y a pas encore de cross-compilation fonctionnelle, ni de couche de compatibilité pour Linux fonctionnelle, un jour Darling peut-être ? (hu, le certificat est expiré);

    J'ai déjà vu quelques projets de cross-compilation mais je n'y ai jamais jeté plus qu'un œil, tout simplement car c'est pas légal, pas par rapport à la loi mais aux règles/CGU d'Apple qui interdisent d'utiliser des logiciels Apple sur autre chose que le matos Apple; le problème étant que tous ceux que j'ai vu faire de la cross-compilation macOS à ce jour le font en proposant de copier les SDK officiels. Or même si on a une licence, c'est à dire qu'on copie le SDK depuis une machine Apple officielle qu'on a acheté, on n'a quand même pas le droit de l'utiliser sur une machine non-Apple.
    C'est écrit explicitement dans les conditions d'utilisation (gras ajoutés par mes soins, notons aussi que ce sont les CGUs de la dernière version de l'OS mais on trouve le même texte dans les CGUs des macOS précédents, du moins ceux que j'ai regardés au fil des ans):

    1. Permitted License Uses and Restrictions.

    A. Preinstalled and Single-Copy Apple Software License. Subject to the terms and conditions of this License, unless you obtained the Apple Software from the Mac App Store, through an automatic download or under a volume license, maintenance or other written agreement from Apple, you are granted a limited, non-exclusive license to install, use and run one (1) copy of the Apple Software on a single Apple-branded computer at any one time.

    […]

    B. Mac App Store License. If you obtained a license for the Apple Software from the Mac App Store or through an automatic download […] you are granted a limited, non-transferable, non-exclusive license:

    […]

    (iii) to install, use and run up to two (2) additional copies or instances of the Apple Software within virtual operating system environments on each Mac Computer you own or control that is already running the Apple Software, for purposes of: (a) software development; (b) testing during software development; (c) using macOS Server; or (d) personal, non-commercial use

    J. Other Use Restrictions. The grants set forth in this License do not permit you to, and you agree not to, install, use or run the Apple Software on any non-Apple-branded computer, or to enable others to do so.

    C'est plutôt clair. Ils répètent encore et encore que leur logiciel doit tourner sur du matos de marque Apple.

    Si ça n'avait pas été le cas, il y a longtemps que j'aurais ajouté la prise en charge de macOS dans mon propre outil d'aide à la compilation croisée, crossroad. Techniquement il n'y a aucune raison que ce soit compliqué. C'est uniquement légal: ils veulent interdire ce cas d'usage. Ben tant pis pour eux! Je vais personnellement pas prendre le moindre même micro-risque pour un éditeur qui veut pas de moi (pire qui semble prendre l'aide des développeurs de logiciel libre — car soyons clair, permettre de compiler sur Linux pour macOS, ce serait un énorme coup de pouce à cet OS — pour un comportement indésirable).

    Quand on compare à Microsoft, qui non seulement fournissent gratuitement des VMs Windows, explicitement destinées au développement, mais en plus disent clairement dans leurs propres GCU que la licence Windows (notamment les licences OEM) peut être utilisée en environnement virtuel à la place d'être l'OS principal, sans préciser que ça doit être la même machine d'achat, ou même une machine qui fait tourner déjà Windows en environnement principal:

    (iv) Use in a virtualized environment. This license allows you to install only one instance of the software for use on one device, whether that device is physical or virtual. If you want to use the software on more than one virtual device, you must obtain a separate license for each instance.

    Je le sais d'autant plus que j'en ai fait l'expérience officielle il y a plus de 10 ans, quand j'ai contacté le revendeur d'un nouveau portable pour leur demander de m'envoyer une copie ISO de l'OS parce que je voulais installer Linux à la place et pouvoir lancer Windows en VM (c'est à dire que j'utilise bien la licence pour un usage unique mais au lieu de le faire en OS principal, c'est en VM). Ça n'avait posé aucun problème, ils m'ont envoyé l'ISO immédiatement en disant que ce n'est pas un problème. Ce ne sont donc absolument pas des nouvelles règles.

    En gros, Microsoft sait au moins comment jouer fair-play avec les autres joueurs alors qu'Apple veut absolument se la jouer perso, n'accepte que de l'Apple sur de l'Apple et refuse toute autre utilisation. Ben moi, je vais pas prendre le moindre risque à essayer de cross-compiler pour macOS dans ces conditions alors que l'éditeur me l'interdit explicitement. Tant pis pour eux! Ils perdent des développeurs.

    La possibilité de cross-compiler pour Windows a fait énormément pour nos capacités à corriger des problèmes pour Windows (quand on avait peu/presque pas de dévs).

    Donc bref, bravo à GIMP et Jehan d’être si généreux 👍, je ne doute pas que de tels efforts sont remerciés par beaucoup d’ingratitude, à commencer par « même pas un merci ». 😏

    En général, on aura plutôt des "comment osez-vous?" - "ce n'est pas acceptable", etc. Franchement c'est ce genre de remarques et réactions qui est le plus décevant. Des gens qui ne font que réclamer et se plaindre.

    Bon ensuite certains remercient quand même. Et puis en vrai, les gens qui nous gueulent dessus et font des remarques désobligeantes (comme s'ils appelaient un support qu'ils payaient très cher), y en a même chez les Linuxiens… et plus souvent qu'on n'aimerait. 😕 Donc en fait, ce n'est pas une particularité macOS les gens qui se comportent comme des "clients mécontents" plutôt que des contributeurs constructifs d'une communauté.

    Sinon pour mettre un peu d'eau dans le vin, depuis quelques jours, on a enfin un nouveau contributeur macOS (y a une sorte de malédiction, on n'a jamais plus d'un contributeur macOS à la fois; en tous cas depuis les presque 10 ans que je contribue!) qui est enfin en train de faire marcher la compilation de la version de dév (il a déjà réussi localement et y est presque sur le serveur de build)! 🙌
    Il a même déjà contribué quelques patchs dans le dépôt des sources de GIMP!

    Et cerise sur le gâteau, y a un second contributeur qui a commencé essayer de bosser sur le paquet stable (pas fait grand chose, en dehors de quelques tests hier, mais c'est déjà mieux que rien). On verra. Peut-être rompra-t-on la malédiction macOS cette année!

    En tous cas, dans mon expérience perso, en plus du manque de dév et du blocage de l'éditeur Apple (qui veut pas qu'on fasse quoi que ce soit sans avoir du matos Apple, pour forcer tout le monde à en acheter à prix fort), j'ai aussi remarqué une autre constante: Apple casse régulièrement son système d'une mise-à-jour à l'autre. Je parle pas de bugs comme on peut tous en avoir, non vraiment de casser exprès pour faire évoluer la technologie.

    Autant on peut critiquer Windows sur le bordel de son système qui se base sur des couches de vieilles technologies (dont certains se plaignent), mais ça a en fait un effet de bord très désirable: Windows est à fond sur la rétro-compatibilité. Bien sûr, ce n'est pas parfait, mais globalement ils essaient de ne pas casser de vieux binaires ou vieilles APIs pour rien et cela rend le développement bien plus stable. Autant sur macOS, j'ai l'impression qu'il fallait corriger des choses presque à chaque sortie de macOS à cause de nouvelles incompatibilités avec la version d'avant. C'est d'autant plus lourd sans développeur macOS dans notre cas! Et surtout cela n'est pas du tout adapté à un monde professionnel (dans le sens "logiciel de type professionnel/logiciel métier", comme GIMP, et non d'amusement comme un petit logiciel pour s'amuser à gribouiller) qui a besoin de stabilité et de bases solides.

    Un contributeur (non-dév, qui travaille dans l'audiovisuel) de longue date de GIMP a un jour dit que pour lui, macOS était devenu un OS-jouet, où on ne peut plus rien vraiment faire de sérieux car l'éditeur ne cherche plus du tout à garder/aider les logiciels métier ni à avoir un semblant de stabilité (absolument nécessaire en environnement professionnel). Ben je crois qu'il a raison. 🤷

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Contributeurs de code

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de GIMP 2.10.28 et nouvelles autour du projet. Évalué à 10. Dernière modification le 07 octobre 2021 à 01:30.

    Malheureusement mitch est inactif sur GIMP depuis un an (il a fait quelques commits et des releases en 2020, mais même là, il eu très peu d'activité sur tout 2020). Certains auront sûrement remarqué que cela correspond aux périodes de début de crises sanitaires et ce n'est pas un hasard. Toute son année 2020 et 2021 a été très dure pour lui car il a dû maintenir le business familial à flot (apparemment ça marche, sauf que ce fut très dur et éprouvant). Il nous dit qu'il n'a plus la force de coder après (ou pendant même… c'est bien d'être son propre boss!) le boulot.

    Il reste "dans le coin", c'est à dire qu'il est notamment sur IRC et parfois il répond même. On garde espoir qu'il revienne, notamment il nous dit qu'il veut nous retrouver à un Libre Graphics Meeting ou un Wilber Week (semaine de hacking entre nous) et que ça lui redonnera la passion, parce que rencontrer les gens tous les ans était une des choses qui le motivait le plus (or là ça fait 2 ans qu'on a abandonné toutes nos réunions; même lorsque LGM a voulu essayé de refaire une réunion physique cette année, on a considéré que ce n'était pas raisonnable de participer physiquement). Il est officiellement toujours le co-mainteneur avec moi (et comment! 24 ans qu'il contribue! C'est pas une pause de 1 an qui changerait son apport énorme; d'ailleurs c'est bien sûr lui qui m'a dit de prendre le rôle de co-mainteneur car il considérait que j'en assumais déjà les fonctions depuis un moment, juste sans le titre).

    Il n'est d'ailleurs pas le seul gros contributeur qui a disparu. Ell était un autre très gros contributeur des récentes années. Un gars super compétent et sympa. Malheureusement il a aussi soudainement disparu en septembre 2020. Juste plus de nouvelles d'un coup. On s'est même inquiété mais il répond même plus aux emails. Lui, on ne sait pas exactement pourquoi il est parti mais on a des hypothèses car il avait déjà disparu quelques mois en 2019 et il nous avait dit en revenant qu'il avait juste été complètement déçu du logiciel libre (à cause d'une sombre histoire de fork que l'on ne nommera pas et qui a bien montré le côté vilain de profiteurs qui sont simplement horribles envers autrui). Une hypothèse serait donc que cette nouvelle disparition soit pour la même ou une raison similaire. (on voit régulièrement des raisons d'êtres déçus du libre malheureusement, en plus sa disparition coïncide de quelques mois avec un autre truc pas cool qu'on a vécu mais dont on peut pas parler publiquement; c'est peut-être ça aussi, ou un mix…) 🤷

    C'est vraiment dommage car ce furent des années d'or vers 2016-2019, où entre mitch, Ell et moi qui faisions chacun environ un tiers du gros du code (bon mitch faisait en fait toujours plus!), on avait un peu une dream team. Et surtout en plus d'être compétents, ces 2 personnes sont de bonnes personnes humainement (je sais que pour certains, ça n'importe pas, mais pour moi, c'est un critère primordial pour du travail collaboratif dans de bonnes conditions; je dirais même sans hésiter que c'est plus important que la compétence pure). Franchement j'espère revivre cette période dans le futur (c'est à dire qu'ils reviennent, et d'autres gros contributeurs même espérons!), ça me manque. C'est un peu dur seul depuis un an (bon on a quelques nouveaux contributeurs, dont certains doués — un notamment qui contribue de plus en plus donc c'est génial! 🙌 — mais personne encore qui remplace complètement le niveau de compétence et de passion de mes 2 compères). 😩

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: agrégation

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Le Frido : livre libre de mathématique pour l’agrégation et plus. Évalué à 5.

    Durant la cession 2013 où le Frido était autorisé (et même dans la bibliothèque), j'ai réussi l'agreg.

    C'est comme certains permis, il faut le repasser régulièrement? Je comprends pas trop, tu dis que tu l'as eu en 2013 mais que tu le repasses (et foires) en 2015. Je suis perdu! 🤔

    P.S.: j'ai aucune idée de comment se passent ces examens!

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: activité lente, sinon moribonde du côté de macOS…

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de GIMP 2.10.28 et nouvelles autour du projet. Évalué à 7.

    ils ne savent même pas exactement pourquoi Inkscape est si désespérément lent sous Mac OS.

    On n'a peut-être pas la réponse complète, mais on en a une partie. Ce problème de lenteur arrivé avec BigSur (à part si tu parles d'un autre problème) où apparemment ils ont changé plein de trucs sur comment ça marche en interne (notamment pour l'affichage) était assez global (pas juste GTK, plein de logiciels ont été affectés apparemment).

    Voir par exemple:

    Voir par exemple les discussions sur ce bug, ce type de discussion sur forums Apple, etc.

    Pas sûr encore de bien comprendre quel est le problème (apparemment GTK3 et les nouveaux processeurs M1 de chez Apple ne sont pas très copains), mais clairement c’est pas demain que Inkscape aura un testeur pour Mac OS…

    En même temps, si même les dévs macOS arrivent pas à compiler, y a un problème à la base. C'est pas les dévs des autres OSes qui pourront vraiment les aider (ça devrait être l'inverse). 😛

    Enfin bon, je crois pas que tu disais ça ni l'inverse non plus. C'était juste une petite remarque.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: activité lente, sinon moribonde du côté de macOS…

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de GIMP 2.10.28 et nouvelles autour du projet. Évalué à 10.

    Depuis quelques jours, on a un nouveau contributeur qui essaie de compiler/faire marcher les versions de dév de GIMP (pour la première fois, pour autant qu'on le sache) et qui est plutôt sur la bonne voie.

    Ce qui ne veut pas dire qu'on ne veut pas de ton aide, au contraire. Plus on est, mieux c'est. Y a une sorte de malédiction sur macOS qui veut qu'on n'a jamais eu plus d'un dév à la fois (sérieux, j'ai jamais vu 2 dévs macOS pour GIMP en même temps, c'est pas une blague). La palme revient à un des mainteneurs du paquet mac qui a jeté l'éponge le jour où un autre est apparu et a commencé à proposer des scripts automatisables alors que le mainteneur du moment était injoignable depuis des mois et le paquet super en retard. Le gars est revenu un jour sur IRC, a poussé une gueulante comme si on faisait des trucs dans son dos et est jamais revenu. 🙄

    Enfin bon, donc oui, bienvenu. Je conseillerais de lire les scripts sur le dépôt gimp-macos-build et notre fork de gtk-osx. En particulier, tu trouveras une branche wip/lukaso/tests qui est ce sur quoi le nouveau contributeur bosse pour compiler la version de dév (les logs de la branche est bordélique car c'est en mode "on essaie des trucs", la version mergée devra bien sûr être nettoyée). Et déjà essayer de compiler localement.

    Puis tu peux aider à corriger les problèmes, un problème avec les icônes (voir aussi #6165).

    Ou bien on essaie de comprendre pourquoi glib 0.70.0 ne veut pas compiler (une version précédente marchait):

    [53/1098] Compiling C object glib/libglib-2.0.0.dylib.p/gregex.c.o
    FAILED: glib/libglib-2.0.0.dylib.p/gregex.c.o 
    /Applications/Xcode-12.5.1.app/Contents/Developer/usr/bin/gcc -Iglib/libglib-2.0.0.dylib.p -Iglib -I../../../../gtk/source/glib-2.70.0/glib -I. -I../../../../gtk/source/glib-2.70.0 -I/usr/local/include -I/Library/Developer/CommandLineTools/SDKs/MacOSX10.12.sdk/usr/include -I/Users/distiller/gtk/inst/include -fcolor-diagnostics -Wall -Winvalid-pch -std=gnu99 -O2 -g -D_GNU_SOURCE -fno-strict-aliasing -DG_ENABLE_DEBUG -Wimplicit-fallthrough -Wmisleading-indentation -Wstrict-prototypes -Wunused -Wno-unused-parameter -Wno-bad-function-cast -Wno-pedantic -Wno-format-zero-length -Werror=declaration-after-statement -Werror=format=2 -Werror=implicit-function-declaration -Werror=init-self -Werror=missing-include-dirs -Werror=missing-prototypes -Werror=pointer-arith -O3 -arch x86_64 -isysroot /Library/Developer/CommandLineTools/SDKs/MacOSX10.12.sdk -mmacosx-version-min=10.9 -arch x86_64 -isysroot /Library/Developer/CommandLineTools/SDKs/MacOSX10.12.sdk '-DG_LOG_DOMAIN="GLib"' -DGLIB_COMPILATION -fvisibility=hidden -MD -MQ glib/libglib-2.0.0.dylib.p/gregex.c.o -MF glib/libglib-2.0.0.dylib.p/gregex.c.o.d -o glib/libglib-2.0.0.dylib.p/gregex.c.o -c ../../../../gtk/source/glib-2.70.0/glib/gregex.c
    ../../../../gtk/source/glib-2.70.0/glib/gregex.c:25:10: fatal error: 'pcre.h' file not found
    #include <pcre.h>
             ^~~~~~~~
    1 error generated.
    [54/1098] Compiling C object glib/libglib-2.0.0.dylib.p/gmain.c.o
    [55/1098] Compiling C object glib/libglib-2.0.0.dylib.p/gshell.c.o
    [56/1098] Compiling C object glib/libglib-2.0.0.dylib.p/gscanner.c.o
    [57/1098] Compiling C object glib/libglib-2.0.0.dylib.p/gslice.c.o
    [58/1098] Compiling C object glib/libglib-2.0.0.dylib.p/gsequence.c.o
    ninja: build stopped: subcommand failed.
    *** Error during phase build of glib: ########## Error running ninja   *** [17/34]
    

    (on a essayé d'autres trucs, sans succès pour l'instant… dont un truc qui finit avec un CERTIFICATE_VERIFY_FAILED quand ça essaie de télécharger libpcre; je me suis demandé si c'était à cause du prob de certificats racine de Let's Encryt de ces derniers jours)

    Si tu trouves des solutions à ces trucs, n'hésite pas à contribuer (en laissant des messages, voire en envoyant des patchs si tu trouves les problèmes, etc.).

    La liste gimp-developer-list semble avoir une activité raisonnable. C'est là que je fais ma proposition ? :-)

    C'est un bon endroit pour une entrée en matière. Ensuite le mieux est de rentrer dans les problèmes à bras le corps. Déjà compiler localement, ensuite essayer de proposer des patchs (qu'on peut tester sur le CI, c'est pour cela que je crée des branches de test wip/<nickname>/tests).

    Pour discuter plus directement, le mieux reste IRC (#gimp sur irc.gimp.org).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Greffon G'MIC pour GIMP 2.10.28

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de GIMP 2.10.28 et nouvelles autour du projet. Évalué à 10.

    mais on peut aussi comprendre qu'ils mettent à jour aussi ces fichiers dès qu'ils peuvent

    Il y a de cela bien sûr (correction des bugs dans les dépendances notamment… comme le montre cette dépêche, c'est important car plein de problèmes qu'on a eu sous Windows ont été récemment corrigé dans des bibliothèques utilisées), mais pas seulement. Il y a aussi la question de simplicité. Pour Windows, on se base beaucoup sur le dépôt de paquets MSYS2 qui est vraiment un super projet qui simplifie énormément le packaging pour Windows (on voit la différence avec macOS par exemple où on doit compiler la chaîne de dépendance complète). Donc pour un nouveau paquet, on se prend pas la tête: on prend la version proposée par MSYS2 (qui est en général la dernière version car ils sont très réactifs). 🤷

    Dans tous les cas, c'est certain que le problème de dépendances réutilisées par les plug-ins n'est pas idéal. Ça fait partie des trucs que je veux améliorer, mais ça va prendre du temps. Plus qu'une solution technique (car je crois pas qu'on puisse en trouver, sauf à décider de ne jamais mettre à jour les dépendances, ce qui n'est pas une bonne idée), je pense que ce sera une solution procédurale (avec des périodes de freeze ou d'alerte et une plateforme pour aider les plug-ins à se mettre à jour dans les temps). C'est dans ma TODO 📝 depuis un moment.

    En traitement d'images, je crois que tout le monde appellerait ça boundary_conditions, c'est le terme générique pour définir la façon dont on traite les bords dans tous les opérateurs de traitement d'images. C'est du coup un peu dommage de ne pas utiliser les termes classiques du domaine, notamment dans une bibliothèque de gestion/traitement d'images…

    Merci. J'ai ouvert un rapport de bug: https://gitlab.gnome.org/GNOME/gegl/-/issues/295

    Je doute que ça soit mis à jour dans le nom de la propriété, à cause du besoin de stabilité d'API (à moins que GEGL ait un système d'alias permettant de renommer une propriété en gardant aussi l'ancien nom; mais je crois pas qu'y ait ça), mais on peut au moins rajouter le terme dans la description de la propriété.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # La suite

    Posté par  (site web personnel, Mastodon) . En réponse au lien Facebook de plus en plus fragilisé par les révélations d'une lanceuse d'alerte - france inter. Évalué à 10.

    L'article disait qu'on en saurait plus dimanche avec l'émission 60 minutes sur CBS. J'ai donc fait une petite recherche. On trouve donc quelques articles sur le web, et des vidéos de l'émission.

    Perso, après avoir vu cet extrait de l'émission, rien de surprenant pour moi, ni qu'on ne savait déjà. Il suffit de regarder les gens accrocs aux réseaux sociaux et de parler un peu avec eux pour savoir qu'ils ont une vue absurde de la société, une image soit horrible d'eux-même, soit au contraire prétentieuse et dédaigneuse, souvent tout à la fois, et dans tous les cas totalement malsaine.

    En fait surtout je me suis rendu compte, avec le temps, que c'est un micro milieu. La plupart des gens qu'on rencontre… n'ont simplement pas de compte, ou ont en créé un fantôme un jour où ils s'ennuyaient et qu'ils ne regardent jamais. En fait j'ai l'impression que tous ces réseaux sociaux sont un entre-soi où un micro-pourcent de la société a ironiquement l'impression de représenter la société dans son ensemble (sur la base de quelques chiffres marketing remplis de comptes fantômes). Et l'un des plus gros du problème, c'est que parmi ces quelques gens avec une vue biaisée de la société, on a tous les politiciens et grands "décideurs" qui se basent là-dessus pour prendre leurs décisions stupides et malsaines.

    Donc rien de nouveau.
    Mais bon s'il faut ça pour que d'autres comprennent que ces réseaux sont malsains… perso comme d'autres commentaires, je crois moyen à ce qu'une quelconque rédemption advienne (même forcée par des lois/amendes qui, même grosses, ne représente qu'un pouillème de bénéfices de toutes façons). Mais bon… qui sait. À force de scandales qui se suivent et se ressemblent, peut-être?

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Et à quand un format cinéma libre? 😉

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche FFV1, un format vidéo sans perte et libre, normalisé à l'IETF. Évalué à 8. Dernière modification le 01 septembre 2021 à 16:47.

    Et que pendant pas mal d’années, surtout au début, j’ai vu certaines personnes dans l’opensource dire n’importe quoi. (j’ai repéré un message plus en dessous sur la cryptographie qui est justement dans ce cas :)

    C'est sûrement de mon message que tu parles, si tu parles du message sur le fonctionnement des clés. Ensuite je n'ai pas travaillé précisément et techniquement sur ce sujet (je m'y suis juste intéressé, ai posé des questions et ai lu parce que je travaillais avec des DCPs, donc je voulais savoir comment fonctionnaient les clés bien entendu car je me demandais moi aussi à l'époque comment le problème des copies illicites avait pu être géré), donc je suis certain qu'il y a des imprécisions, voire des erreurs (et serais heureux d'avoir les corrections si tel est le cas). Mais je suis à peu près sûr que l'idée conceptuelle de base est juste (une unique clé pour déchiffrer le contenu du DCP, elle-même chiffrée spécifiquement pour la machine de l'exploitant). Quand j'ai écrit mon message, je l'ai d'ailleurs pas fait entièrement de tête, j'ai aussi fait quelques recherches web (comme je le fais souvent pour pas non plus dire trop de trucs faux, même si cela reste juste une discussion informelle donc je me permets les approximations) pour valider mes souvenirs et toutes les docs et articles que j'ai trouvé confirmaient cette logique pour expliquer les KDM.

    Donc dire qu'y a des erreurs, je veux bien, et dans ce cas je veux bien que tu corriges. Mais de là à parler de "n'importe quoi", ben… là aussi je veux bien que tu expliques! 😛

    Ou alors tu parlais du commentaire de quelqu'un d'autre, mais il me semble que c'était le seul qui aborde un sujet un peu cryptographique.

    Si tu veux mon avis tranché dessus: je serais ravi d’avoir autre chose que du JPEG2000 :)
    (je l’ai même dit plusieurs fois sur d’autres formats que je trouve mieux, mais c’est plus dans le sens « non destructrice », mais impossible pour des copies séries à distribuer en salle)

    Ok. Perso j'ai pas plus d'avis que ça sur le format idéal techniquement et j'ai aucune bille nulle part. Je pose juste des questions par intérêt et pour suivre l'évolution des formats (et les possibles futurs changements de standard qui pourraient survenir… ou non!). On va dire qu'en tant que dév de GIMP, c'est normal de se tenir un peu informé sur les formats d'image (et de préférer les formats libres si possible!). 🙂

    Désolé, réaction épidermique :-D

    Pas de prob. Ça arrive. Je suis content qu'on retombe sur une discussion plus saine et agréable. 👍

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Quand tu ne peux pas critiquer en direct, invente...

    Posté par  (site web personnel, Mastodon) . En réponse au lien Le ministère de l’éducation nationale lance une étrange campagne d’affichage sur la "laïcité". Évalué à 3. Dernière modification le 30 août 2021 à 14:19.

    Depuis que je me suis installé dans le sud de l'espagne il y à 2 ans, dans une ville relativement touristique au bord de la mer, dans le centre historique et les bords de mer on n'arrête pas de s'addresser à moi en anglais

    En effet, le coup de la langue est un grand classique. On me le fait régulièrement, en général dans les endroits un peu huppés (genre un restaurant un peu plus classe que la moyenne, ou bien effectivement des endroits ou boutiques un peu touristiques; sans pour autant aller jusqu'aux trucs de luxe car j'y vais jamais, et même les restaux un peu classe restent rares).

    Le pire est que moi, je réponds évidemment avec un français parfait, aucun accent (ou l'accent parisien plutôt!), mais souvent 2 secondes après, on me répond à nouveau en anglais (genre "il est gentil, ce touriste, il fait un effort de dire des mots en français mais bon… ça reste un touriste, on va lui simplifier la vie et montrer qu'on peut bien parler anglais aussi!"). Moi c'est même pas quand la personne revient après la commande, franchement j'ai eu des cas où genre: on me parle en anglais, je réponds en français, on me répond alors une phrase en français, puis on switche en anglais sur la phrase suivante direct. C'est très frustrant et en plus totalement illogique (la personne m'a entendu parler un bon français, a répondu une fois en français automatiquement et a vu que je comprenais… et pourtant quelque chose dans son cerveau lui fait revenir à l'anglais tellement cette évidence tordue basée sur mon faciès est ancrée dans son esprit en dépit de toute logique). Ces gens qui peuvent même pas imaginer une seconde qu'on puisse être français (ou même parler français apparemment), à notre tête…

    Si au moins, mon français était un français cassé, ce serait déjà vexant mais légèrement plus compréhensible. Je l'ai beaucoup vécu au Japon (j'y suis resté 2 ans) où même en répondant avec mon japonais tout cassé (la première année, je parlais pas du tout, mais la seconde année, j'avais enfin pigé le truc et avais le niveau pour avoir une conversation courante avec les gens), on me répondait souvent direct en anglais (ah oui parce que même au Japon, on me prend pas pour un japonais; on me prend pour un natif nulle part en fait! 🙄). C'était déjà frustrant quand j'aurais aimé pratiquer le japonais, mais il était au moins vrai que j'étais étranger et que l'anglais était bel et bien plus facile pour moi. Mais là, j'ai un français parfait avec un accent et des intonations de natif. Mais… non. C'est un peu: "T'as une gueule de chintok, t'es un étranger qui vient juste dépenser des sous ici, c'est comme ça, c'est tout"

    C'est fou comme de simple suppositions naïves et il faut le dire, inutiles, peuvent vexer ou avec accumulation peser sur la vie des gens alors que ne rien présupposer est suffisant.

    Oui tout à fait. C'est comme la remarque choquante de quelqu'un dans un commentaire plus bas, qui semble penser que ces pubs sont tout à fait OK:

    Ma compréhension de l'affiche hydrique :
    - Le garçon (Sacha) est d'origine Européenne
    - La fille (Neissa) est d'origine africaine ou du Moyen-orient

    La fille est probablement de religion musulmane. […]

    Sérieux WTF. Et si… je dis bien, et si… on pouvait avoir comme compréhension de l'affiche: 2 gamins dans une piscine. Point. C'est tout!
    Bien sûr, cela enlèverait tout son sens à l'affiche, mais c'est bien pour ça que cette campagne est mauvaise et nauséabonde.

    Pourquoi quand des gens voient ces enfants, ils se demandent leur origine, vont faire des suppositions franchement perturbantes sur une "origine", ou une "religion". C'est juste malsain, horrible et insultant.

    Comme tu dis:

    Si ça vient dans la conversation, oui parlons en pourquoi pas. Sinon le concept d'origine, et encore plus d'origine unique est hors-sujet.

    Tout à fait. Je n'ai aucun problème ni honte avec mon histoire, ni celle de mes parents. Les pays d'où viennent mes parents n'est pas un secret, et je peux tout à fait en discuter sans gêne si ça vient naturellement dans une discussion. Juste… ne pas en faire une sorte de définition des gens, ce serait un minimum. C'est pas cette "origine" (un concept nationaliste et séparatiste) qui nous définit. Ce qui nous définit, c'est juste qui on est (oui c'est une tautologie, c'est normal), là maintenant. Pas la famille, pas des caractéristiques génétiques qui nous confèrent des traits physiques communs à certaines populations.

    Enfin bon, on est d'accord quoi. 😉

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Et à quand un format cinéma libre? 😉

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche FFV1, un format vidéo sans perte et libre, normalisé à l'IETF. Évalué à 10.

    Je vais répondre, de mémoire.

    Il me semble que les clés de lecture des DCP dans les cinémas permettent de limiter très précisément le nombre de lectures, les dates autorisées, le type de matériel, etc…

    Oui. En fait, plus que le type de matériel, c'est même précisément la machine exacte de la salle qui est ciblée par la clé. C'est possible car les projecteurs ont des clés publique/privée uniques au niveau du hardware même.

    Dans ce cadre de verrou numérique, je vois pas bien comment ouvrir le format totalement sans péter toute la logique de verrouillage qui va avec.

    Un DCP chiffré l'est en fait avec une unique clé (c'est donc un chiffrement symétrique). C'est cette même clé qui est utilisée par toutes les salles. Pourquoi pas avec la clé publique du projecteur (puisque je viens d'expliquer que chaque machine de projection en a une)? Parce qu'imaginez l'horreur et le travail additionnel/temps perdu/coût (je rappelle qu'on parle de films qui font des dizaines ou centaines de GiB, c'est pas un petit fichier qu'on chiffre en 2 secondes) si on devait re-chiffrer le même film pour chaque salle qui l'ajoute dans son planning. Donc on le chiffre une seule fois.

    L'idée des clés envoyées est de faire un double chiffrement: on n'envoie pas la clé finale mais on la chiffre elle-même avec la clé publique du projecteur (là c'est rapide, c'est un petit fichier). Donc quand on donne cette clé doublement chiffrée au projecteur, il peut la déchiffrer avec sa propre clé privée, récupérer la clé du DCP, et finalement déchiffrer le film lui-même avec cette clé. C'est donc un double chiffrement symétrique (film lui-même) et asymétrique (la clé symétrique avec la clé publique unique de la machine).

    Je suppose que le risque principal est si on arrivait à s'emparer de la clé symétrique (qui permettrait de relire le DCP à loisir, sans aucune limitation de temps ou de machine), et cela est sûrement limité en faisant toute cette étape au niveau hardware, comme une boîte noire, de sorte que la clé symétrique n'est jamais visible au niveau logiciel sur les machines contrôlées par les projectionnistes (les ordinateurs de la salle de projection). De même la clé privée d'un projecteur n'est pas accessible par quiconque (ça reste un secret de la boîte noire). Je pense que ça se fait avec des certifications de machine, de sorte que les distributeurs ne créent pas de clés pour n'importe quelle clé publique, mais uniquement pour celles qui font partie de listes de machines certifiés pour protéger le secret du déchiffrement et de la clé privée. C'est à dire que je peux pas juste donner une clé publique que j'ai créée moi-même (donc j'ai aussi la clé privée) et leur demander de m'envoyer un KDM (le nom de la clé chiffrée pour ma propre clé hardware) pour ensuite récupérer la clé symétrique. Un distributeur/labo doit d'abord vérifier que c'est une clé de confiance dans une liste.

    Notons que je n'ai pas travaillé sur ce sujet précis, donc il est possible qu'il y ait de petites erreurs ou imprécisions dans mon explication technique. J'ai juste travaillé à la problématique du transfert de DCP pas des clés. Néanmoins malgré de possibles petites erreurs, ce devrait être globalement le fonctionnement de ces fameux KDMs et leur modèle de sécurité tel que je l'ai compris.

    Tel que je le vois, tout repose au final sur cette boîte noire à l'intérieur du matériel de projection, qui promet aucune fuite de la clé déchiffré du KDM ni de la clé privée du hardware. Si l'une de ces 2 promesses est rompue, alors on peut déchiffrer à loisir un film à partir du KDM obtenu légalement, puis faire des copies non-chiffrées, etc. C'est le maillon faible. Mais comme ça dépend de gens dont c'est le métier (des salles de cinémas) sur du matériel qui coûte une fortune, peu probablement prendrait des risques à se faire blacklister par les distributeurs. C'est pas du matériel que des particuliers ont (et même si c'était le cas, un distributeur n'enverrait pas un KDM pour ce matériel à un particulier). Donc c'est aussi basé sur la confiance.
    C'est pour cela que ça marche plutôt bien. Une telle logique ne pourrait pas marcher aussi bien pour une diffusion grand publique (même avec des lecteurs hardware certifiés, il y aura toujours des petits malins pour les démonter, en se fichant des garanties, et arriver à lire les infos directement sur la partie boîte noire du hardware, permettant ainsi d'obtenir les clés de tous les films achetés). Mais dans le petit monde du cinéma, ça m'a l'air d'une logique relativement sûre (en comparant risques et gains).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Et à quand un format cinéma libre? 😉

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche FFV1, un format vidéo sans perte et libre, normalisé à l'IETF. Évalué à 9.

    Il me semble qu'un artefact est une distorsion visible

    Oui bien entendu. Et cela se détermine par le niveau de compression. C'est cela qui va permettre un faible taux d'artefacts, ou alors des artefacts plus subtils (en comprimant peu tout simplement).

    il est tout à fait possible de faire une compression avec perte sans artefacts

    Si tu le comprimes à peine, oui. C'est là qu'on va parler de "visuellement sans perte". Attention, par définition, "visuellement sans perte", il y a quand même eu de la perte, donc en fait il y a des artefacts mais qui ont été jugés si subtils qu'on va supposer que personne ne peut les remarquer (ce qui, même là, ne veut pas dire que ce n'est pas gênant pour certains. Je viens de trouver ce papier qui semble étudier les artefacts du JPEG et du JPEG2000 — chapitre 3 pour ce dernier — dans le cadre d'images satellite de haute qualité où ces artefacts sont problématiques, même lorsque les artefacts sont à peine visibles à l'œil car on comprime peu!).

    Mais hormis cela (qui s'applique à tout algorithme de compression), bien sûr que n'importe quel algorithme avec perte peut avoir des artefacts. C'est juste logique: si quelqu'un arrive à comprimer avec perte toute image en divisant la taille par 100 et n'a absolument aucune distorsion tout en gardant une qualité où on ne distingue pas de l'original, je sais pas moi, faut lui donner un prix Nobel!

    C'est simple: tu retires très peu de données, tu t'en sors à bon compte et personne ne remarque rien (mais tu changes peu la taille du fichier); tu retires beaucoup (et obtiens un petit fichier), bien sûr qu'on le remarquera! Quel que soit l'algorithme!

    Là dans le cas qui nous intéresse, c'est sûr que si on compares du JPEG2000 pour du cinéma (avec perte mais une compression limitée pour garder une bonne qualité) et une image quelconque en JPEG faite pour le web comprimée à fond les ballons pour optimiser la bande passante et gagner des points sur l'algorithme de Google (qui privilégie les petites images apparemment), bien sûr tu vas te dire "regarde le JPEG2000, y a pas d'artefacts", mais là on a surtout comparé des cas d'usage différents, plus que des formats.

    Enfin bon, c'est juste du bon sens. Pourquoi on se ferait encore chier avec des algos sans perte si on avait trouvé l'algo magique avec perte qui permet de compresser autant qu'on veut, en jetant toutes les données qu'on veut tout en n'ayant aucune "distorsion visible"!

    si c'est pour être observé par des humains le fait de retirer tout un spectre que l'on ne peut appréhender ou de simplifier des couleurs qu'on ne peux pas distinguer entre elles (bien sur c'est plus complexe que les dégradés) permet de détruire des données sans pour autant créer d'artefacts.

    Je n'ai pas étudié le format JPEG2000 en particulier, de toutes façons, je n'ai pas accès à la spec. Mais si ça marche en "wavelet" dans le sens où je connais dans l'imagerie numérique traditionnelle, alors je m'imagine qu'un des principaux types d'artefact sera déjà de rendre l'image plus flou. Mais en fait y a plus de types d'artefacts.

    En effet plutôt que de faire des suppositions, faisons une simple recherche "wavelet decompression artifact". Parmi les premiers résultats, je trouve ça: http://www.stat.columbia.edu/~jakulin/jpeg/artifacts.htm

    Allez quelques exemples d'artefacts, comparant JPEG2000, original et JPEG:

    distorsion de couleur
    ringing

    Etc. Si on me dit que les distorsions sont pas "visibles", alors je sais pas ce qui peut l'être! 🤣 Je propose de cliquer sur le lien qui donne d'autres exemples (ceux-ci sont déjà des copies d'écran de cet article).

    Il suffit juste que les pertes (donc les distorsions) ne soient pas visibles. […] si c'est pour être observé par des humains le fait de retirer tout un spectre que l'on ne peut appréhender ou de simplifier des couleurs qu'on ne peux pas distinguer entre elles

    Si c'était si facile que des "il suffit" (gras de moi dans ta citation) ou que de dire "simplifions les couleurs qu'on ne distingue pas"… on se demande pourquoi on fait encore de la recherche sur le sujet! 😛

    Enfin bon, sans rancune, mais là tu es en train de parler de magie, pas de réalité. 😉

    C'est grâce à ça que la sténographie existe. On modifie un fichier sans ajouter d'artefacts.

    On attend ton algorithme de compression avec perte qui ne rajoute jamais d'artefacts! 😛

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Quand tu ne peux pas critiquer en direct, invente...

    Posté par  (site web personnel, Mastodon) . En réponse au lien Le ministère de l’éducation nationale lance une étrange campagne d’affichage sur la "laïcité". Évalué à 10. Dernière modification le 29 août 2021 à 02:10.

    Je sais qu'il n'est pas à la mode d'être d'accord avec devnewton, mais je comprends tout à fait ce qu'il veut dire. Bon je passe sur la considération de bord politique qui n'est pas le vrai problème ici et dont je me fous. Mais le coup du "ça part d'une bonne intention, mais c'est raciste à fond et ça met super mal à l'aise", oui je connais carrêment.

    Ayant des origines japonaises, voici une discussion très classique que j'ai quasi à l'identique avec plein de gens que je rencontre pour la première fois (basé sur mon aspect physique):

    • Tu es chinois, non?
    • Non.
    • Ah japonais alors!
    • Non.
    • Mais tu as des origines alors, non?
    • Ma mère est japonaise.
    • Ah j'en étais sûr! Tu sais, j'ai une super amie japonaise, elle est super gentille et me fait des sushis des fois! J'adore les sushis. Je lis plein de mangas aussi, c'est un véritable art les mangas!

    Voilà des gens qui sont sûrs d'être super agréables et gentils avec moi en disant cela, en faisant 10 amalgames à la seconde, des raccourcis débiles, en condensant une culture entière à 3 conneries commerciales. Sans compter que je suis français, né à Paris, ai vécu toute ma jeunesse et une majeure partie de ma vie adulte en France, je parle parfaitement français (probablement mieux que la plupart des gens qui me sortent ces clichés). Mais non, ces gens voient ma tête, et pour eux, je suis forcément un chinois (ou en second choix, un japonais, jamais autre chose d'ailleurs!).

    Ah et oui, moi j'ai des amis. Tout court. Pas des "amis japonais" ou des "amis asiatiques" ou des "amis arabes" ou des "amis noirs", ni des "amis musulmans" ou "amis chrétiens". Non j'ai des amis. Point. Ceux qui commencent déjà à classer les gens par des origines, du faciès ou une religion, y a un problème à la base. Les gens sont des gens, c'est tout.

    Et je parle même pas de ceux qui vont faire des blagues racistes pour "briser la glace", voire carrêment ceux d'origine étrangère qui feront eux-même les blagues racistes pour paraître cool et "ouverts" (ouverts à quoi? À l'état d'esprit pour lesquels les chinois, c'est des bouffeurs de riz et autres clichés?).

    Personnellement il m'a fallu des années pour me rendre compte que je n'étais jamais considéré comme un français à part entière par une grande partie de la population (bien sûr, il en existe certains pour lesquels ce n'est pas un problème mais c'est plus rare qu'on ne le pense). Je suis au mieux "d'origine étrangère". Sincèrement ça m'attriste vraiment sur la condition humaine.

    Donc oui, je comprends totalement ce que devnewton veut dire avec ses petites tirades de gens avec de bonnes intentions mais qui partent de très très loin. Et sérieux ses exemples peuvent paraître tirés par les cheveux mais ne le sont absolument pas. Ce genre de phrases, on s'est juste habitué à ne pas réagir parce qu'on va pas faire des esclandres sans arrêt, c'est tout.

    Et oui moi j'aimerais bien un monde où on arrête de penser qu'il est intéressant de discuter la nationalité ou l'origine des gens, ou leur religion, ou que sais-je. Le jour où on arrêtera de juger et catégoriser les gens au faciès, on pourra dire qu'on aura fait une grande avancée contre le racisme. Et c'est aussi la raison pour laquelle je trouve également cette campagne d'affichage carrêment déplacée.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]