Jehan a écrit 1633 commentaires

  • [^] # Re: Suggestions

    Posté par  (site web personnel, Mastodon) . En réponse au lien Faut-il réformer les retraites : ce qu'en dit le Conseil d’Orientation des Retraites (PDF). Évalué à 6.

    En fait ce qui est amusant c'est que de mémoire la retraite utilise les cotisations et non l'impôt car les syndicats avaient peur que l'État utilise la retraite comme variable d'ajustement budgétaire en mode on a un soucis de financement ? On réduit le budget pension et tant pis pour les futurs retraités.

    C'est comme toujours, beaucoup de trucs partent de "logiques" qui semblaient bonnes/appropriées socialement, de prime abord, puis on se rend juste compte qu'il y a des failles béantes dans la logique (lesquelles soit sont utilisées par certains pour en détourner complètement l'intention de base, voire la retourner pour que ça serve l'inverse; soit ça se met simplement à bloquer des cas basiques, parce que mal pensé à la base).

    C'est comme la discussion qu'on a régulièrement que pour les dépenses publiques, il faut des appels d'offre pour un choix juste et transparent. Même si cela part d'une bonne intention et même j'adhère entièrement à la logique de transparence, etc. dans les faits, ça fait au contraire que seuls toujours les mêmes grosses entreprises sont capables de répondre et d'obtenir ces projets. Ces entreprises se spécialisent dans la rédaction d'appels d'offre et au final vont sous-traiter le travail réel. C'est même tellement classique et connu que c'en est écœurant quand les gens continuent à nous parler de la logique (qui paraît totalement juste si expliquée théoriquement mais cette image de justice théorique se heurte clairement à la réalité des résultats de cette règle) du pourquoi des appels d'offre. En plus on sait que cela n'arrête en rien les fraudes institutionnelles, genre on fait un appel d'offre qu'on donne de manière "totalement juste" à la proposition de l'entreprise (qui vient tout juste d'être créée pour l'occasion) du mari de la cousine du maire ("aucun lien, fils unique", comme dirait l'autre!).

    Et d'ailleurs magiquement ces organismes publics savent tout à fait se passer d'appel d'offre quand ils le décident (par exemple les affaires d'"Open Bar Microsoft" qu'on a régulièrement dans divers organismes depuis des années, qui se répètent d'une façon ou d'une autre). À chaque fois, des associations se plaignent, parfois des députés ou autre parlementaires montent au créneau mais bon… rien ne change. C'est comme si on parlait dans le vent.

    Une autre logique à laquelle j'ai été confronté personnellement (qui quand on l'explique paraît saine sur le papier), c'est la nécessité d'avoir un emploi (un minimum d'heures par an) pour pouvoir donner quelques conférences universitaires. On m'avait proposé de donner des conférences à une époque. Je travaillais un peu mais pas assez (parce que je crois que c'était le tout début de notre projet, donc le projet avait vraiment trop peu d'argent et dans les faits, je travaillais beaucoup mais principalement bénévolement). Ce ne fut donc pas possible. La logique (c'est une règle qui s'applique à toutes les universités, sûrement édictée par décrets), qu'on m'a expliquée, est que ce serait une règle pour lutter contre la précarité: ces emplois ne doivent pas devenir des emplois principaux (par définition ce sont des emplois secondaires) car ce n'est pas assez pour vivre. Or dans les faits, ça précarise d'autant les personnes qui justement pourrait aussi se servir de ces métiers d'enseignants conférenciers ou vacataires comme tremplin pour aller plus loin (ça fait un peu de revenu pour être beaucoup moins dans la détresse donc on prend le temps de chercher un meilleur emploi; peut-être à terme voudrait-on justement se diriger vers l'enseignement à temps plein d'ailleurs, etc.). Pas une seule fois, il n'y a une notion de compétence par exemple (pas de problème de ce côté là, d'ailleurs c'était même eux qui étaient venus me chercher) ou même d'expérience professionnelle passée (par exemple, si on voulait être sûr d'engager quelqu'un avec de l'expérience dans le domaine, on peut regarder cela; avoir des trous dans une carrière très remplie, c'est pas rare du tout), c'est essentiellement une logique "ah tu travailles pas ou pas assez là maintenant? Je te donne pas de travail". Je dirais même que c'est une logique illogique.
    Personnellement je m'en fichais un peu. Même avec peu de salaire, je ne me suis jamais senti dans la détresse et je n'ai jamais eu l'intention de me reconvertir dans l'enseignement. Par contre donner quelques cours à côté ne serait pas pour me déplaire. Je sais que je peux faire un enseignant tout à fait convenable (pour les quelques fois où j'ai eu l'occasion de le faire) et ça me plaît de passer mon savoir dans de bonnes conditions. En tous cas, je me suis vraiment demandé comment cette règle protégeait vraiment de la précarité et si au contraire, elle n'enfonçait pas davantage les précaires dans leur précarité.

    Et c'est là où j'ai eu l'occasion de rencontrer à nouveau un exemple de cette même règle, il y a quelques années. Comme on le sait, Aryeom, réalisatrice de ZeMarmot donne déjà des cours en université en tant que vacataire pour du graphisme numérique avec GIMP. Un jour elle a été en contact avec une autre université parisienne mais comme elle déménageait, ils n'étaient pas chaud pour des cours à distance (contrairement à la première université pour laquelle elle continue). On a alors mis cette université en contact avec une amie à nous, qui fait du graphisme avec Krita et on l'a chaudement recommandée (parce qu'elle le mérite!). Ils ont tout de suite aimé ce qu'elle faisait sauf que s'est immédiatement posé le même problème qui m'était arrivé des années plus tôt: elle ne travaillait pas assez dans une année! Il se trouvait qu'elle faisait parfois du mi-temps dans une boulangerie (enfin je crois, ou bien une autre activité, dans tous les cas sans rapport avec du graphisme), donc elle les a contactés et ils lui ont augmenté son mi-temps, ce qui lui a permis d'avoir exactement le nombre de jours de travail suffisant. Au final elle a donc dû avoir un contrat dans un mi-temps d'un truc qui n'a absolument aucun rapport (boulangerie ⇔ graphisme ???) pour avoir le poste. Et tout ça juste pour prouver qu'elle n'est pas précaire, dans le but explicite de ne pas la rendre précaire en la payant pour un emploi réel! 🤔 Je crois que ce genre de règle marche sur la tête. 🙃

    Enfin bon, que l'origine de la logique de financement des retraites ait l'air d'avoir du sens, je n'en doute pas. Et comme beaucoup d'autres règles, je pense honnêtement que les gens qui les ont faites originellement y croyaient vraiment. Mais clairement, quand il devient évident qu'une règle n'aboutit finalement pas à son objectif premier, il faut simplement la changer. Pas s'entêter avec des logiques de "mais c'était pour une bonne cause, on y croyait quand on a écrit la règle!". Je dis pas que c'est ta position (tu dis clairement le contraire). Je précise au cas où. 😜
    C'est juste moi qui radote et surenchéris, parce que tous ces exemples de trucs qui tournent pas rond m'exaspèrent au plus haut point. Parfois j'ai l'impression qu'on est tous coincé dans une sorte de boucle d'illogisme et qu'on arrive pas à en sortir. Vraiment on est dans l'absurde. Et ce pour tellement de sujets…

    "L'enfer est pavé de bonnes intentions", comme on dit.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: La machine à compter

    Posté par  (site web personnel, Mastodon) . En réponse au lien Pourquoi le code source des machines à voter doit être public (c'est valable pour tous les camps). Évalué à 10.

    En quoi le vote par correspondance ne respecte pas la sincérité ?

    T'as un flingue sur la tempe quand tu remplis ton bulletin et que tu le mets dans l'enveloppe (ou que tu cliques sur des boutons sur l'ordi familial pour un vote logiciel).

    En moins radical, mais vraiment très probable: le conjoint brutal qui frappe l'autre conjoint et le force à voter le même candidat. À l'heure actuelle, ça s'arrête au bureau de vote et comme on est forcé de prendre plusieurs bulletins (et qu'on peut en préparer d'avance et en jeter sur place), le conjoint brutal ne peut pas être sûr ce qui a été vraiment voté. Par correspondance, encore une fois, on voit ce que fait l'autre.

    Il y a aussi l'achat de vote qui a été maintes fois cité. Puisqu'il est très dur de savoir ce qui a été voté, cela rend cette possibilité beaucoup moins intéressante. En fait, un parti peut toujours essayer d'acheter des votes, mais on ne saura jamais vraiment si on n'a pas acheté du vent (on prend l'argent et on vote autre chose). Alors qu'encore une fois, par correspondance, ce business illégal devient tout à fait efficace (on ne donne l'argent qu'après avoir vu la personne mettre le bulletin qu'on veut et l'envoyer; voire on le fait soi-même en son nom, c'est plus simple).

    Pour un vote par correspondance physique, le vote peut aussi être intercepté et modifié.

    Avec l'informatique, c'est encore pire, parce que là il n'y a même plus besoin de payer les citoyens (ce qui se verrait si fait à grande échelle). Le logiciel peut aisément changer les votes qu'il veut. C'est le coup de l'interception, sauf qu'on est capable de le faire à beaucoup plus grande échelle.

    Je conseillerais de lire un peu la littérature sur les pré-requis d'un vote démocratique. Cela a été énormément étudié, recherché, tu trouves des milliers d'articles sur le sujet. Et tous les exemples cités ne sont aucunement théoriques. Ce sont des choses qui se sont produits dans l'histoire humaine (notamment lorsque les systèmes de vote n'assuraient pas le respect de tous les prérequis nécessaire; on vote en tant qu'humain dans énormément de nos activités: associations, entreprises, activités locales, et bien sûr pour nos pays…)

    on pourrait le faire monter en fréquence et se rapprocher d'une démocratie idéale. Ce qui éviterait de deleguer trop de pouvoir a un type lors d'une élection, dédramatiserait l'enjeu de l’élection…

    Ensuite je suis entièrement pour plus de votes pour tout et n'importe quoi et plus de participation des citoyens (ce que tu suggères dans un autre commentaire). J'adorerais qu'on ait constamment des votes pour participer à plein de décisions et oui je trouve ridicule qu'on ait des gens qui aient tant de pouvoir. Déjà on le voit à la façon dont on les nomme "dirigeants", des "leaders", etc. Ce sont normalement des représentants des citoyens de nos pays, pas nos boss.

    Mais en quoi avoir un système totalement grugeable où on ne peut plus avoir confiance en aucun vote pourrait aider à cela? Perso je vois l'inverse.

    Certains notent qu'organiser un vote coûte cher, mais c'est parce que ce sont des évènements uniques, une fois tous les X années, avec énorme campagnes de sensibilisation, d'appel aux votes et chaque parti qui fait sa communication pendant des mois, on récupère des locaux partout, on déplace du matériel.

    Par contre, si on systématisait les votes, il n'y aurait plus tout cela. Il y aurait la communication normale des politiques mais ils ne feraient plus une campagne particulièrement intense comme maintenant. On pourrait tout à fait trouver une alternative à l'impression des papiers par millions. Par exemple on pourrait avoir des papiers génériques A, B, C, D… qui correspondent chacun à un choix. Les correspondances d'une lettre (ou numéro) à un choix serait rappelé avec un papier affiché dans l'isoloir et présentant les diverses réponses. Mieux, on pourrait avoir un unique papier à choix multiple et on est obligé de le prendre vierge en rentrant puis on coche une case dans l'isoloir avant de mettre dans l'enveloppe. Aucun papier jeté inutilement et on réutiliserait les papiers non-utilisés pour les votes suivants.
    Quant aux lieux de vote, ils deviendraient dédiés et on les laisse en place.
    Si le concept du vote devient un processus habituel, il devient bien moins cher (et surtout beaucoup beaucoup moins cher qu'un processus informatisé, qui ne sera d'ailleurs jamais sûr).

    Enfin certains semblent penser que l'informatique rendrait la participation démocratique (donc le vote) soudainement intéressant à tous et qu'on aurait magiquement une participation accrue. Honnêtement je sais pas dans quel monde vous vivez, et je me demande vraiment si c'est ma bulle qui est vraiment inhabituelle ou la votre. Parce que dans ma petite bulle à moi, une majorité des gens autour de moi se noient dans l'informatique et veulent en entendre parler le moins possible, comprennent à peine comment envoyer des emails et sont perdus au moindre problème, etc. Quand je vais à la poste, les gens s'agglutinent tous aux guichets, laissant les machines tranquille (c'est bien, je perds moins de temps et vais direct aux machines) parce qu'ils ne comprennent pas et ne veulent pas les utiliser (je voyais cela aussi bien lorsque j'habitais à Paris qu'en habitant dans une petite ville; la très grande ville, c'est pas si différent de ce point de vue là). Quant à toutes les démarches où on est de plus en plus obligé de les faire par internet, je vois constamment des gens perdus autour de moi. Ils vont à des assos de quartier, demandent aux voisins d'aider, et se sentent de plus en plus perdus au fur et à mesure. Et ainsi de suite. Je ne parle même pas juste des personnes âgés. Je connais pas mal de jeunes qui n'y pigent que dalle et s'en foutent. C'est vraiment une bulle très particulière de certaines personnes à fond dans l'informatique de croire que tous les gens de leur âge sont à l'aise avec.
    Donc faire monter la participation grâce à l'informatique? Ha! Laissez moi rire. C'est un mirage que ceux qui croient que tout sera réglé par plus de technologie aiment à promouvoir. Mais ça n'en reste pas moins un mirage.

    Dernier point: si on a des votes très fréquents, on n'aurait pas forcément plus de vote mais ce serait beaucoup moins grave. Les gens pourraient simplement cibler les votes sur les sujets qui les intéressent vraiment et sur lesquels ils ont un avis. Le problème du vote unique pour des "dirigeants", c'est vraiment qu'on vote pour une personne (ou un groupe de personnes) pour tout. De ce point de vue là, la raison de l'abstention est que les gens ont effectivement perdu confiance en ce système parce qu'ils se rendent compte que quelque soit les gens au pouvoir, ça ne change pas grand chose au final.
    Si on votait pour des points concrets, très régulièrement, on ciblerait les quelques trucs qui nous importent le plus et qu'on comprend vraiment (on peut pas tout savoir) pour faire valoir notre voix, qui soudain veut dire quelque chose. On ne dit plus "je veux ce gars qui va faire plein de trucs (mais on sait pas trop quoi en détail, ni s'il va vraiment tenir ses promesses, qui de toutes façons tiennent sur quelques pages à peine) pour 5 ans" mais vraiment "sur ce point précis, je veux cette solution précisément". De ce point de vue et dans ce contexte hypothétique de votes super réguliers, l'abstention est beaucoup moins grave.
    On voit cela comme un problème uniquement parce que ça l'est effectivement dans le système de vote actuel. Et les politiques aiment en faire peser la responsabilité sur nous, comme si rien n'est de leur fait. Mais en fait, ce serait bien moins un problème avec un système de vote plus participatif tel que tu le suggères. Et je serais entièrement pour.

    Et quoi qu'il en soit, une telle organisation de vote régulier peut tout à fait exister avec du vote papier, coûtera toujours moins cher, sera plus sécurisée… Croire que l'informatique résout le moindre des problèmes cités est risible.

    En fait je pense qu'on est tout à fait d'accord sur le besoin de plus de votes et sur donner moins de pouvoir à quelques gus qui se croient nos boss à la "tête" du pays. C'est uniquement sur le moyen que je suis totalement en désaccord. Il m'est évident que tu te leurres toi-même complètement sur l'informatique et ses promesses. Encore une fois, je te conseillerais de lire la littérature, scientifique notamment, sur les trop nombreux problèmes du vote électronique (et à distance aussi, même pour le vote physique). C'est assez simple, c'est un sujet avec consensus plutôt large. Ceux qui promeuvent cela, ce sont des entreprises et ingénieurs qui veulent vendre des systèmes, se faire plein de blé et se foutent de la démocratie. Mais tous ceux qui étudient cela de manière neutre sont assez unanimes sur l'importance de ne surtout pas faire cela. S'il y a bien quelques rares sujets scientifiques avec peu de désaccord parmi les gens qui y réfléchissent sérieusement, ce sujet en fait partie.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: La machine à compter

    Posté par  (site web personnel, Mastodon) . En réponse au lien Pourquoi le code source des machines à voter doit être public (c'est valable pour tous les camps). Évalué à 10.

    Oui c'est lent

    Et honnêtement, je comprends pas cette fixette sur le côté "lent". On est actuellement capable de compter les votes pour un pays de presque 70 millions d'habitants en une soirée (on donne un résultat quelques heures à peine après les fins de vote). Je suis pas forcément trop (ou du tout) les élections dans les autres pays du monde, mais il me semble que c'est similaire un peu partout, même dans les pays avec beaucoup plus d'habitants.

    Alors peut-être qu'on pourrait avoir un résultat en 30 min au lieu de quelques heures avec des machines, mais en considérant le risque associé, ça ne les vaut tout simplement pas. Et puis, faut arrêter de penser que quelques heures, c'est trop.

    On parle d'un vote pour le futur politique d'un pays, pas de son association de quartier. Si quelques heures, c'est trop lent, faut peut-être penser à revoir sa relation au temps. Tout ne doit pas être instantané. Il y a des choses qui au contraire ne doivent absolument pas l'être pour diverses raisons (par exemple dans le cas d'un vote: pour assurer la justesse du résultat et prévenir la triche). Donc non, c'est pas lent.

    Ça ne devrait même pas être un débat dans une démocratie (paradoxalement). Tout ce qui susceptible d'augmenter les possibilités de fraude et même d'erreurs devrait être écarté. Les machines, de votes comme de comptages, en font partie.

    Tout à fait.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: La machine à compter

    Posté par  (site web personnel, Mastodon) . En réponse au lien Pourquoi le code source des machines à voter doit être public (c'est valable pour tous les camps). Évalué à 10.

    Exactement. Il y a vraiment un mal de société qui est le "solutionnisme technologique". De nos jours, il y a de plus en plus de trucs rendus plus complexes, moins sûrs et plus long parce que certains veulent à tout prix rajouter une couche technologique (notamment informatique — parfois logicielle uniquement, parfois hardware aussi — de nos jours).

    Mais il y a tellement de trucs où non seulement c'est inutile, mais surtout ça rend les choses pires. Il y a certains cas où la technologie aide bien, mais beaucoup d'autres où ça n'apporte rien ou bien du mauvais.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Est ce que GIMP vieilli bien ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GIMP fête ses 27 ans avec la version de développement 2.99.14. Évalué à 7.

    Mais justement après avoir vu les vidéos du youtubeur, je suis allé sur Wikipédia pour voir la roadmap et j’ai cru comprendre que la version 2.10 était là depuis quasiment 5 ans et même si pour moi cela n’a pas grande importance parce que je ne suis pas graphiste, peut être que lui s'est senti un peu frustré.

    Le passage de 2.8 (2012) à 2.10 (2018) a pris 6 ans. Entre 2.6 (2008) et 2.8, ça a pris 4 ans. Pour l'instant, nos délais de développement sont tout à fait dans la norme historique de GIMP (surtout que je pense/j'espère qu'on va pouvoir sortir GIMP 3.0 en 2023). Et c'est d'autant plus vrai que les séries 2.10 et 3.0 furent des paliers particulièrement importants, puisque 2.10 représente notre gros passage à GEGL (commencé en 2.6 puis un peu plus en 2.8, mais à ce moment, l'usage de GEGL restait plutôt anecdotique, alors qu'avec 2.10, c'est vraiment devenu un composant majeur dans le fonctionnement de GIMP), puis la 3.0 est notre montée en version vers GTK+3 (sans compter un travail énorme sur la gestion colorimétrique, et sur plein d'autres trucs). Cela explique que ces étapes ont pris particulièrement du temps.

    En fait, depuis GIMP 2.10, on a même changé notre politique de sortie, pour autoriser de nouvelles fonctionnalités même sur les sorties "micro" (le troisième nombre du numéro de version). Ainsi entre 2012 et 2018 par exemple, il y a 12 versions 2.8.x mais aucune n'a apporté de nouvelles fonctionnalités (seulement des corrections); puis soudainement en 2018 — paf! — grosse sortie avec plein de fonctionnalités. C'est comme cela que ça avait toujours fonctionné et là oui c'était un peu frustrant (certains croyaient que GIMP n'étaient plus développé car ils ne voyaient pas de changements vraiment visibles pendant des années; même si on travaillait beaucoup, le résultat s'amassait en coulisse et sortait d'un coup après des années de travail). C'est pour cela que j'ai poussé pour un changement de politique (de mémoire, c'est une proposition que j'ai évoquée pour la première fois en 2014!). Et donc grâce à notre changement de politique de sortie, depuis 2018, il y a déjà eu 17 versions 2.10.x et chacune a apporté des nouvelles fonctionnalités en pagaille! Depuis 2018, on a donc une farandole de nouveautés tous les quelques mois. Donc honnêtement, pour quiconque suit nos sorties et nos dépêches, je dois avouer avoir un peu de mal à comprendre comment quelqu'un pourrait encore croire que ça stagne.

    Ensuite, on a légèrement ralenti les sorties 2.10 maintenant, au fur et à mesure qu'on se concentre de plus en plus à fond sur GIMP 3 (ce qu'on explique sur chaque dépêche). Mais une fois GIMP 3 sortie, ça devrait accélérer à nouveau (et on sera encore moins bloqué avec notre toolkit à jour, donc ça pourrait même être encore plus rapide; en tous cas c'est ce que je vise).

    Ces jours-ci, je suis justement en train de réétudier nos plans de sortie pour 3.0 et après. Je pense vraiment qu'on peut rendre tout cela encore plus dynamique (ça l'est déjà beaucoup depuis 2.10, comme je disais, mais comme tout, c'est améliorable). J'en reparlerai dans mon rapport 2022.

    Si ce n’est que certaines personnes ce n’est pas très grave, non ?

    Malheureusement il suffit de quelques uns (voire d'un seul) pour foutre le moral à plat et tout gâcher parfois. On a bien trop régulièrement des attaques de gens qui nous interpellent comme si on était une multinationale et réclament des choses de manières très désagréables. C'est un peu la blague du "Remboursez mon invitation/logiciel gratuit!", sauf que malheureusement pour certains, c'est pas une blague. C'est tout à fait sérieux, et même quand on leur explique, ils voient pas en quoi c'est malvenu d'insulter des bénévoles qui ont pris de leur temps libre (et on parle de don de beaucoup de temps pour certains) pour contribuer et donner un logiciel à des millions de personnes. On a eu plus d'un contributeur qui est reparti démoralisé et déçu du logiciel libre à cause de ce types de comportement.

    Comme on dit en anglais: "This is why we can't have nice things!" C'est une expression commune anglophone qui explique qu'on perd les bonnes choses parce que dès qu'on a quelque chose de bien, il y en a toujours pour tout foutre en l'air (en général par leur égoïsme; typiquement si pas mal de gens partagent des choses, il suffit d'une seule personne pour tout prendre pour lui et dégoûter tout le monde de partager à nouveau; ou dans notre histoire de bénévoles, il suffit de quelqu'un qui prend l'aide pour acquis et sera imbuvable avec des bénévoles qui étaient contents d'aider jusque là pour les en dégoûter et les faire arrêter).

    Donc si, c'est grave. Personnellement il m'est arrivé plusieurs fois de me poser des questions sur mes engagements dans le libre après diverses anecdotes particulièrement choquantes ou marquantes envers moi ou nos projets. Je n'ai pas encore abandonné, parce qu'il y a aussi des bons côtés mais rien n'assure que ça n'arrive pas un jour.

    Bon, j'espère que tu as compris que je n’ai rien contre GIMP.

    Tout à fait, je n'avais absolument rien pris de mal dans ton commentaire. J'ai bien vu que tu es un peu sur la défensive dans ce second commentaire et je pense que c'est parce que tu as cru que je l'étais aussi. Je suppose que c'est à cause de ma tendance à écrire des commentaires trop longs. J'ai juste beaucoup de mal à écrire des commentaires courts, il ne faut pas le prendre comme une forme d'agressivité ou de défense. J'essaie pourtant de faire passer mon ressenti positif avec force émoticones 🤪, mais clairement ça ne suffit pas.

    En relisant mon commentaire précédent, il y a aussi peut-être aussi le fait que c'est vrai que je suis un peu aigri par les attaques de certains et ceux qui lancent des rumeurs bizarres sur nous (si tu savais, j'ai lu de tout; jusqu'aux théories du complot les plus farfelues… alors que tout ce qu'on fait est entièrement public par choix et donc que quiconque peut en fait voir comment tout se passe en vrai). Mais si c'est ça, alors ce n'était pas dirigé contre toi. S'il y a eu la moindre direction, c'était éventuellement vers ce type de youtubeurs qui racontent des trucs farfelus sur nous et après les gens se répètent ça de forum à forum, jusqu'à devenir une "vérité" sous forme de légende urbaine que beaucoup ont intégré comme étant un fait connu. C'est évidemment exaspérant pour quiconque sait que ce sont des histoires bidons. En tous cas, mon exaspération n'était pas dirigé à ton encontre, juste envers ce processus même de "comment les rumeurs se propagent sur internet".

    Aussi désolé de l’avoir tutoyé, c'est sorti comme ça.

    Absolument pas de problème. J'ai moi-même plutôt tendance à tutoyer ici. J'ai vouvoyé uniquement dans ma réponse précédente parce que je ne reconnaissais pas le pseudo comme étant un habitué. 😉

    Merci pour votre boulot

    De rien!

    RDV à la 3.0 …. bientôt j’espère 😜

    Ça devrait… si tout se déroule selon mes plans. 📜

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # Précédemment rapporté

    Posté par  (site web personnel, Mastodon) . En réponse au lien Action collective contre GitHub (Microsoft) pour violation de licences Creative Commons. . Évalué à 5.

    Oui c'est une affaire déjà bien suivie et rapportée sur LinuxFr. Perso j'espère qu'ils vont gagner et qu'ils vont faire de même (ou quelqu'un d'autre) avec Stable Diffusion. :-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Et si on testait nous-même?

    Posté par  (site web personnel, Mastodon) . En réponse au journal imagemagick, GraphicsMagick, vips, chatgpt. Évalué à 4.

    tu as des certitudes, moi aussi :p

    Pour info, j'ai dit le truc sur la pub comme une petite pique pas méchante. 😜 Je n'y croyais, en particulier parce que j'ai regardé le pseudo avant de répondre et ai reconnu que c'était un pseudo que je voyais régulièrement ces dernières années sur LinuxFr (pas qu'il soit impossible qu'un utilisateur existant se fasse "acheter", mais qu'on va quand même plus facilement donner le bénéfice du doute; si on doit se mettre à douter de tout le monde maintenant, ça serait triste et problématique). Donc non, il n'y avait aucune certitude de ma part (même si Misc a pris ma remarque au premier degré effectivement, donc j'aurais pu être moins subtil pour que mon intention soit plus claire!).

    Ceci dit, je dois dire que si exactement le même journal avait été écrit par un nouvel utilisateur dont je ne reconnaissais pas le pseudo, là j'aurais beaucoup plus douté si ça n'avait pas été un journal pub-spam. Ce qui veut quand même dire qu'il y a peut-être un peu de maladresse dans le journal. Genre tu aurais pu mettre les liens vers les sites web des outils cités par exemple. Là le seul lien étant vers ChatGPT, ça fait un peu beaucoup (ou pas assez)! 😅

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • # Et si on testait nous-même?

    Posté par  (site web personnel, Mastodon) . En réponse au journal imagemagick, GraphicsMagick, vips, chatgpt. Évalué à 10. Dernière modification le 04 janvier 2023 à 18:57.

    J'avais cette idée de journal depuis pas mal de temps car j'ai mis un temps fou pour trouver gm et vips qui m'ont bien aider dans le traitement d'énorme quantité d'image, cela a été rédigé par chatgpt en 15 minutes. Merci à lui c'est gratuit pour le moment. Vous avez des idée de journal ? La flemme de les écrire ? Essayez

    C'est une pub pour ce truc d'IA en fait et le fait de parler de certains outils graphiques n'est qu'une excuse comme une autre, c'est ça alors? Non parce qu'en plus je remarque que le seul lien de tout le journal est pour chatgpt.

    Sinon moi aussi j'ai complètement tiqué en arrivant à cette phrase et comme d'autres, ça m'a carrêment fait douter des résultats. Genre là on demande à une AI (qui est tout sauf intelligente et n'a pas réellement testé quoi que ce soit, mais ressort simplement des textes; c'est vraiment l'inverse de l'intelligence…) et on utilise le résultat comme vérité pure et dure, et il faudrait pas se poser de questions?

    Notons que ce n'est pas une critique contre l'intelligence artificielle en tant que champs d'étude ou pour son usage utile dans des logiciels. C'est aussi ce que j'ai étudié moi-même en spécialité universitaire et j'adore l'IA. C'est tout simplement rappeler le concept de l'intelligence artificielle: donner l'impression qu'un ordinateur a une intelligence, le tout bien sûr idéalement avec une utilité si possible. On est plus dans le domaine de la persuasion que dans le réel. Le but de l'IA n'a jamais été de créer vraiment une intelligence. La "singularité" (vous savez ce truc de SF où on croit qu'on aura un jour une IA qui prend conscience d'elle-même, prend son propre destin en main, et en général ça termine en apocalypse pour les humains), on laisse ça à la science fiction.

    Alors bon, plutôt que juste "tiquer" et "douter", comme ces outils sont facilement installables, je trouve une image de taille raisonnable (pas trop petit, pour que le temps de traitement de l'image soit la majorité du temps calculé), puis essayons nous-même:

    # J'avais déjà ImageMagick.
    $ sudo apt install graphicsmagick libvips-tools
    $ time convert hero_art-GIMP-3840x2160.jpg -resize 200% im.jpg
    
    real    0m1.288s
    user    0m6.246s
    sys 0m0.786s
    $ time gm convert hero_art-GIMP-3840x2160.jpg -resize 200%  gm.jpg
    
    real    0m1.295s
    user    0m6.224s
    sys 0m1.651s
    # La commande donnée dans le journal est mauvaise et ne marche pas!
    $ time vipsthumbnail hero_art-GIMP-3840x2160.jpg --size=200% vips.jpg
    thumbnail: bad geometry spec
    
    real    0m0.065s
    user    0m0.036s
    sys 0m0.028s
    # La bonne commande après une recherche email et un man vipsthumbnail:
    $ time vipsthumbnail hero_art-GIMP-3840x2160.jpg --size=7680x -o vips.jpg
    
    real    0m0.578s
    user    0m3.457s
    sys 0m0.044s

    Donc plusieurs remarques:

    • Je vous épargne de multiples copié-collés, mais j'ai lancé chaque commande au moins 4 ou 5 fois. Je l'ai pas fait des centaines ou milliers de fois dans une boucle scriptée, mais mon but n'était pas non plus de faire un test scientifique. Je voulais juste vérifier plus ou moins les ordres de grandeur assénés dans ce journal généré par une IA.
    • Globalement mes résultats restent cohérents d'une exécution à l'autre. À savoir qu'ImageMagick et GraphicsMagick ont globalement le même temps d'exécution avec les paquets Debian, sur la même machine (en répétant la commande plusieurs fois, parfois l'un est un chouille plus rapide, parfois c'est l'autre; aucun n'est plus rapide de manière incontestable. En tous cas, on est super loin du journal où gm serait 26 fois plus rapide. Ou alors faudrait savoir dans quelles conditions exactes (peut-être avec des flags de compilation spécifiques? Ou bien c'est simplement l'IA qui dit n'importe quoi parce que — je répète — elle n'a pas réellement testé quoi que ce soit).
    • VIPS est effectivement plus rapide, un peu plus de 2 fois plus rapide par rapport au second sur cet exemple précis (ceci dit, loin du 13 fois plus rapide, comme l'annonce le journal). Ensuite cet outil est initialement fait pour faire des vignettes d'aperçu — comme le nom l'indique — et le man explique que ça permet de redimensionner, faire des découpes, retirer ou changer un profil de couleur, faire une rotation… C'est sympa, mais c'est loin des possibilités des autres outils cités. Une comparaison basée seulement sur le temps de traitement est plutôt mauvaise. C'est intéressant et un point utile, mais ce n'est pas une comparaison juste des outils cités de s'arrêter à ça. Enfin bon, soit. C'est un détail et loin d'être le vrai problème ici (si les résultats étaient justes, faits avec de vrais tests, par un humain, j'aurais pas fait ce commentaire d'ailleurs; ça reste une comparaison intéressante en soi).
    • Enfin on remarquera que la ligne de commande pour vipsthumbnail qui avait été donnée dans le journal est totalement mauvaise. L'option --size=200% n'existe pas, comme j'ai pu le constater sur un petit tuto officiel en ligne et avec le man. Il faut calculer soi-même la taille finale voulue (sur au moins un des côtés et mettre x pour l'autre côté, laissant l'outil faire en proportionnel). Et une fois ce problème réglé, ça ne marche toujours pas, car le fichier de sortie utilise l'option -o. Il y a donc deux erreurs grossières dans la commande donnée. En plus des résultats temporels à la ramasse, ça pose vraiment des questions sur l'entièreté des résultats donnés par ChatGPT.

    Non en fait, j'rigole, ça n'en pose aucune, on savait déjà que ce truc raconte n'importe quoi. Je rappelle encore une fois (troisième ici!) que c'est juste un chatbot entraîné avec des techniques d'IA sur des données textuelles dont le seul but est de générer des textes qui ont l'air crédibles. C'est le seul but: il faut qu'on puisse y croire. Rien de ce que ça retourne — absolument rien! — ne doit être pris pour argent comptant. L'IA n'est pas allée faire son petit test, n'a pas installé les 3 outils pour tester en arrière plan pour ensuite sortir une comparaison des outils. Elle a juste sorti un texte bidon qui pourrait être vrai (dans un monde hypothétique), du moins dont le rendu a l'air plausible si on cherche pas à vérifier et regarder dans les détails.
    Ça peut être vrai comme ça peut être un gros truc totalement bidon qui sort dont ne sait où (pas même les créateurs ne pourraient en être sûr probablement, c'est la magie de l'IA par entraînement sur données massives). Il faut considérer ça comme étant aléatoire, comme ça a bien été prouvé ici. En fait, quand je dis "ça pourrait être vrai", si c'était le cas, ce serait vraiment de la grosse chance puisque rien n'a été réellement testé (on peut même pas parler de conditions de tests adéquates ou non ici; y a même pas eu de test!). Donc en fait je suis gentil avec l'IA parce que les chances que ce soit faux sont bien plus élevées. Cette comparaison ne vaut simplement rien.

    Et quand je dis que ça doit avoir "l'air crédible", c'est du style: si on me demande "quel temps fait-il?", je pourrais répondre "il pleut" au hasard. Ça se trouve, avec de la chance, c'est vrai. C'est une réponse crédible pour la question, mais ce n'est pas de l'intelligence. Et ça ne l'est pas plus même s'il se trouve qu'il pleut réellement quand vous demandez ça à une IA.

    Ça me tue que certains semblent utiliser ce bot comme s'ils utilisaient Wikipedia de nos jours. Wikipedia, il peut y avoir des erreurs, des tromperies, mais au moins, y a des gens derrière qui corrigent, qui relisent, etc. C'est loin d'être infaillible, mais pas vraiment moins non plus que les vieilles encyclopédies de la vieille époque, qui étaient aussi pleines d'erreurs. Là, on tombe super bas, avec l'humanité qui commence à utiliser des trucs générés par un bot, qu'on sait être en gros équivalent à de l'aléatoire, et à en faire des références. Ça fait peur.
    Sérieux avant, on donnait des liens à Wikipédia en référence pour donner des indices pour approfondir les recherches. J'ai remarqué que de nos jours, certains se contentent de copier-coller une réponse de ChatGPT et s'imaginent que ça répond à la question. 🤦

    C'est fou d'ailleurs qu'on voit des gens qui croient vraiment au baratin marketing qui fait croire que ces trucs d'IA donnent des réponses de qualité. On a eu quelqu'un l'autre jour qui a ouvert une demande de fonctionnalité sur GIMP pour intégrer ChatGPT pour faire de la retouche d'images avec des commandes textuelles (je crois qu'il confondait avec Stable Diffusion, ou alors il voulait vraiment juste parler d'un interfaçage pour donner des ordres au logiciel, mais qu'importe). Cette personne était vraisemblablement un développeur et nous explique avoir passé une semaine de panique à croire qu'il allait bientôt finir viré car il avait découvert ce bot et s'était rendu compte que le bot était capable de produire du code bien plus rapidement que lui. Et donc pour lui, la solution était d'intégrer au plus vite ces solutions d'IA dans les logiciels pour ne pas être "à la traîne" et utiliser de tels bots partout lui-même. Mais quelqu'un a déjà regardé de près du code généré? Vous croyez que c'est maintenable, voire même tout simplement bon tout court?

    Quelqu'un avait posté sur LinuxFr un lien sur une étude qui montraient que les développeurs qui utilisaient des assistants d'IA écrivaient du code beaucoup moins sécurisés de manière globale, et ironiquement ils croient en écrire du plus sécurisé! J'avais d'ailleurs donné déjà mon avis sur ces IA sous ce lien (comme je le fais un peu trop ces derniers temps, car on se met à en voir des références un peu partout! Comme si c'était des nouveaux messies électroniques…).
    Les images générés (par des trucs genre Stable Diffusion et consort) sont vraiment pas mieux. Ce sont des images totalement kitch, sans aucune originalité, on dirait les mêmes clichés qui ont "l'air impressionnants" répétés 1000 fois, sans aucune réflexion (comme je connais plusieurs artistes et vois comment ils se torturent les méninges sur le sens de leurs œuvres, sur chaque détail qu'ils y mettent, quitte à refaire des points encore et encore quand ils revoient leur vision, ça me fait de la peine que certains voient pas la différence avec des images générées qui ont juste pour elles d'utiliser des couleurs pêtantes — ça doit stimuler le cerveau j'imagine — avec des persos dans des poses holliwoodiennes et des fonds plus clichés-tu-meurs; c'est équivalent à ceux qui semblent croire que du code torché par une IA en 30 minutes sera équivalent à du code produit par un bon développeur qui aura pris des semaines ou des mois, à tester, peaufiner, nettoyer, tester encore, changer son implémentation, tester à nouveau, réfléchir à chaque petit détail… tout ça juste parce qu'ils l'auront testé 5 minutes et que "ça marche"), avec des erreurs à chaque recoin quand on regarde dans les détails (des pieds manquants, des doigts en trop, des anatomies foireuses où on se dit des personnages "le pauvre, il doit souffrir", des problèmes de finition partout qui feraient honte à tout peintre, etc.), tout ça pour générer des images en 512×512 car c'est le format d'entrée des données lors de l'apprentissage. Pour ceux qui savent pas trop, c'est une résolution d'image très faible, inutilisable pour la plupart des usages de nos jours (si on veut du qualitatif j'entends). Par contre, c'est suffisant pour juste montrer des images démos, suffisamment pour impressionner sans aller beaucoup plus loin. Ça me fait marrer, sur un forum, j'avais lu des gens qui conseillent de d'abord générer des images comme ça, puis de passer dans un autre système d'IA pour agrandir sans que ce soit flou ("upscaler", "super-resolution", etc. donc on ajoute plus de données externes), puis d'autres "amélioreurs" d'images IA ("super-enhancers", ils aiment bien mettre le mot "super" partout ceux qui nomment les logiciels d'IA)… On se retrouve avec des images moches passées par 2 ou 3 moteurs d'IA, qui auront sûrement pris presque autant de temps à faire au final, et avec plein d'erreurs. 🤦
    Et bien sûr, les textes générés (notamment par ChatGPT qui est effectivement la grosse mode ces derniers temps) ne sont pas mieux comme je l'ai montré. Et j'ai déjà vu quantité de blogs posts (les médias avec pignon sur rue, eux, ont plutôt tendance à vénérer ces nouveaux systèmes sans se poser trop de questions; ce qui pose aussi des questions puisque leur métier devraient plutôt les inciter à avoir un esprit critique, surtout quand on voit la quantité de non-sens absolus produits par ce bot, qu'ils auraient dû vérifier avant d'y croire) où d'autres gens ont fait pareil, à savoir complètement démonter les réponses du bot sur divers sujets pour montrer qu'il faut arrêter d'y croire sans se poser de questions. Et là on n'est plus dans le cas Wikipédia où on peut dire aux gens qu'il faut vérifier, croiser les sources, que les gens peuvent faire des erreurs, ou même que certains rédacteurs peuvent mentir exprès pour raisons X ou Y. Ici on est plus proche du cas "considérez le résultat comme aléatoire". Ce ne sont pas des erreurs, juste du gloubi-boulga, avec pour seule particularité que c'est exprimé de manière à paraître plausible si on ne cherche pas à réfléchir sur le texte, son fond, ou à le vérifier.

    Bref, toutes ces AI et cette course effrénée pour en utiliser le plus possible de nos jours, c'est vraiment la course à la médiocrité.

    Conclusion: vous avez des idées de journal ? La flemme de les écrire ? Faites pas forcément comme moi qui ai le clavier léger, et écrivez les plus courts s'il le faut ! Ça peut être très intéressant aussi. Ce journal, par exemple, aurait pu être intéressant avec les mêmes tests (mais des tests véridiques!) que j'ai fait, et ces derniers m'ont pris moins de 5 minutes à faire. Si vraiment vous y arrivez pas, vous n'êtes pas forcés d'écrire, on vous apprécie quand même. Mais par pitié, n'utilisez pas un bot pour rédiger votre journal!

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Est ce que GIMP vieilli bien ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GIMP fête ses 27 ans avec la version de développement 2.99.14. Évalué à 10.

    Je vais répondre, mais je suis forcément biaisé en tant que mainteneur du logiciel.

    On peut dire que c'était (oui c'était) une chaîne dédiée à GIMP.Il y a quelques semaines, il a sorti 2 vidéos pour dire que pour lui GIMP c'était mort et qu'il arrêtait de faire des vidéos sur le sujet.

    Je pense voir de quoi il s'agit. Quelqu'un nous a transféré cette vidéo. Perso je l'ai pas regardée (je regarde quasi jamais les vidéos Youtube qu'on nous envoie, surtout si c'est pour dire en 20 min des trucs qui auraient pu être écrites en 2 paragraphes). Si c'est bien celle à laquelle je fais référence, il paraît que le gars avait pas compris grand chose à comment était développé GIMP. Notamment il raconte qu'on travaille sur je-sais-plus-combien de versions de GIMP en même temps et ce serait donc pour cela qu'on serait trop inefficace/lent. Et apparemment il montre une capture des milestones de GIMP. Est-ce bien de la même vidéo qu'on parle?

    En vrai, on ne travaille que sur une seule version (3.0) et parfois on backporte des trucs sur la version stable, et c'est tout. Les autres "versions", c'est parce qu'on est organisé et parfois, certaines fonctionnalités qu'on veut, on les met sur un milestone futur, mais proche, genre 3.2. Ce qui veut dire qu'on ne travaille pas encore sur la dite fonctionnalité!

    Enfin on a les milestones intermédiaires, genre 2.99.16, qui n'est qu'une façon d'organiser notre travail vers 3.0 en sous-étapes (les 2.99.* n'étant pas des versions stables, mais des sous-étapes de développement de 3.0).

    Enfin bon, en quelques mots: j'ai l'impression que certains se basent sur n'importe quoi pour sortir des théories et se sentent l'obligation de donner une raison à un changement personnel: il a juste changé de logiciel de prédilection (ça arrive, et ça ne nous pose aucun problème; on ne force personne à aimer ou utiliser GIMP), et plutôt que de faire cela simplement, voire de continuer à utiliser GIMP avec d'autres logiciels (comme beaucoup de pros font; vous croyez qu'on utilise que GIMP pour tout nous-même?), il y a des gens qui ont besoin de sortir en claquant la porte, en faisant le max de bruit, gueulant, insultant et crachant sur ce qu'ils appréciaient avant. Je sais pas pourquoi certains font ça mais c'est un comportement courant. 🤷

    Vu la quantité de vidéos qu'il a faites sur GIMP, je pense que le type est intègre. J'ai l'impression qu'il a même utilisé GIMP dans un cadre professionnel et qu'il pointe du doigt un vrai problème.

    Peut-être, j'en sais rien. Perso je me demande toujours si les gens qui passent leur temps à faire des vidéos Youtube (ce qui est aussi très chronophage et est finalement un boulot à temps plein pour certains) ont vraiment le temps pour travailler sur ce dont ils parlent. D'ailleurs beaucoup de vidéos sont souvent assez basiques (quand je compare à des usages avancés que je vois autour de moi par des gens qui eux ne font pas de vidéos sans arrêt).

    En tous cas, perso je déconseillerais de se faire un avis parce qu'un gars quelconque a dit un truc sur Youtube (c'est la nouvelle référence; après "Vu à la télé", on aura "Vu sur Youtube" un jour? 🤣). Je conseillerais plutôt de vous faire votre propre avis, puisque vous êtes utilisateur (même basique, vous utilisez, donc pourquoi l'opinion d'un autre devrait influer sur votre connaissance réelle du sujet?): cela vous convient-il? Pouvez-vous faire ce que vous voulez faire avec GIMP?

    Même de l'extérieur, sans utiliser, vous pouvez aussi vous faire une idée en lisant les dépêches de développement qui concernent GIMP, par exemple sur LinuxFr. Faites vous vous-même votre opinion si vraiment ça a l'air de stagner. 😊

    Le développement est beaucoup trop lent et il commence à avoir un retard conséquent dû à l'intégration réussie de l'IA dans les produits concurrents.

    Ensuite, a-t-on du "retard" sur Photoshop? Bon déjà je n'adhère pas au concept même de "retard" qui implique qu'on cherche à mimer Photoshop. C'est pas le cas. On n'a simplement pas le même jeu de fonctionnalités. De même que les concepts "produits concurrents" n'ont aucun sens pour nous. GIMP n'est pas un produit et il n'a pas de concurrent, tout simplement parce que nous ne raisonnons pas en termes commerciaux. Nous ne vendons pas GIMP, ni ne cherchons à avoir des "parts de marché" (si quelqu'un veut utiliser autre chose, c'est très bien; chacun est libre d'utiliser ce qu'il veut; par contre s'ils peuvent s'abstenir de cracher sur ce que préfèrent d'autres, ce serait plus classe de leur part).
    Je sais que c'est super compliqué pour certains. Très tristement, il semble que certaines personnes sont absolument incapables de raisonner en logique de développement communautaire et non-commercial.

    Ensuite, oui il est évident qu'on manque certaines fonctionnalités… de même qu'à l'inverse Photoshop n'a pas certaines de nos fonctionnalités! Plus spécifiquement pour l'IA, on a quelques trucs intéressants ces jours-ci, comme la colorisation par détection de sketch que j'ai implémentée il y a quelques années, ou encore le nouvel outil de sélection "paint select tool" (malheureusement il est encore dans le bac à sable et je commence à douter que ce soit fini avant GIMP 3.0 si le contributeur qui a commencé ne vient pas finir; pour l'instant, c'est encore trop lent et instable).

    Je suis certains que Photoshop a des trucs impressionnants qu'on n'a pas. Il ne tient qu'à quelqu'un de contribuer ces fonctionnalités. Perdre son temps à comparer, grogner et dire du mal de GIMP n'apportera rien.

    Enfin on compare une équipe de bénévoles qui se comptent sur les doigts d'une main avec une multinationale qui dépense en marketing en quelques heures probablement plus que ce que les quelques contributeurs de GIMP qui essaient de se financer participativement arrivent à obtenir en un an en cumulé.
    Donc oui ça ne m'étonne pas plus que cela si Photoshop a sûrement des trucs vraiment cool qu'on a pas. J'en ai aucune honte, je pense qu'on s'en sort vraiment pas mal. Je comprendrai jamais les gens qui nous crachent dessus et disent en gros "votre truc gratuit, c'est de la merde, vous me faites perdre mon temps et mon argent". Je dis pas ça au hasard, on a ce genre de critiques régulièrement (dont aujourd'hui quelqu'un qui a dit précisément cela sur un rapport de bug; ou sur les réseaux sociaux) par des gens qui manquent visiblement totalement d'empathie et pensent que c'est totalement normal de réclamer des trucs à des gens qui contribuent principalement bénévolement, et ils ne vont pas se faire prier d'insulter aussi ou de mettre la pression au passage aux bénévoles.

    C'est bien pour cela notamment que je rappelle constamment qu'il est aussi possible de financer le développement (comme je l'explique en fin de dépêche). Ces dernières années, j'ai eu divers autres emplois pour pouvoir subvenir à mes besoins. Imaginez que je sois capable de vivre en développant GIMP à temps plein sans avoir à me préoccuper au jour le jour de mes finances de base. Imaginez alors à quelle vitesse on serait capable de faire progresser les choses. 😜

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Commande file

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 6.

    C'est possible techniquement et sans aucun doute très facile à faire (en plus file est écrit en C). En outre file m'a l'air d'être encore développé/maintenu. Ensuite je me dis que c'est le genre de projet où ils veulent sûrement limiter l'usage de dépendances au maximum (de ce que je vois dans leur build, il n'y a que des dépendances à des bibliothèques de compression), donc ce serait possiblement le point bloquant. Mais ça ne coûte rien de demander. Le suivi de bug/demande de fonctionnalité se fait là apparemment: https://bugs.astron.com/view_all_bug_page.php

    Et puis je suis d'accord que si ce logiciel souhaite prétendre savoir faire cela, autant le faire bien (ou pas du tout). D'ailleurs je viens de jeter un œil au code de détection de charset (dans src/encoding.c), et comme je m'y attendais, c'est une logique totalement naïve:

     * A file is considered to be ISO-8859 text if its characters are all
     * either ASCII, according to the above definition, or printing characters
     * from the ISO-8859 8-bit extension, characters 0xA0 ... 0xFF.
     *
     * Finally, a file is considered to be international text from some other
     * character code if its characters are all either ISO-8859 (according to
     * the above definition) or characters in the range 0x80 ... 0x9F, which
     * ISO-8859 considers to be control characters but the IBM PC and Macintosh
     * consider to be printing characters.

    D'ailleurs de ce que j'entrevois du code, je crois que tout texte "ISO-8859" retourne "iso-8859-1" avec l'option -i qui n'est donc en fait pas plus précise du tout. Le code ne m'a l'air de faire aucune différence entre les charsets de cette famille (ou d'autres famille de charsets mono-octets) et l'option -i semble juste produire un format de sortie différent mais pas vraiment faire plus de traitement.

    Enfin bon, oui, s'ils veulent vraiment prétendre à donner un charset précis pour des fichiers sans métadonnées, ce programme aurait tout intérêt à utiliser uchardet, au moins de manière optionnelle. Je suis d'accord. N'hésitez pas à le leur proposer en ouvrant un rapport de bug.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Bar des sports.

    Posté par  (site web personnel, Mastodon) . En réponse au journal Tentative de partage de mon expérience, vécue depuis l'extérieur, des réseaux sociaux. Évalué à 9. Dernière modification le 29 décembre 2022 à 23:26.

    Je n'ai jamais considéré ça comme un dark pattern. Twitter et Amazon sont des entreprises, leur objectif étant évidemment de te faire passer le plus de temps chez eux.

    Ce que tu dis, c'est la définition d'un dark pattern. Trouver cela normal que des entreprises te fassent passer "le plus de temps chez eux", et donc te fassent perdre de la vie (dans le sens "du temps de vie") est un symptôme que le problème dans la société est grand.

    Effectivement tu vois de ces dark patterns dans plein de grosses sociétés avec emplacements physiques aussi. Les supermarchés aussi t'accrochent avec des organisations des rayons t'obligeant à passer par le plus possible de produits inutiles, t'attirent l'œil en mettant en avant certains produits, jouent des prix bas et font des promos 1+1 (ou autre) ridicules, avec des systèmes de points sur des cartes pour te faire acheter certains produits spécifiques, et ainsi de suite. Tout ça pour repartir chez toi avec une moitié de produits qui sont au final mauvais pour la santé, que tu ne prévoyais pas d'acheter (et te rends compte que tu n'aurais pas dû acheter après coup…) et tu auras passé 1 heure ou plus au supermarché. En plus tu es épuisé (physiquement et mentalement) après avoir fait tes courses.

    Si les salles d'arcade et fast-food font la même chose, il faut se dire que c'est aussi un problème, pas que "c'est le jeu". Parce que c'est un jeu avec nos vies.

    Perso je ne vais plus aux supermarchés depuis 2 à 3 ans (alors que maintenant je vis dans un endroit avec des hypermarchés pas cher, pas loin), j'achète principalement en vrac dans la petite boutique vrac et vegan du quartier, ainsi qu'au marché, directement aux producteurs bio, et je ne me suis jamais senti aussi bien du point de vue "courses pour la maison".
    En outre, mes commerçants n'essaient jamais de me "faire passer le plus de temps chez eux" (en fait, on se met à passer du temps chez certains, mais parce que ça devient des potes et qu'on discute avec eux! 😅), ni de me faire acheter des trucs que je ne voulais pas. C'est quand même triste de croire que ce genre de comportements entrepreneuriaux ne sont pas des "dark patterns" et que c'est totalement normal. Dire "c'est le jeu", ça implique qu'on considère que c'est normal si les commerçants "jouent" avec ta vie et tes désirs (en se basant sur diverses ruses psychologiques pour manipuler les-dits désirs pour te faire acheter plus), tout ça pour se faire du profit à tes dépens (et ceux du monde, si ça fait acheter plus de trucs inutiles qui vont donc polluer ce monde sans même avoir eu une utilité digne de ce nom dans la vie de quelqu'un). Ben non, désolé mais c'est pas normal! 🙄 Et une telle entreprise, je veux pas lui donner mon argent (ou mon temps pour qu'elle le vende aux publicitaires). Non merci.

    Dire que c'est un comportement normal d'entreprise montre vraiment que l'image qu'on a des entreprises de nos jours est devenu un truc totalement malsain mais on a intégré cela comme étant acceptable (ça l'est pas!).

    Dans le cas des suggestions de vidéos ou de produits susceptibles de t'intéresser ce n'est pas déloyal.

    Si le but était véritablement de te donner ce que tu cherches, ce ne serait pas déloyal. Mais ce n'est pas ce qu'ils font. En fait, c'est très simple: la première vidéo/produit, tu l'as effectivement cherché, n'est-ce pas? Donc les autres produits susceptibles de t'intéresser dans le cadre de ta recherche auraient déjà dû être dans le résultat de recherche. Ces produits additionnels "suggérés" ne sont donc pas ta recherche, ce sont des choses que tu ne cherchais pas, par définition!

    Encore supposons que tu ne les cherchais pas maintenant mais que ce sont bien des choses utiles/désirées dans l'absolu (car la plateforme te connaît si bien). Admettons! Dans ce cas, ce ne serait pas déloyal si c'était réellement présentés avec une certaine "neutralité" quant aux produits. Or on le sait que tout est présenté non dans l'intérêt des gens, mais dans celui de la compagnie uniquement. Par exemple, Amazon, que tu cites, utilise ces infos pour mettre en avant ses propres produits copiés de ses clients-entreprises (ceux qui vendent sur le "market") grâce à sa connaissance aiguë des produits les mieux vendus, mettant ainsi à mal ses propres clients-entreprise (qui perdent leur clientèle) tout en proposant des produits à la limite de la contre-façon aux clients-particulier. Voir les nombreux articles sur le sujet (attention, je ne parle même pas des entreprises "market" qui font de la contrefaçon alors qu'Amazon traîne la patte pour les virer car ça leur fait des sous, ce qui a aussi beaucoup fait parler déjà; là je parle vraiment d'Amazon lui-même qui contrefait — ou au moins copie — les produits vendus par d'autres, pour les vendre à leur tour et ainsi s'emparer de la clientèle des entreprises qui lui ont fait confiance).

    Quant à Youtube, aussi citée, on le sait que cette entreprise ne met en avant que les vidéos qui acceptent la publicité. Donc il peut y avoir des vidéos super bien qui en plus répondraient exactement à ta recherche, mais Youtube ne te les montrera pas dans leurs "suggestions" car la plateforme n'en a aucun intérêt (elle ne pourrait pas te montrer de pub). Car en fait cette plateforme se fiche totalement de te montrer ce que tu veux ou cherches. Elle te montre en fait ce qui lui rapportera des sous, quitte à totalement re-modeler ta vision du monde (forcément si on ne te montre que la partie la plus mercantile et "qui crée de l'engagement" du monde, on ne te montre en fait le monde qu'à travers un prisme très particulier!).

    Croire que ces plateformes ont des techniques "loyales" (pour reprendre tes termes) est naïf. Elles ne s'aident qu'elles-même, jamais toi. Que certains fassent le choix de baser leurs décisions principalement sur les "recommandations" de ces plateformes, vous avez le droit, mais il faut bien être conscient qu'alors vos décisions sont complètement orientées/manipulées selon ce qui rapporte le plus à la plateforme, pas selon ce qui vous est utile, à vous. Et même si certains des résultats vous font parfois faire de belles découvertes, ça ne veut absolument pas dire que vous n'en feriez pas de meilleures en cherchant vous-même directement aux sources.

    En fait les algorithmes vont faire des choix du type "ce qui se vend bien, ce qui 'ne peut pas foirer', ce qui est le plus mercantile…" Or ça veut dire les mêmes trucs, encore et toujours, les clichés; souvent dans l'audiovisuel ou la littérature ou autre, par exemple, ça signifie le choix "hollywoodien". Ça peut vous conseiller du "Harry Potter" ou "Narnia" (attention, je ne dis pas que ces œuvres sont mauvaises; j'ai dévoré Harry Potter pendant mes études; mais il y a autre chose dans la vie aussi et si on nous bassine encore et toujours avec les mêmes œuvres, c'est parce que ça rapporte plus de faire ainsi que de présenter un paysage plus large, étoffé et divers de la création artistique; en gros cela peut être de bonnes œuvres, mais il faut quand même un peu élargir son champs de vision si on veut pas finir dans une boîte!). Mais c'est votre libraire fan de lecture qui vous conseillera les véritables perles qui vont changer votre vision de la littérature (mes œuvres littéraires préférées, je les ai découvertes par les conseils de libraires), en fonction de ce qu'eux ont aimé ou bien de ce qu'ils vous suggèrent en fonction de ce que vous leur dites rechercher. Jamais un bon libraire ne te conseillera en se demandant ce qui lui rapportera le plus ou bien ce qui est le plus commercial. Votre conseiller en médiathèque aussi pour la littérature ou les œuvres audiovisuelles. Et ainsi de suite. Être conseillé principalement par les algorithmes des grandes plateformes commerciales, c'est triste et totalement de l'uniformisation et du nivellement par le bas.

    En fait ces systèmes de conseils basés sur des logiques mercantiles ("ce qui rapportera le plus"), c'est super triste. Ça vient d'une logique où on ne considère plus autrui que comme un "consommateur", et non comme des "gens". Il fut une époque où "consommateur", c'était un terme considéré insultant, mais de nos jours, les entreprises sont fières de vous traiter de consommateur ouvertement. Il faut "consommer", toujours plus et plus. Et si plutôt que consommer, on vivait? Donc non, je n'ai pas besoin de "recommandations" de Youtube, Facebook, Amazon ou autre.

    Au passage, dans l'absolu, je n'ai rien contre les algorithmes de recommandation basés sur l'apprentissage de nos préférences personnelles, si vraiment cette apprentissage était juste et donc "loyal", comme tu dis. Typiquement, il fut un temps, vers la fin de mes études, j'avais voulu implémenter un algorithme de recommandation de musique libre pour la plateforme du même nom (ça s'appelait Dogmazic à l'époque, non? Ou c'est l'inverse! Je sais plus) parce que je trouvais ça super dur de trouver des musiques qu'on aimait sur cette plateforme. Donc je me disais que si un algo pouvait nous conseillait des choses en fonction de ce qu'on avait déjà apprécié, ce serait super cool pour découvrir de nouvelles œuvres ou artistes libres (et aussi car justement j'avais étudié l'IA en spécialité donc creuser ces technologies m'intéressait énormément). Bon finalement, on le sait, je suis parti dans d'autres directions pour mes choix de contributions libres. Si ça avait été fait dans un tel contexte associatif, sans arrière pensée d'essayer de "vendre" des choses, ou de privilégier certaines œuvres pour raisons économiques, alors oui, là on aurait pu appeler cela un usage "loyal" de ce types de technologies de suggestion. Mais dire cela des suggestions telles qu'implémentées par les GAFAMs, ça me faire rire jaune.

    Ensuite je sais que c'est un sujet difficile et on trouve régulièrement des gens pour nous dire qu'ils aiment découvrir des trucs par la pub et qu'ils aiment être ciblés ainsi car ça leur permet d'avoir une pub "pertinente". Ce que tu me dis aussi. Perso je trouve ça triste. Car c'est uniquement "pertinent" dans le sens que ça trouve les choses qui leur sont le plus profitables (aux plateformes), pas à vous en vrai. Mais bon, soit, chacun son truc. Ensuite, non, il n'y a rien de "loyal" dans ces techniques, et leurs implémentations version GAFAM-like, c'est complètement des dark patterns.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Bar des sports.

    Posté par  (site web personnel, Mastodon) . En réponse au journal Tentative de partage de mon expérience, vécue depuis l'extérieur, des réseaux sociaux. Évalué à 10. Dernière modification le 27 décembre 2022 à 20:05.

    Je sais pas si ça existe, des réseaux non motivés par l'économie de l'attention.

    Si tu produis quelque chose pour d'autres, c'est être motivé par l'économie de l'attention. Par exemple, si tu postes un commentaire, c'est à minima pour que quelqu'un le lise, donc avoir l'attention d'au moins une personne. Et c'est important, parce que finalement, quand tu va dans un PMU, c'est pas pour que tout le monde t'ignore (enfin, des fois, oui, mais un bar ou un parc, c'est pareil).

    C'est pas de cette attention dont on parle quand on parle de l'économie de l'attention. On ne parle notamment pas de l'attention reçue par les "utilisateurs" qui ne sont pas des acteurs de cette économie mais de l'attention qu'ils donnent. De cette économie, ils en sont seulement les produits en tant que détenteurs d'une attention (qui est une ressource limitée) qui est vendue par autrui à un tiers.

    Dans le concept de l'économie de l'attention, ce qui est donc vendue, c'est donc l'attention des gens. Typiquement ça le sera sous la forme de temps vendue à des entreprises qui veulent montrer leur publicité. Il y a d'ailleurs un PDG de TF1 qui a explicité ce concept en parlant du fait qu'ils vendaient du "temps de cerveau disponible" à des annonceurs:

    Ce que nous vendons à Coca-Cola, c'est du temps de cerveau humain disponible

    Pourquoi est-ce une ressource finie? Parce qu'un humain ne peut pas aisément se concentrer sur 10 pubs à la fois, et en plus il dort, il mange (le vil humain, comment ose-t-il ne pas passer son temps devant les pubs!)… Donc le temps passé devant une pub donnée, c'est un temps "perdu" qui n'est pas passé devant une autre pub. Et c'est pourquoi les annonceurs se font la guerre pour avoir leur pub vue (aux dépens des autres) et les intermédiaires (par exemple Google, Twitter, Facebook; toutes ces entreprises qui ne sont que des entreprises de pubs même si d'une manière incongrue, ce fait ne rentre pas dans le cerveau des gens) sont les outils de cette guerre en redoublant d'ingéniosité pour inventer des logiques d'UX (qu'on va rentrer dans la classe des "dark patterns") qui poussent les gens à ne pas quitter l'écran.

    Tu notes d'ailleurs toi-même un des dark patterns en question, qui est le "scroll infini" pour empêcher aux gens de pouvoir se dire "allez je finis cette page et je fais autre chose". Il y a aussi les suggestions sur des sujets annexes au milieu du reste pour constamment "t'intéresser" (très utilisé sur Youtube où les gens regardent une vidéo et se retrouvent à en voir pendant des heures; ou Amazon qui essaie de te faire acheter plus en te présentant des produits "complémentaires" ou que tu as regardés auparavant, etc.). Ce dark pattern est particulièrement puissant avec la connaissance accumulée des plateformes qui savent ce qui vous intéressent. Enfin tout simplement, il y a les dark patterns où la plateforme essaie de mettre en avant les contenus qui font ressortir les comportements les moins nobles de l'espèce humaine parce qu'on s'est rendu compte que c'est ce qui fait rester les gens. Si tu lis des choses bonnes, constructives et positives, en général, tu passes à autre chose rapidement (avec bonne humeur). Mais si tu lis un contenu haineux, ton sang bout et tu veux en découdre. Ou bien si quelqu'un dit vraiment de grosses bêtises, on pourrait se dire qu'on devrait juste l'ignorer, non? Ben non, on va passer son temps à le contrer et argumenter, même si les réponses n'ont ni queue ni tête et qu'il ne sert en fait à rien d'essayer de raisonner contre de la théorie du complot par exemple. Ou bien faire de la chasse aux sorcière, en focalisant tout le monde sur une cible qui n'a rien demandé (qui a peut-être dit une grosse connerie, sauf que si on n'était pas devant un écran, ce qui se produit en conséquence est l'équivalent d'un lynchage psychologique et ne devrait pas se produire dans une société civilisée; si quelqu'un fait une action vraiment répréhensible, il y a la justice par exemple; on ne sort pas avec les torches et les fourches). En gros les gens perdent leur temps à s'énerver, s'insulter, être traumatisés, ces réseaux créent du mal-être et une addiction à tous ces trucs négatifs. Malgré tout ces aspects négatifs (ou plutôt contre-intuitivement: à cause de ces aspects négatifs), certains vont y perdre un temps précieux. Sauf que ce temps n'est pas perdu pour tout le monde en fait. Pour la plateforme, ça aura permis de montrer de nombreuses pubs à beaucoup de gens.
    Ce dernier type de dark pattern est une des grosses spécialités des plateformes de type Facebook ou Twitter.

    Il y a plein d'autres types de dark pattern. Par exemple ce qu'on appelle la "gamification" est souvent une forme de dark pattern, de même que les systèmes où on nous met en compétition avec autrui, ce que je déteste absolument. À un moment, j'avais installé un logiciel sur téléphone pour apprendre des langues. Le logiciel était pas mal fait du tout, et je trouvais que j'avançais. Sauf que tout leur système était enrobé de gamification et compétition. On avait des scores hebdomadaires, on était comparé aux autres joueurs/étudiants et on pouvait "monter de niveau" pour accéder à de nouvelles leçons en fonction des résultats (je me souviens plus des conditions exactes).
    Aussi on se fixait des durées et si on ne se connectait pas assez, on avait sans cesse des notifications pour nous dire qu'on serait rétrogradé, etc. Le but évidemment n'est pas de nous faire travailler la langue, mais juste que si on n'est pas sur le logiciel, on ne voit pas les pubs qui s'immiscent entre chaque exercice (et malheureusement y a pas de adblock pour ça!). Typiquement une telle petite entreprise aussi vend notre attention à des annonceurs. Il n'y a pas que les GAFAMs. Personnellement j'aurais 1000 fois préféré un logiciel payant par exemple. Je parle même pas de logiciel libre là. Ça aurait pu être par exemple un logiciel où on peut tester les premières leçons pour voir si c'est bien, puis payer pour le logiciel complet. Au moins c'est un modèle économique plus direct et moins malsain.
    Perso j'avais essayé quelques semaines, puis j'en ai eu marre. J'ai trouvé ça stressant, devoir se comparer aux autres, les notifications constantes pour respecter les temps de travail/pub, etc. Certes tu peux essayer de faire abstraction, mais c'est pas facile quand on est au milieu de tout ça.

    En conclusion: dans cette logique où les gens ne sont plus que des produits, ce qu'on vend, c'est leur attention ("temps de cerveau") à regarder de la pub. C'est de ça qu'on parle quand on parle de l'économie de l'attention. Et non pas du gars qui montre sa vie sur les réseaux sociaux. Lui veut effectivement souvent de l'attention, et c'est ce que ces plateformes utilisent pour le rendre accroc à leur système, mais ce n'est pas la même attention dont il est question ici.

    Un réseau décentralisé comme Mastodon n'est donc pas dans l'économie de l'attention à l'heure actuelle parce que personne ne vend l'attention d'autrui (enfin peut-être certains rajoutent de la pub sur certaines instances Mastodon, j'en sais rien mais ce serait anecdotique).

    Ensuite je dis par pour autant que le concept même de tous ces réseaux sociaux, avec des gens qui semblent ressentir le besoin de partager le moindre détail de leur vie, ou leur moindre pensée, est réellement positif. De manière personnelle, je n'ai pas de compte personnel sur un réseau social non plus et n'ai jamais compris l'attrait. J'ai des comptes pour des projets parce que la pression sociale nous dit qu'il en faut absolument au moins pour les projets (perso je suis même pas sûr: j'ai l'impression que ces réseaux sont en fait des micro-bulles et même quand y a beaucoup de mondes, c'est en fait des nombres ridicules en comparaison à la taille du projet ou du monde; mais bon c'est un autre sujet). Mes comptes de projets sont utilisés quasi essentiellement en écriture-seule (je réponds parfois à certains quand ils nous mentionnent directement et si ça n'a pas l'air d'être du troll et je re-partage certains trucs de temps en temps, quand ça a un rapport; mais c'est tout: je dois passer moins de 30 minutes par semaine sur ces réseaux sociaux). J'ai pas non plus de compte perso sur Mastodon pour ces raisons. Je comprends juste pas l'intérêt pour moi. Ensuite si ça plaît vraiment à certains, pourquoi pas, tant qu'ils ne sont pas considéré juste des produits qu'on vend comme du bétail (ce qui est vraiment triste et montre qu'on est tombé bien bas dans notre relation aux autres avec les grands groupes de médias, les GAFAMs, et autres "startups" qui veulent leur emboîter le pas).

    Mais dans tous les cas, être "motivé par l'économie de l'attention" ne veut pas dire qu'on a affaire avec des gens qui veulent de l'attention. Sinon c'est un peu le cas d'une grande majorité des activités au monde puisqu'énormément de gens sont effectivement en recherche d'attention. Ce terme désigne l'économie particulière où on "vend" la dite attention à autrui. Voili voilà.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: quid de recode ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 7.

    Je connais pas recode, alors je viens de l'installer et je suis en train de regarder son man mais j'ai pas l'impression du tout qu'il fasse de la détection de charset, juste de la conversion.

    D'ailleurs même en cherchant sur le web, je vois que c'est une problématique de savoir quel est le charset de base, puisque les gens cherchaient comment n'utiliser cet outil que conditionnellement en fonction du charset (bon le lien est une vieille question, donc ils essaient divers ruses un peu bancales; de nos jours, on conseillerait un outil tel que uchardet). Donc j'ai pas l'impression que recode fasse de détection du tout, si?

    Et donc si confirmé, cet outil est plutôt dans la catégorie d'iconv que d'uchardet. Ce qui fait que même si je l'avais connu, je l'aurais sûrement pas cité. Ce qui devrait répondre doublement à ta question ([1] je connaissais pas et [2] il fait quelque chose d'autre).

    Ceci dit, merci de la découverte, cet outil me paraît très intéressant. Déjà j'aime beaucoup la façon dont il liste les charsets: recode -l liste par lignes d'alias, alors que iconv -l liste tout en bordel. La question de savoir si un nom est l'alias d'un autre ou une variante légèrement différente (ou complètement différent même) est une grosse question que je me suis souvent posée (dont la quête de réponse obligeait jusque là à faire des recherches laborieuses) et j'envisageais même de faire un script pour répondre à ce type de question. Bon recode répond pas entièrement à toutes les questions (seulement les alias), mais c'est déjà très bien.

    J'aime aussi beaucoup cette option --find-subsets car la question de savoir quel charset est un sous-ensemble de quel autre charset est aussi une grosse problématique. C'est vraiment super.

    Bon par contre, maintenant ça m'apporte potentiellement de nouveaux problèmes, du genre pour les noms de charsets légèrement différents, et savoir quoi correspond à quoi d'un outil à l'autre. J'avais déjà eu la problématique posée en m'apercevant qu'il y a en fait 2 implémentations d'iconv (GNU libc et GNU libiconv) qui peuvent avoir des noms de charset légèrement différents (on a eu au moins un cas rapporté parce qu'il s'avère que sur macOS, ils ont la version libiconv installée qui utilise MACCENTRALEUROPE pour un charset appelé MAC-CENTRALEUROPE dans glibc!). Du boulot en plus quoi!
    Pour ça, je te remercie pas, monsieur! (non, j'rigole! 😁)

    Enfin bon, j'envisageais déjà de probablement ajouter une API pour permettre de choisir le format de sortie (je voulais faire ça pour glibc vs libiconv; je suppose que je pourrais rajouter recode maintenant).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Ah, c'est grâce à toi…

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 7.

    Sois-en remercié jusqu'à la neuvième bobine du dernier film qui passera dans mon smplayer !
    Ainsi que pour ta dépêche, fort intéressante.

    De rien. 🤗

    J'avais pensé à un truc bien plus simple, du style « encodage de la config, mais utf-8 si le player détectait un unicode »

    En fait c'est ce que la plupart des logiciels faisaient (et que beaucoup font encore).

    Le premier point (codage de la config par défaut) fonctionne dans un monde où on s'échange jamais de fichiers entre personnes (et donc on crée nos propres fichiers et on ne travaille jamais que sur ceux-ci). Mais la réalité est toute autre: en vrai, on s'échange constamment des fichiers (et cette tendance a été décuplée avec internet). Et même le cas du "on crée nos propres fichiers" reste imparfait. Les machines et OS ont évolué, les codages par défaut aussi. Je dois avouer ne plus bien me souvenir des locales par défaut dans nos Linux, y a 20 ans, mais ça ne m'étonnerait pas plus que cela, si à l'époque, on avait des charset non-UTF-8 configurés par défaut dans nos systèmes en fonction de la langue qu'on configurait dans les préférences systèmes. Cela voudrait donc dire que si on essaie de relire nos vieux fichiers de l'époque (ceux sans métadonnées de charset), on aurait des problèmes de décodage.

    D'ailleurs je viens de faire une recherche vite fait sur le web et trouve encore des documentations, genre du Linux Documentation Project, qui conseille aux francophones d'utiliser ISO-8859-15: https://tldp.org/HOWTO/Francophones-HOWTO-6.html

    Donc même dans le cas hypothétique où on n'échangerait jamais de fichiers avec autrui, on pourrait se retrouver avec des décodages problématiques, juste parce qu'on met à jour son OS ou parce qu'on a plusieurs machines.

    Pour le point sur la détection de UTF-8 (ou autre codage multi-octet), comme je dis dans l'article, cela reste relativement simple puisqu'il est très simple de tomber sur des cas invalides. En gros, on peut croire que se limiter au premier concept (détection de caractère invalide, autrement dit l'algorithme naïf) est suffisamment fiable au moins pour ce qui est de la détection de UTF-8. Néanmoins même cela n'est pas parfait. Contrairement à la détection des charsets mono-octets, j'ai encore un peu trop de faux positifs/négatifs à mon goût, liés à une mauvaise détection de UTF-8. C'est à dire, qu'avec uchardet 0.0.8, il m'arrive encore parfois que uchardet sorte UTF-8 par erreur avec un score légèrement meilleur que la bonne réponse (un codage mono-octet), comme il arrive à l'inverse qu'un codage mono-octet sorte en réponse erronée avec un score qui bat de très peu le score du codage UTF-8. Dans les 2 cas, la raison est parce que cette version d'uchardet a gardé la logique que pour UTF-8, la vérification naïve suffit (cette croyance vient de l'algorithme originel, de l'époque où c'était un code Mozilla). Mais ce n'est pas vrai et le score attribué avec cette étape seulement n'est simplement pas assez subtil, donc pas fiable.

    Et ce sera une des grandes différences (parmi d'autres) avec uchardet 0.1.0: même pour UTF-8, il y aura maintenant de la détection statistique par langage. Cela rend malheureusement uchardet moins bon pour les langages non pris en charge, mais en même temps, pour tous les langages pris en charge, cela a tout simplement rendu l'outil d'autant plus fiable et efficace. Franchement c'est sans équivoque, avec mes récentes améliorations, je n'ai simplement plus de ce genre de faux positifs/négatifs dont je parlais plus haut.

    Enfin bon, je suis déjà très fier des améliorations qu'on trouvera dans la version suivante. Je pense même qu'on va pouvoir améliorer plusieurs trucs pour rendre les résultats encore plus fiables (mais faut que je fasse plus de tests). 😊

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: équivalent à la biblio Python FTFY

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 10. Dernière modification le 22 décembre 2022 à 18:31.

    Qu'est-ce qu'il se passe si je voulais vraiment écrire « ½uf » ?

    Si ton bout de texte, c'est juste "½uf", c'est clair que c'est pas assez et uchardet ne peut pas te sortir un résultat fiable (je vais même pas prendre la peine de tester; si c'est pour tester sur 3 octets, vous vous êtes trompé de logiciel; même si ça trouvait le bon résultat, j'attribuerais cela à la chance). Mais si ton texte est "Bonjour monsieur, pourriez-vous me servir 2 douzaines d'½ufs, une bouteille de lait, et une baguette s'il vous plaît", tu auras bien du mal à me convaincre (et "convaincre" uchardet) que c'est un décodage pertinent (en comparaison à: "Bonjour monsieur, pourriez-vous me servir 2 douzaines d'œufs, une bouteille de lait, et une baguette s'il vous plaît" puisque le concept est de comparer les scores, je le rappelle, comme techniquement le premier décodage est aussi valide, mais le texte lui ne l'est pas en français).

    Le test en réel avec uchardet 0.0.8:

    echo "Bonjour monsieur, pourriez-vous me servir 2 douzaines d'œufs, une bouteille de lait, et une baguette s'il vous plaît" | iconv -f UTF-8 -t ISO-8859-15 | uchardet 
    ISO-8859-15
    

    L'erreur dont tu parles se produit si uchardet se plante et retourne ISO-8859-1 (auquel cas, en recodant en UTF-8, tu obtiens ½ à la place de œ). Comme tu le vois, sur un vrai texte complet, uchardet ne se plante pas.

    Il peut y avoir des cas particuliers où tu voudrais vraiment dire "½uf", par exemple je pourrais imaginer un texte plus grand qui traite justement du sujet des codages de caractères et donne un exemple de décodage loupé. Mais dans ce cas, le texte est vraisemblablement bien plus long, du moins suffisamment pour justement faire pencher la balance vers le bon codage quand même (celui qui gardera "½uf" sur l'endroit où c'est ce que tu voulais et "œuf" sur les endroits où c'est ce que tu veux). De toutes façons, ce texte plus long, totalement hypothétique, ne sera ni en ISO-8859-15, ni ISO-8859-1 puisqu'aucun des 2 n'a les 2 caractères (donc tu ne peux traiter ce sujet dans un tel codage). Ce texte serait probablement en UTF-8.

    En gros, tu essaies de raisonner en terme de "comment arriver à tromper le système". Et oui, soyons clair, tu peux toujours tromper un système informatique, trouver des cas bizarres et extrêmes, surtout si le système est basé sur les statistiques. Il suffit par exemple de travailler dur pour produire un vrai texte en français en faisant exprès d'aller à l'encontre de toutes les statistiques habituelles de la langue française, en utilisant des tournures particulières, le maximum de mots peu usités, du franglais ou le plus de mots étrangers possibles (mais qu'on utilise quand même en France), etc. Oui tu pourras toujours me sortir un exemple qui pête un tel système. Parce que c'est pas un système fait pour déjouer les ruses, ce qui n'a aucun intérêt selon moi. C'est un système fait pour être utilisé dans la vie réelle, sur de vrais textes de diverses langues. Et dans ce contexte, uchardet fonctionnera 99,99% des fois sur les codages et langues prises en charge (statistiques tirées du chapeau mais franchement j'attends encore les contre-exemples de la vraie vie et pas créés spécifiquement pour ruser et tromper l'outil). 😇

    Pour moi, ton d'exemple (et "si je voulais vraiment écrire « ½uf »", je sais pas combien de fois dans votre vie, vous avez voulu écrire ce mot "½uf" si courant 🙄 dans notre langue, le mettre dans un fichier ou une base de donnée, sans aucun autre texte contextuel, juste ce mot et c'est tout, puis vous êtes demandés plus tard son codage! Moi perso: jamais! 😜) est à ranger dans la catégorie de ceux qui donne des bouts de 3 lettres aléatoires et s'étonnent qu'uchardet ne trouve pas le codage qu'ils avaient en tête: sauf qu'uchardet ne fait toujours pas de magie ni ne lit dans la tête des gens! 😛

    La détection de charset est très utile, mais ça devrait être du dernier recours quand tout à échoué. Ça marche très bien, mais ce n'est pas parfait.
    […]
    Cette négligence nous coûte de la complexité et les détecteurs de charset ont en effet encore de beaux jours devant eux. Je comprends bien qu'il y a des enjeux de rétrocompatibilité, mais il y a un moment où faut décider de corriger les choses, fournir des outils de compatibilité et arrêter les bêtises.

    Tout ce que tu dis, c'est comme dire que c'est nul qu'on soit pas encore tous passé à IPv6. Donc faut arrêter de faire en sorte que son logiciel fonctionne avec IPv4 parce que c'est le passé (soyez libre de ne pas prendre en charge IPv4 dans un logiciel réseau ahahah!) ou que Wayland est le futur, donc faut arrêtez de faire en sorte que nos logiciels marche avec X11 (on entend ça parfois; mais va dire aux développeurs de logiciel d'abandonner la majeure partie des utilisateurs sous Linux!), etc.

    Dans les faits, nous on veut juste que nos machines ou logiciels marchent. C'est tout. C'est pas être en désaccord que la nouvelle technologie X est peut-être vraiment meilleure ou pas que l'ancienne technologie Y. C'est juste que les problèmes d'Y existent encore et qu'on peut pas faire comme s'ils n'existaient pas. Typiquement pour en revenir à mon problème de sous-titres, j'allais pas dire "oooh comment il ose ce gus qui a fait gratuitement des sous-titres pour les donner à tous, et qui a même pas utilisé UTF-8 pour cela! Quel goujât! Pour la peine, je vais pas utiliser ses sous-titres!". Non je dis: "zut, j'ai vraiment envie de voir ce film mais on a besoin des sous-titres. Ce serait bien si mon lecteur vidéo était capable de détecter le bon codage sans que je m'en mêle!" Et donc je règle ce problème (je me suis arrangé pour que mon lecteur détecte au mieux le codage). Parce que je peux pas retrouver tous les gens sur internet qui font des sous-titres en hobby (et même si je le pouvais, aller leur faire la leçon sur le codage de caractère — un truc qu'ils ne comprendront sûrement pas de toutes façons parce qu'ils s'en fichent — n'est pas un truc que j'ai particulièrement envie de faire).
    La théorie est belle, mais bon… Perso je pense aussi que la détection de charset a encore de très beaux jours devant elle (comme la détection de langage, qui est le nouvel usage d'uchardet; j'en parlerai plus en détail à la prochaine sortie du logiciel) mais j'y mets aucun sentiment.

    Je comprends la frustration

    Ahahah. Je suis pas du tout frustré par la situation. J'ai plus l'impression que c'est toi qui est frustré sur le coup, non? 😉

    si ces outils n'existaient pas, peut-être que les logiciels qui produisent du contenu s'assureraient peut-être de standardiser sur un sous-ensemble utile de charset

    LOL Y a bien une trentaine d'années (probablement plus) d'histoire de l'informatique pour réduire à néant ta théorie. 😆

    Comme l'historique dans mon article le montre, ce type de logiciel de détection de codage a vraiment commencé à être utilisé vers 2015 (pour uchardet qui commence à être utilisé dans quelques logiciels à partir de 2015; puis le développement de CED dont le premier commit est de 2016; puis chardetng dont la première sortie est 2019…). La réalité, c'est juste que c'est encore très peu utilisé globalement et que donc les gens ont toujours constamment des problèmes de codage dans une majorité de logiciels. Donc dire que c'est la faute de ce type d'outil qu'on est dans cette situation, c'est complètement inverser les responsabilités et le cause à effet.

    La réalité est juste: (1) on est dans cette situation, c'est comme ça et c'est un fait; (2) ça s'améliore progressivement mais ça prend du temps et en attendant, c'est quand même mieux si on arrive à lire les fichiers sans problèmes de décodage bizarre et (3) même si un jour, tout le monde utilise UTF-8, ça n'efface pas magiquement le passé pour autant, ainsi que les milliards de fichiers et textes en base de données qui ont été créés depuis des décennies et dont une grosse partie va encore être utilisés quelques décennies de plus.

    Donc on est dans cette situation, c'est comme ça. Autant tirer le meilleur parti d'une situation bordélique plutôt qu'énoncer des "et si". 😁

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Double décodage malencontreux

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 6.

    Le but d'un projet comme uchardet, c'est d'éviter que ce genre de trucs se produisent (ce qui est en effet assez courant et justement pourquoi un projet tel qu'uchardet est nécessaire).

    Quand tu es déjà devant un fait accompli (ré-encodage cassé), j'ai l'impression que c'est plutôt le genre de projet dont quelqu'un parle plus haut (FTFY) dont tu as besoin. Note que j'ai jamais testé et n'ai aucune idée de son efficacité. Mais ce dont tu parles est exactement le cas d'usage qu'ils décrivent dans leur README.

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: équivalent à la biblio Python FTFY

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 3.

    Corrigé, merci.

    Merci. Cependant il reste encore un bout sur la deuxième commande (elle commence par " et finit par  »). ;-)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Commande file

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 10. Dernière modification le 22 décembre 2022 à 03:35.

    Ah en relisant ton commentaire, je découvre que tu mentionnes en fait une option -i particulière que je ne connaissais pas. Dans ce cas, je vois ça essaie en effet de donner un vrai nom de charset complet, mais c'est vraiment pas glorieux:

    $ file -i test/et/*
    test/et/iso-8859-13.txt:  text/plain; charset=iso-8859-1
    test/et/iso-8859-15.txt:  text/plain; charset=iso-8859-1
    test/et/iso-8859-4.txt:   text/plain; charset=iso-8859-1
    test/et/utf-8.txt:        text/plain; charset=utf-8
    test/et/windows-1252.txt: text/plain; charset=unknown-8bit
    test/et/windows-1257.txt: text/plain; charset=iso-8859-1

    À part UTF-8, pas une seule bonne réponse! (le nom du fichier est la réponse, comme on se l'imagine)

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Commande file

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 10.

    Mais file connaît quasi rien de la plupart des encodages, ou alors t'as une version spéciale! Tiens, je le lance sur un jeu de fichiers de test du dépôt d'uchardet:

    $ file test/et/*
    test/et/iso-8859-13.txt:  ISO-8859 text
    test/et/iso-8859-15.txt:  ISO-8859 text
    test/et/iso-8859-4.txt:   ISO-8859 text
    test/et/utf-8.txt:        UTF-8 Unicode text
    test/et/windows-1252.txt: Non-ISO extended-ASCII text
    test/et/windows-1257.txt: ISO-8859 text

    Il donne "ISO-8859 text" pour une majorité, ce qui veut pas dire grand chose (je connais au moins 15 IS0-8859-* codages et hormis la partie ASCII, ils sont tous vraiment vraiment différents (c'est même le but). En plus, il se plante dans un cas (WINDOWS-1257 aussi catégorisé en "ISO-8859 text"), et il sait pas dans un autre (WINDOWS-1252 qu'il dit juste être "Non-ISO", ce qui aide pas trop!).

    Dernier point: on n'est pas du tout sur les mêmes ordres de grandeur en terme de rapidité:

    $ time uchardet test/et/*
    test/et/iso-8859-13.txt: ISO-8859-13
    test/et/iso-8859-15.txt: ISO-8859-15
    test/et/iso-8859-4.txt: ISO-8859-4
    test/et/utf-8.txt: UTF-8
    test/et/windows-1252.txt: WINDOWS-1252
    test/et/windows-1257.txt: WINDOWS-1257
    
    real    0m0.008s
    user    0m0.004s
    sys 0m0.004s
    $ time file test/et/*
    test/et/iso-8859-13.txt:  ISO-8859 text
    test/et/iso-8859-15.txt:  ISO-8859 text
    test/et/iso-8859-4.txt:   ISO-8859 text
    test/et/utf-8.txt:        UTF-8 Unicode text
    test/et/windows-1252.txt: Non-ISO extended-ASCII text
    test/et/windows-1257.txt: ISO-8859 text
    
    real    0m0.044s
    user    0m0.036s
    sys 0m0.008s

    Parce qu'un outil comme file, en plus d'être faux ou imprécis, se traîne comme un escargot alors qu'uchardet est fait pour être rapide, juste et précis. 😜

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: équivalent à la biblio Python FTFY

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche Sortie de uchardet 0.0.8 pour la détection de codages de caractères. Évalué à 10. Dernière modification le 21 décembre 2022 à 19:16.

    C'est un concept dérivé, mais c'est pas du tout la même chose:

    Is ftfy an encoding detector?

    No, it’s a mojibake detector (and fixer). That makes its task much easier, because it doesn’t have to guess the encoding of everything: it can leave correct-looking text as it is.

    Encoding detectors have ended up being a bad idea, and they are largely responsible for creating the problems that ftfy has to fix.

    The text that you put into ftfy should be Unicode that you’ve attempted to decode correctly. ftfy doesn’t accept bytes as input.

    There is a lot of Unicode out there that has already been mangled by mojibake, even when decoded properly. That is, you might correctly interpret the text as UTF-8, and what the UTF-8 text really says is a mojibake string like “réflexion” that needs to be decoded again. This is when you need ftfy.

    En gros, ce projet (que je ne connaissais pas) part du principe que l'on ne va pas détecter correctement le codage d'origine (et qu'on travaille forcément en UTF-8 en codage final), et va essayer de corriger votre résultat de conversion erronée. En d'autres termes, on pourrait utiliser FTFY après avoir utilisé uchardet si ce dernier s'est planté.

    Évidemment je ne suis pas du tout d'accord avec leur "lemme" qui est qu'on ne sait pas faire de la détection de codage ("Encoding detectors have ended up being a bad idea"). J'ai mes nombreuses années de travail sur uchardet qui prouvent que ce lemme est faux. uchardet est vraiment vraiment bon. Je ne dis pas que ce projet (ftfy) est totalement inutile. Il peut l'être pour les rares cas où uchardet se plante. Mais leur argument de base est faux: si, de nos jours, on sait globalement très bien et très efficacement détecter le codage de flux de textes donc le codage d'origine est inconnu. Genre vraiment très bien. Essayer uchardet le prouve.

    Ensuite bien sûr qu'on peut encore améliorer l'efficacité, et des gens comme moi y travaillent (comme je le dis, même si je viens à peine de sortir la version 0.0.8, la future version 0.1.0 a déjà fait un bond d'efficacité avec des nouveaux concepts que j'expérimente; ça m'impressionne moi-même parfois). Et surtout il faut ajouter de plus en plus de prises en charge de langues et codages. J'en ai déjà ajouté plusieurs ces derniers jours. Je pense que je pourrai avoir quelques dizaines de modèles supplémentaires pour la prochaine version.

    P.S.: modérateurs de LinuxFr: un éditeur a dû être un peu trop zêlé avec une regexp:

    $ echo « Joyeux Noël et bonnes fêtes de fin d’année! » | uchardet -V
    []
    $ echo "메리 크리스마스! » | uchardet -V

    Ce sont des strings de lignes de commandes shell, donc c'est bien " et non «  ou  » qui doivent être affichés sur les 2 commandes! 😜

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Sponsors institutionnels ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GIMP fête ses 27 ans avec la version de développement 2.99.14. Évalué à 10.

    Il faudrait leur demander mais je ne pense pas que leur position ait changé (à propos, je crois avoir retrouvé le post en question, de 2016). En gros, là (dans cet article de Framasoft de ce mois-ci que tu postes) le ministère a financé directement une fonctionnalité de Peertube, d'ailleurs on ne nous dit pas comment. Peut-être ont-il payé des développeurs en interne. Peut-être ont-il fait un contrat de service avec Framasoft. Dans les 2 cas, il est fort possible que c'est le ministère qui les a contactés en premier d'ailleurs (même si ça ne changerait pas grand chose si c'était l'inverse).

    Quels que soient les détails, ce n'est de toutes façons pas la même chose que du "sponsor institutionnel". C'est un rapport plus proche soit de la contribution à un logiciel libre, soit de la fourniture de service. Ce qui est super cool déjà, dans les 2 cas, mais pas du tout la même dynamique.

    Ce dont je parle est vraiment un truc que beaucoup de ceux qui ont été très actifs dans une asso (étant moi-même actif dans plusieurs assos) connaissent: les assos qui s'épuisent à avoir du financement ou de l'aide de manière générale pour des activités de biens communs.

    Par exemple, une asso dans laquelle je suis administrateur, on a un compost de quartier et l'un des trucs qu'on aurait aimé, c'est de répandre le concept dans tous les quartiers de la ville. C'est écologique, pratique, moins odorant que ces poubelles de quartier qui sentent à 10m à la ronde, un bon moyen de faire vivre le quartier…
    Mais comme notre mairie n'est pas très ouverte à ce type d'arguments, on essaie aussi de faire valoir que le tri des biodéchets dans les foyers sera obligatoire en 2024. Si la ville est capable de généraliser un système basé sur le compost citoyen d'ici là, ce serait un énorme avantage économique. Mais ils ne font rien. Ça fait 2 ans qu'on pousse; même notre compost, ils étaient censé participer après installation (livrer la matière sèche notamment, installer des barrières à certains endroits, etc.) mais au final on doit tout faire nous-même, trouver des fournisseurs de matière sèche qui le font gratuitement (la mairie nous assurait que c'était impossible, qu'il faudrait faire des contrats, que ce serait très compliqué — en fait je crois qu'ils ont juste dit ça par habitude et qu'ils ont pas cherché, tout simplement —; au final c'est un instituteur seul dans son coin qui s'est démené et a prouvé que ce que disait la mairie était totalement bidon) notamment a été un énorme travail par un des administrateurs surtout, etc. Au final certains des membres les plus actifs du début s'épuisent et arrêtent. Et on sait bien ce qu'il va se passer en 2024: la ville va juste faire un gros contrat juteux avec une grosse entreprise (probablement Veolia) pour une collecte "biodéchets" séparée, monter les taxes des ordures ménagères pour pouvoir le payer, et dire que c'est pas leur faute ("c'est la loi!"). Alors qu'on aurait pu avoir une ville plus propre avec une gestion solidaire des biodéchets.

    L'asso locale de vélo (je n'y suis que simple membre), qui font vraiment un boulot extra, ont un gros local partagé de réparation gratuite et solidaire de vélo (avec du super matos), des permanences hebdomadaires pour aider les gens, poussent à avoir une politique de déplacement propre et une infrastructure sécurisée pour les vélos dans la ville, etc. Ils rencontrent les élus mensuellement (si je ne m'abuse) dans des réunions où ils consacrent énormément d'énergie, de temps et de compétence. Mais il se passe quasi rien en faveur du vélo ou de déplacements propres de manière générale (en fait, si il se passe tout juste assez pour faire des encarts dans les journaux locaux ou le magazine de la ville qui met la tête du maire à toutes les sauces; mais rien de ce qui est véritablement important n'est presque jamais mis en place). Financièrement aussi, on m'a dit qu'ils ont à peine quelques centaines d'euros annuels de subventions (si ma mémoire est bonne; mais même si c'est plus, je me souviens que c'était un montant ridicule par rapport à ce qu'ils apportent à la vie de société, écologiquement, etc.).

    Dans le monde du spectacle, j'ai connu de nombreuses petites compagnies qui s'épuisaient pour obtenir des subventions et au final abandonnaient quand ils se rendaient compte qu'ils passaient plus de temps à faire des dossiers qu'à préparer leurs spectacles. C'est à dire que même quand ça marchait "financièrement" parce qu'ils arrivaient enfin à trouver des financements d'organismes, ils se rendaient compte qu'ils n'arrivaient plus à faire ce qu'ils voulaient pouvoir faire dans la majorité de leur temps; c'est le genre de conclusion déprimante et un véritable cercle vicieux: soit on continue comme ça car on arrive à en vivre financièrement mais alors on se spécialise surtout dans le montage de dossier et les "relations" tout en produisant de la qualité médiocre, soit on abandonne. Beaucoup abandonnent.

    C'est ça qui arrive à beaucoup d'associations quand elles commencent à chercher de l'aide institutionnelle. En fait, ils en ont marre de courir après des chimères, de chercher à persuader les instances publiques de les sponsoriser ou même simplement de les soutenir (pas juste avec des mots dans des "tweets" mais en actes réels).
    En fait, je pense qu'on peut même dire que — avec la politique et l'organisation en France (c'est donc une constatation, non un but, car dans l'idéal, oui les projets clairs de biens communs devraient pouvoir être aidés par les instances publiques) — que chercher à tout prix des aides institutionnelles tue beaucoup d'activités associatives (soit parce les gens abandonnent et l'asso meurt; soit au contraire parce qu'elle réussit mais l'asso devient alors parfois un trou noir où une majeure partie du financement est mangé par le financement lui-même et on se rend compte que l'activité première de l'asso est devenue l'ombre de ce qu'on voulait qu'elle soit).

    Quand je lis l'article de Framasoft (je l'ai pas relu depuis sa publication y a quelques années, mais juste vaguement parcouru après l'avoir retrouvé), on voit clairement que c'était là leur propos, commun à de nombreuses autres associations. Ils ont donc changé leur logique et clairement on peut voir que ça leur a réussi (ils étaient surtout une asso francophone, maintenant ils ont une reconnaissance plus internationale et des financements participatifs vraiment d'un autre niveau). Le fait qu'un ministère va maintenant financer certaines fonctionnalités ne va pas du tout à l'encontre de cette nouvelle logique de fonctionnement. Au contraire, ça la valide.

    D'ailleurs la conclusion de cet article de 2016 le dit bien:

    Fermons-nous définitivement la porte à l’Éducation Nationale ? Non… nous inversons simplement les rôles.

    Pour autant, il est évident que nous imposons implicitement des conditions : les instances de l’Éducation Nationale doivent considérer que le logiciel libre n’est pas un produit mais que l’adopter, en plus de garantir une souveraineté numérique, implique d’en structurer les usages, de participer à son développement et de généraliser les compétences en logiciels libres.

    Ça me semble assez clair que c'est ce qu'il s'est passé. Ils n'essaient plus de courir après les institutions (que ce soit pour obtenir des aides financières ou autres, ou pour les persuader), c'est maintenant elles qui viennent à eux. Et ces institutions maintenant ne font plus juste des promesses sur le logiciel libre, ils "participe[nt] à son développement", très concrètement!

    Bien sûr, je peux me tromper et mal lire entre les lignes. Peut-être que Framasoft est effectivement dorénavant revenu dans une logique où ils vont courir après les institutions (perso j'en doute). Seul quelqu'un de Framasoft pourrait le confirmer ou l'infirmer.

    Mais quel que soit cette réponse, cela n'invalide pas que la recherche de soutien institutionnel est un vrai tueur d'associations de manière générale. Les blogs posts d'associations qui sont revenues de ce rêve sont légions sur le web (de même que ma propre expérience associative vérifie aussi ce prédicat).

    C'est là l'idée. Il faut juste arrêter d'espérer une aide quelconque des institutions, ce qui tue l'asso à petit feu. C'est pas juste nous (même si on a un peu essayé à nos débuts), c'est la conclusion d'une majorité des assos en France. Il faut faire notre truc à nous, et ne rien attendre des institutions. Et peut-être qu'ensuite, quand on aura vraiment réussi à atteindre une forme d'équilibre sans l'aide des institutions, celle-ci viendront d'elles-mêmes et participeront finalement (sauf qu'on n'aura plus à dépendre d'elles, donc en plus la relation est bien plus saine, beaucoup moins de rapports de force, sans aucun organisme qui se repose entièrement sur l'aval de l'autre).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Sponsors institutionnels ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GIMP fête ses 27 ans avec la version de développement 2.99.14. Évalué à 8.

    Tu as raison, et c'est aussi ce que dit en un sens Pierre-Alain TORET dans le commentaire du dessus. C'est un système bien plus acceptable et proche de ce que je recherche. D'ailleurs j'en ai déjà fait (en quelque sorte) aussi. Quand j'ai accepté de travailler pour le CNRS notamment, c'était bien parce que je pouvais travailler sur GIMP.

    Ça reste néanmoins un truc qui peut potentiellement nous éloigner de nos plans. Quand une organisation nous demande une fonctionnalité précise, si on a de la chance, c'est quelque chose qu'on voulait vraiment faire nous-même de toutes façons. Mais peut-être pas, et alors, cela repousse de quelques semaines tout le reste. Potentiellement cela repousse la maintenance elle-même (si on a des deadlines avec des malus de retard, finir la fonctionnalité devient soudainement plus important que corriger les bugs ou faire la revue de code des autres contributeurs). Cela peut aussi repousser d'autant la sortie suivante du logiciel. À l'inverse, j'ai mis en pause plusieurs branches de fonctionnalités, certaines d'autres contributeurs et certaines de moi-même, alors que ce sont de vraiment super trucs que plein attendent; mais justement parce qu'à un moment, si on veut sortir GIMP 3.0, faut qu'on arrête de faire des à-côtés pour finir les bases (j'ai donc fait un choix sain de maintenance et de stabilité plutôt que de privilégier de nouvelles fonctionnalités à tout prix). Ce n'est pas quelque chose qu'on peut faire si on est payé pour bosser sur la fonctionnalité, qui retarderait toute une sortie pour des millions de personnes. Et aussi les choix techniques deviennent des choix commerciaux (ce qui pourrait même conduire à de mauvais choix dans les cas extrêmes).

    Alors je dis pas que c'est entièrement mal, et je suis prêt à refaire ce genre d'accord (par contre, uniquement si cela rentre dans la case des choix techniques acceptables). Mais cela reste tout de même bien moins sain que simplement "payer le développement car ça marche bien". Idéalement même faire les 2: payer des fonctionnalités en plus de financer en partie le développement courant (en fait l'idéal-idéal, c'est même: financer le développement courant + payer ses propres développeurs pour contribuer de nouvelles fonctionnalités adaptées à son business).

    C'est ce qu'on propose avec nos financements participatifs, c'est aussi ce que fait Blender (avec le succès que l'on sait depuis fin 2018, voire 2019, où a débuté une progression fulgurante de leurs financements). Ça peut donc exister puisque ça se fait déjà. Perso c'est ce que je veux pousser le plus. 😇

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Sponsors institutionnels ?

    Posté par  (site web personnel, Mastodon) . En réponse à la dépêche GIMP fête ses 27 ans avec la version de développement 2.99.14. Évalué à 10. Dernière modification le 15 décembre 2022 à 21:57.

    Tu avais mentionné une fois que Aryeom avait donné des ateliers Gimp dans une fac. Avez-vous exploré la piste de sponsors institutionnels ?

    Elle donne encore des cours (en vacataire), et ce toutes les années scolaires depuis 4 ans et il me semble bien que ça va faire sa cinquième année de cours universitaire d'affilées.

    Avez-vous exploré la piste de sponsors institutionnels ?

    Je crois qu'ils ont pas de sous. Enfin si, les institutions ont plein de sous pour des "appels d'offre", où on devrait être en compétition avec des SSIIs de taille gigantesque pour un projet irréalisable (les SSIIs s'en sortent car elles font ça mal, en payant mal des sous-traitants, et ont des contrats blindés où elles ont quasi aucun compte à rendre), et tout ça en nous éloignant de notre projet de base.

    Mais faire un truc simple, genre "vous utilisez du libre, que diriez-vous de financer ce dernier simplement et sainement?" Nope! Ça semble malheureusement impensable. Et comme ce serait donc vraisemblablement une donation, j'ai l'impression que ces organismes n'ont même pas les cases pour ça dans leur compta! Un projet à quelques millions avec appel d'offre ça oui les institutions peuvent l'expliquer; des licences de logiciels propriétaires, cette dépense aussi peut être expliquée; mais dépenser quelques milliers pour des logiciels libres (a.k.a. "gratuit" il faut croire pour ces institutions), j'ai l'impression qu'ils n'arrivent pas à en trouver l'explication comptable (et ce, même quand ils sont pro-libres — comme ce service universitaire pour lequel Aryeom travaille, c'est cool! — et en fait comprennent l'idéologie et en défendent l'idée et sont d'accord avec le fait que c'est normal que ces développeurs soient payés aussi; mais ils n'en financent pas pour autant les projets probablement car ils n'ont aucun pouvoir de ce côté là et ne vont pas se battre pour ça).

    J'ai aussi discuté avec des villes, notamment Lyon (il y a peu) car j'avais lu qu'ils étaient pro-libres sur le mandat en cours et faisaient des changements informatiques dans ce sens. On a eu un RDV avec un élu, gentil et qui s'est montré intéressé (il a posé pas mal de questions, clairement il était intéressé par comment était développé un tel logiciel), mais il nous a aussi très vite dit qu'ils n'avaient pas de service de développement, qu'ils n'avaient pas de sous, et que la seule chose qui s'en rapprochait était de répondre à des appels d'offre (mais il a lui-même vu que ce n'était pas ce qu'on recherchait et qu'on ne pourrait évidemment pas s'aligner face à des SSIIs spécialisés dans ce genre de dossier; honnêtement on savait pas trop nous même ce qu'on cherchait, c'était histoire d'avoir un contact et d'essayer de comprendre comment ils voyaient leur passage au libre et s'il y avait des choses envisageables à faire en lien avec eux). Encore une fois, je pense pas que c'est entièrement leur faute (ni de cet élu, ni des contacts à l'université). J'ai juste l'impression que le système entier sur lequel fonctionnent les institutions marche sur la tête. Tout simplement.

    En fait, je crois que trop de gens s'imaginent (parce qu'on lit régulièrement cette remarque) que c'est super facile et évident de trouver des sous, et que notamment les institutions en donneront. Mais si c'était si facile, ça se saurait! C'est pas impossible hein (enfin… peut-être?), mais encore faut-il accepter de passer son temps à faire cela.
    Et évidemment il y a aussi la question de savoir à quel point on accepte de faire des compromis sur ses valeurs. Je peux faire quelques compromis, mais il y en a certains, non. Par exemple, pas de pub. Aussi je refuse de travailler dans de mauvaises conditions ou de faire travailler autrui dans de mauvaises conditions (c'est à dire avoir un super salaire moi-même mais en exploitant une majorité de travailleurs). Ou de faire des coups bas pour un contrat. Ou de faire un truc nocif pour la planète ou pour les autres êtres vivants (animaux compris!). Etc. Malheureusement on se rend compte que dans ce monde, ça réduit drastiquement les possibilités d'obtenir de gros sous.

    Il y a aussi un autre point (ce n'est pas ce que tu dis, mais je rebondis dessus), qui est qu'il y a ce truc, pris pour acquis parmi les libristes, que le logiciel libre a un très bon business model avec du "service à côté du logiciel". Et le rare argent qu'on a des services publics ou des organismes de droit privé, c'est d'ailleurs par ce concept: on va bosser (par ex. donner des cours) personnellement, ou alors on fait une formation ou une conf payante au nom de l'asso, etc. Au final c'est du service autour de l'activité, qui nous fait perdre beaucoup de temps sur ce qu'on aimerait réellement faire.
    Tristement énormément de pro-libres semblent trouver cela super bien. Mais réfléchissons à ce que cela signifie: en vrai, ce qu'on dit aux gens, c'est que leur œuvre ne vaut rien, mais par contre, si vous nous l'installez, ou assurez du support, ou faites une formation (ou autre), alors là ça vaut quelque chose. Par contre, il faut bien sûr continuer à corriger les bugs et à faire évoluer le logiciel (c'est implicite!), sinon c'est absolument inacceptable (et possiblement peut induire une rupture de contrat du service). Donc on suppose encore et toujours que le développement logiciel est du travail gratuit. Et on nous demande de faire 2 ou 3 métiers à la fois (mais on ne nous paye que pour certains de ceux-ci).

    Perso j'aimerais être rémunéré pour coder sur GIMP et autres logiciels libres. Des dizaines de millions de gens utilisent notre code et le trouvent utile. Énormément de ces gens l'utilisent même professionnellement. J'ai pas envie de chercher des contrats de services (qui nous feront vivre mais nous empêcheront en fait d'améliorer GIMP ou de faire nos projets de films). Et donc le business model que je cherche, il se base sur ça: se faire payer pour le développement de communs logiciels et la production de communs artistiques.

    Ensuite je dis pas que c'est totalement impossible, mais à ce jour, le concept de "sponsor institutionnel" tient plus du rêve qu'autre chose pour nous (et certains en sont revenus; je me souviens — il me semble — d'un article de Framasoft qui disaient qu'ils en avaient marre d'espérer attendre quelque chose des services publics, et c'est à ce moment où ils ont changé leur manière de faire les choses et aussi qu'ils ont décollé en utilité et en reconnaissance internationale!). C'est sûrement possible pour ceux qui ont les "contacts" et "relations". Mais je viens pas d'une grande famille d'ingénieurs ou de politiciens, j'ai pas fait de grandes écoles, j'ai pas de potes parmi les dirigeants de ce monde. Pour nous, tous ces concepts de super sponsoring publics (ou privés), ce sont des trucs qu'on lit dans les journaux avec des gens de bonne famille, bien "entre soi", qui se donnent de l'argent entre eux. Pas la réalité des gens qui font des projets libres sans être "du milieu".
    Ensuite si ça change, soyez sûr que vous en entendrez parler sur Linuxfr. Si une institution décidait soudainement de nous soutenir avec du gros financement, je l'annoncerai fièrement haut et fort ici dans une news GIMP ou ZeMarmot!

    ps: la fondation Gimp a des sous, non ?

    Y a pas de fondation GIMP.

    (elle a une poignée de BTC en tout cas)

    Y a effectivement un portefeuille qui a débuté quand des gens ont insisté pour donner des bitcoins. Récemment ça a fait jaser quand certains se sont aperçus qu'on avait un million de dollars en bitcoin (c'était la période où c'était au plus haut; maintenant ce serait beaucoup moins). Depuis y a des gens qui croient qu'on est super riches et qu'on se la coule douce aux Bahamas (j'ai lu un commentaire, ou c'était un tweet peut-être, qui disait un truc du genre; limite d'après le message, on avait monté une grosse arnaque avec GIMP et les développeurs étaient super riches, en train de voler les gens; et c'est ainsi que les rumeurs commencent); certains ont aussi raconté qu'on faisait une sorte d'investissement bitcoin malhonnête (je sais plus le terme, mais y a un mot que certains ont sorti qui apparemment correspond à laisser des sommes dormir exprès pour de l'investissement, ou je sais plus quoi). Etc.

    La réalité, c'est juste qu'on sait pas comment utiliser cela. D'une part les bitcoins ne nous ont jamais intéressé (j'ai toujours eu une vision très mauvaise de ce système), donc on est vraiment très peu au fait des plateformes et de l'usage. L'entièreté du portefeuille nous a simplement été donnée par divers donateurs au fil des ans (et comme ça a commencé y a longtemps, sûrement à une époque où ça commençait à peine, avant que j'arrive moi-même, ça explique la somme). En second, aucun des organismes avec qui on est en relation ne sait quoi faire des bitcoins ni ne veut y toucher (et pas à cause des évènements récents! C'est un sujet qu'on a discuté depuis plusieurs années, on a essayé pas mal de se renseigner, on ne sait juste pas comment faire). Notre propre mini-asso, on ne va sûrement pas prendre de risque non plus, quand je vois que toutes les grosses fondations et assos refusent (nous on n'a pas de sous, pas d'avocats…). On ne va pas y balancer un million de dollars et se retrouver avec des histoires de détournement de fonds, blanchiment d'argent ou que sais-je que certains pourront inventer. Et personnellement, je vais pas mettre ça sur mon compte non plus, c'est sûr (même si j'aimerais bien! Ahaha). Faut dire ce qui est, c'est le genre de somme que j'ai jamais eu dans mon compte en banque! Et puis y a le fait que GIMP, c'est plus que quelques personnes. On fait quoi avec une telle somme tombée du ciel sans entité? On distribue ça chez les contributeurs? Franchement, tout ça, c'est la recette pour avoir des problèmes légaux, c'est tout.

    Les bitcoins, ceux qui sont dans le monde de la finance ou des gros sous, ils n'en ont pas peur et ils n'ont aucun problème à jouer avec. Peut-être même qu'ils trouveraient le montage financier à faire en 10 minutes. Mais le péquenaud moyen (je parle de moi et d'autres développeurs du logiciel), ce sont des trucs qui nous passent au dessus de la tête et nous font peur. L'argent qui tombe du ciel sans aucun cadre juridique, honnêtement, comment j'explique ça? Qu'est-ce que je mets dans ma déclaration d'impôts?

    Attention, je dis pas que c'est pas possible. Mais nous, on n'a trouvé personne pour nous expliquer comment faire (au "mieux", on trouve des gens qui nous disent "non mais c'est bon, t'auras pas de problème!", sans réellement se poser de question, sauf que c'est facile à dire quand c'est pas eux qui prennent les risques).

    Mais elle ne paie aucun développeur directement, c bien ça ?

    Pour payer un développeur, il faut une entité morale, des fiches de paie, ou des factures. Tu ne peux pas juste te virer des sous (ou les partager aux divers développeurs), de l'argent qui vient d'on ne sait où, et t'attendre à ce que tout se passera bien.

    Mais bon, c'est un sujet en discussion ou pas ?

    Il y a bien des discussions pour permettre du financement de développeurs. J'en parlerai s'il y a des choses concrêtes qui en sortent.

    En attendant, c'est déjà possible, juste sans point central. Il faut simplement donner aux financements existants (notre projet, ZeMarmot, pour tout notre travail sur GIMP (aussi sur Patreon), et le développeur de GEGL). Là ce sont des sommes bien fléchées, avec des entités légales, des procédures de rémunération dans les règles. Vous pouvez donner et être sûr que l'argent est utilisé pour ce pour quoi vous donnez. 😄
    Notons que c'est exactement la demande (payer le développement de GIMP) car vous financez bien le développement de GIMP avec ces 2 financements, même si ce n'est pas le nom de "GIMP" sur la devanture. C'est pareil car améliorer GIMP pour nos besoins professionnels fait partie intégrante du projet (et c'est pas du vent, on a toutes les années passées pour le prouver: on est responsable de la grosse majorité du code de GIMP depuis quelques années 😎).

    Ensuite on est conscient que certains veulent juste donner à GIMP, veulent absolument une entité centrale, et ne comprennent pas la décentralisation du financement. Donc on étudie la question. Mais il faut être clair: au final, on peut déjà financer le développement de GIMP.

    Merci à ceux qui le font d'ailleurs! 🤗

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Exemple : démarchage au CPF

    Posté par  (site web personnel, Mastodon) . En réponse au journal Piéger les démarcheurs abusifs. Évalué à 10.

    Ç'aurait été une arnaque selon les règles, mais non, c'était un peu plus honnête, il m'a juste demandé mon adresse électronique, celle inscrite sur le compte CPF, ce qui lui a suffit à me pré-inscrire à des formations.

    Au final tu lui as quand même donné ton adresse électronique. Ça m'aurait fait hésiter. En tous cas, c'est vraiment super, mais faut avoir un certain cran. Personnellement, jusque là, je me contente de leur dire que je suis pas intéressé, et je leur dis au revoir poliment (oui j'ai même du mal à ne pas être poli! C'est le niveau où j'en suis! Alors monter un piège aux arnaqueurs!…).

    Sinon 2 questions:

    1. C'était quand? On en parlait récemment après un article; et après une recherche rapide, j'ai pu confirmer qu'il y a une loi qui interdit tout démarchage pour une formation CPF, adoptée ce 8 décembre, avec 375 000 euros d'amende pour une personne morale (donc l'organisme de formation, mais aussi le sous-traitant? Ou l'un d'eux paye pour les 2? Ou ils partagent l'amende?). Par contre, je vois qu'il semblerait y avoir une troisième étape, non encore passée, "promulgation", qui d'après Wikipédia serait la mise en vigueur? Si c'est le cas, je suis un peu déçu, car ça veut dire que ce n'est pas encore applicable, ou je me trompe? (je ne suis pas le plus au fait sur le parcours d'une loi)

    2. Si ce n'est pas en vigueur, quelle est la base pour dire que c'est illicite? C'est parce que tu es sur Bloctel (le cas "automatiquement illicite" que tu cites)? Parce qu'hormis cela, il faudrait par exemple prouver qu'ils ont eu ton numéro de manière illicite (c'est à dire qu'un organisme leur a donné alors que tu avais explicité refusé, ou simplement rien accepté; mais comment prouver cela?).

    Sinon similairement à ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ plus bas, il y a aussi la question de savoir s'ils auront vraiment une amende. Ils pourraient se retourner en disant qu'ils n'ont jamais appelé (c'est alors une parole contre une autre). Pour vérifier les dires, il faudrait qu'un juge acte pour avoir accès aux appels téléphoniques, mais le feraient-ils sur le signalement d'une personne seulement (je doute malheureusement que beaucoup signalent et au final, chaque organisme a probablement un ou 2 signalements à peine à leur actif)?

    D'ailleurs le fait d'utiliser (très vraisemblablement, comme tu le dis toi-même) des sous-traitants peut aider d'autant plus à brouiller les pistes puisqu'on ne trouverait aucun appel de leur part. Il faudrait alors regarder ta propre liste d'appel (mais tu en aurais été averti si un juge avait autorisé cela, je pense) pour retrouver d'abord l'intermédiaire, puis prouver le lien avec l'organisme de formation. Alors techniquement tout cela est très simple, et en fait c'est même super rentable (à la fin, 375k à la clé pour le gouvernement, ça vaut largement le temps du juge et de la police surtout que toute la procédure ne devrait pas prendre plus de quelques heures si faite efficacement). Sauf que dans les faits, on sait que ce genre de plaintes a plutôt tendance à faire lettre morte.

    Quand je vois le nombre d'arnaques qui se font impunément, où les arnaqueurs ne cherchent même pas à cacher leurs numéros de téléphone, et où la police ne fait rien (car chaque arnaque individuellement fait juste perdre quelques euros — voire rien du tout à l'individu dans le cadre des formations s'ils ont les droits suffisants! — donc la police estime qu'on est à peine lésé).

    Attention, j'ai l'air de faire l'avocat du diable, mais c'est uniquement que je suis blasé car — comme tu peux t'en rendre compte — je n'ai plus grande confiance en notre justice (j'ai eu un cas moi-même, rien à voir avec du démarchage, mais un cas tellement évident qui n'a pourtant mené à rien et sans jugement au final sur des points administratifs; et c'est là qu'on comprend que la justice ne marche pas pour les petits péquins comme nous). C'est juste les entreprises ou les riches qui font leurs arnaques au grand jour, qui ont des avocats, et qui en général s'en sortent par des procédures administratives.

    D'ailleurs y a-t-il le moindre suivi des réclamations que tu fais (tu l'as fait sur ton compte bloctel j'imagine)? Ou il n'y a plus aucune nouvelle après, notamment tu ne sais même pas si ça part dans /dev/null ou s'il y a eu la moindre action de faite?

    Quand je vois sur le site bloctel qu'ils mettent un gros bandeau pour se vanter d'une sanction de 11700 euros contre un organisme qui fait du démarchage, on se dit que ça doit être un fait super rare d'être réellement sanctionné, pour ainsi en mettre un seul en avant. Ce qui serait mieux serait plutôt un vrai fil de "news" et qu'on y voit sans arrêt passer des annonces d'arrêt de justice à l'encontre de contrevenants (y a largement de quoi quand je vois le volume; moi encore j'en ai peu, un peu toutes les semaines, mais j'ai quelqu'un de ma famille par exemple qui reçoit plusieurs appels par jour! C'est effarant quand je vais chez elle; je vais lui demander si elle s'est inscrite sur bloctel tiens!). Mais je me fais des illusions!

    Enfin bon, ça reste génial ton truc; je sais pas si j'aurai le courage de monter des "pièges" mais pour le coup, au moins tu m'as inspiré et je me suis inscrit sur bloctel à l'instant. Je vais m'empresser d'au minimum signaler les SMS de démarchage que j'ai reçus. J'y crois pas mais qui sait si j'arriverai un jour à être désillusionné de notre système de justice.

    D'ailleurs les arnaques évidentes (qui ne sont pas réellement du démarchage), je suppose qu'on ne doit pas faire doublon et ne pas les envoyer à bloctel. Par exemple ces derniers temps, j'ai reçu de faux SMS de livraison ou de faux SMS "votre carte vitale est prête" avec à chaque fois une URL sur un domaine évidemment monté pour l'occasion (qui va probablement vous demander plein de données perso; j'ai évidemment pas cliqué pour vérifier!). Perso je ne les rentrerais pas en démarchage illicite, ce sont des arnaques (on se fait passer pour autrui et on monte une histoire de toutes pièces) et donc à transférer au 33700.

    J'ai un dernier cas: des fois, on reçoit des appels et quand on répond, il n'y a rien. Personne parle. Ça m'arrive de temps en temps. Mais je ne saurais pas classer cela.

    En tous cas, merci pour le journal. C'était intéressant. 😄

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

  • [^] # Re: Une petite question

    Posté par  (site web personnel, Mastodon) . En réponse au lien CPF et Qualiopi. Évalué à 10.

    Bah c'est comme toujours: des entreprises fraudent? Faisons payer les citoyens (donc les victimes dans les affaires de fraude citées)! Logique quoi! 🙄

    De toutes façons, l'article dit aussi bien que les fraudes, ce n'est que secondaire. Pour le gouvernement, c'est apparemment assumé de diminuer les dépenses en rendant moins attrayant de se former.

    Mais revenons aux fraudes. Franchement les démarchages de ces entreprises bidons, j'en ai aussi reçu pas mal, par SMS mais aussi par appel téléphonique. Ce ne sont pas des numéros cachés, tout le monde en reçoit (c'est d'ailleurs écrit dans l'article) donc c'est pas comme si ces arnaqueurs étaient bien cachés et pas faciles à débusquer. Et si… soyons fous! Et si on allait enquêter sur ces personnes qui appellent et envoient des SMS impunément? D'ailleurs l'article dit que c'est interdit maintenant (j'ai fait une recherche, c'est une loi adoptée depuis le 8 décembre apparemment avec de belles amendes à la clé! Au moins cet article m'aura appris une chose et la prochaine fois que je reçois un tel appel, je dirai à la personne qu'elle risque une amende de 75000 ou 375000 euros! Je me rappelle encore avoir été démarché y a une semaine, mais sûrement juste avant l'adoption de la loi). Mais même avant toute loi spécifique au CPF, il était évident que ce sont des sociétés qui s'assoient sur la loi car le démarchage en général est déjà bien réglementé et ne peut pas être fait n'importe comment. Si ces sociétés ont des numéros de téléphones tels le mien, alors que je refuse systématiquement les démarchages et le partage de mes coordonnées à des "sociétés partenaires", c'est bien qu'il y a anguille sous roche. Et puis soyons clair: une société qui a besoin de recourir à ce type de méthode n'est pas nette à la base (non, faire chier les gens qui n'ont rien demandé n'est jamais une bonne méthode; on le sait qu'au final ceux qui se font surtout avoir par ces méthodes de démarchage direct sont soit les personnes âgés — bon sûrement moins dans le cas de formations, mais je parle du démarchage en général — soit les jeunes encore incertains de l'avenir, donc finalement les personnes les plus affaiblies de la société).

    Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]