Les aliments modernes posent divers problèmes mais l'alimentation d'autrefois n'étais pas si folle.
Personne n'a dit le contraire, mais ça ne change pas le fait que l'obésité est 1) une maladie mortelle, et 2) simple et gratuite à soigner. Simple, ça ne veut pas dire facile, puisque les obstacles sont principalement de nature psychologique, et que la psychologie c'est toujours problématique. Mais cette tendance à chercher à mentir aux obèses, je trouve ça débile : bien sûr que c'est de ta faute si tu es gros, et ça ne tient qu'à toi d'arrêter de l'être.
il ne sont pas adapté à se nourrir "normalement"
C'est juste que "à sa faim" ça n'est pas "normalement". Chez tous les animaux, la nourriture à volonté réduit l'espérance de vie; le corps est conçu de manière à avoir besoin de moins que ce que tu voudrais.
Il reste toujours qu'il faut mettre la vaisselle dans le lave-vaisselle et l'en sortir
Je n'arrive toujours pas à comprendre ton argument. Disons que dans la vie il y a deux corvées, visser des vis et planter des clous. Quelqu'un invente le tournevis électrique, qui te permet de visser des vis sans efforts. Ton argument c'est donc : "Cet outil est pourri, il ne plante pas les clous". Bah non, il n'est pas pourri du tout, il n'a jamais été fait pour planter les clous. Il visse les vis, et il le fait bien. Plutôt que de te réjouir de ne plus avoir de corvées de vis, tu préfères râler sur le fait qu'il faille encore planter les clous.
Au passage, les robots de SF ne sont pas toujours des esclaves sans cerveaux. C3PO et R2D2 sont plus des chatGPT à roulettes que le robot qui fait la vaisselle dont tu sembles rêver. Certains auteurs du XXe siècle avaient donc anticipé qu'il serait peut-être plus facile de créer des robots-cerveaux que des robots-corps, ce qui est tout à leur honneur parce que ça n'était pas mon intuition. En particulier parce qu'on utilise depuis longtemps les animaux pour leurs corps, donc on sait exploiter ça, mais on n'a pas dans notre entourage naturel des "cerveaux" à exploiter, donc on ne sait pas faire.
Une IA peut écrire 24 nouveaux préludes et fugues pour faire un troisième livre du clavier bien tempéré.
Ça, ça me parait chaud quand même. Elle pourrait produire des partitions qui au premier abord pourraient ressembler à ce que tu voulais, avec les bonnes tonalités dans le bon ordre, mais je ne pense pas que ça tromperait un musicien. Ça m'étonnerait que l'IA puisse prendre en compte les contraintes de l'instrument par exemple (le fait que certains passages puissent être bien plus difficiles à jouer dans certaines tonalités), et surtout… une fugue, c'est un exercice très complexe, il faut que ça s'assemble localement (le contrepoint, ça je pense que l'AI peut gérer) mais aussi globalement. Quand tu introduis le contre-sujet à la mesure 3, il faut déja que tu penses à quand il passera sous le sujet 50 mesures plus loin; pas sûr qu'un algo de machine learning puisse faire ça sans entrainement spécialisé (on lui fait produire des milliers de fugues et on pénalise celles qui ne 'fonctionnent' pas, ça ça pourrait le faire avancer).
Dans tous les cas, j'imagine qu'il manquera l'originalité et les variations des compositions originales, mais je me trompe peut-être.
J'ai pas du tout ce sentiment concernant l'art. Je suis désolé, mais si j'écoute une chanteuse de blues, je n'éprouve absolument pas la même chose qu'en écoutant un morceau synthétique pourtant identique. Si on me fait croire que c'est une chanteuse de blues, alors peut-être, mais si je sais que c'est purement artificiel, alors, … ben non.
Est-ce que ça ne revient pas à dire que la démarche de l'artisanat fait partie de ce que tu cherches quand tu écoutes de la musique? L'artisanat est une démarche qui a de la valeur en elle-même.
Un exemple qui me frappe par exemple, c'est que la très grande majorité des concerts sont maintenant amplifiés, même s'ils font appels à des instruments acoustiques. Techniquement, n'y a aucune différence entre écouter un enregistrement et écouter un instrument amplifié. Mais voir les musiciens jouer en direct pour toi, venir tous les soirs pour jouer la même chose, ça n'est juste "pas pareil". Ça n'est pas une différence technique, c'est juste que ça veut dire quelque chose d'être dans la même pièce, avec des musiciens qui ne sont là que pour les spectateurs, et des spectateurs qui ne sont là que pour les musiciens. C'est ça qui a de la valeur. Comme l'artisan qui te fait un objet imparfait plutôt que l'usine qui te fait un objet parfait.
L'IA ne fera pas de notre monde un monde meilleur ou pire, elle fera un monde différent
Pour l'instant, le mode de fonctionnement des IA n'en font que des outils, certes impressionnants, mais dont les capacités restent confinées à leurs données d'apprentissage. Donc oui, pour l'instant, l'IA est un outil. Mais je n'ai aucune idée de la distance qui pourrait nous séparer de la singularité technologique, parce que la singularité, ça n'est pas la même histoire du tout. C'est vraiment un saut complet dans l'inconnu, une sorte de transition technologique que l'humanité n'a jamais connue, donc bien au delà d'un monde marginalement différent.
C'est comme beaucoup de choses, les gens qui pensent "je n'aime pas X" écrivent "X c'est de la m*", et comme ils n'aiment pas, ils n'utilisent pas, et comme ils n'utilisent pas, ils ne connaissent pas.
Pour l'IA, tu as toujours les mêmes formules qui tournent : Gafam, énergivore, bulle spéculative, vie privée, hallucinations, médiocrité, esclaves africains, manipulation, etc. Mais ce ne sont que des mots et des arguments entendus ailleurs. Par exemple, je n'ai jamais lu quoi que ce soit de raciste en sortie d'un LLM. Les LLM reflètent forcément leurs données d'entrainement, donc évidemment, s'il y a des trucs racistes dans les données, les LLM peuvent sortir théoriquement des trucs racistes, surtout si on insiste sur certains sujets. Sauf que si on leur demande une recette de cuisine ou un algo de tri à bulles, c'est peu probable que la réponse soit raciste… Parmi tous les gens qui accusent les LLM d'être racistes, combien ont-il réellement eu une telle expérience sans avoir soigneusement élaboré un prompt conçu pour déclencher une telle réponse?
Sur le plan de la logique du raisonnement, l'inversion des causes et des conséquences, je ne comprends pas. Ça n'est pas comme ça que la logique fonctionne. "Vladimir Poutine est un dangereux personnage" -> "Il a un cancer et ne va pas durer longtemps". "Je ne veux pas changer mes habitudes" -> "Rouler en SUV ne contribue pas au réchauffement climatique". "J'ai peur que les IA prenne les boulots des humains" -> "Elles sont médiocres et elles hallicinent tout le temps". Je veux dire, ça ne vous semble pas évident qu'il n'y a aucun lien logique entre ce qui est vrai et ce que vous aimeriez être vrai? Je n'ai pas l'impression que ça demande des compétences pointues en épistémologie.
Après, pour l'utilisation pour la vie quotidienne, ça n'est pas loin du déni. Moi pendant 20 ans mes parents m'ont raconté "on aime bien faire la vaisselle, et puis un lave-vaisselle ça ne sert à rien, ça tombe toujours en panne, il faut prélaver, etc etc". Et puis un jour ils ont acheté un lave-vaisselle, et je n'ai plus jamais entendu ça.
La seule réponse possible est donc: "OK, tu penses ne pas avoir besoin de cet outil et c'est très bien. Tu n'as pas à te justifier ou à relayer des arguments sur un sujet qui ne t'intéresse pas."
C'est un peu la mode de critiquer une prétendue grossophobie du corps médical ou des instances publiques, mais surmédicaliser le traitement de l'obésité ne va rien résoudre. Ça va engraisser les big pharma avec leurs coupe-faim, et ça va entretenir toute une galaxie de coaches - psychologues - nutrimachins qui ont plus intérêt à se rendre indispensables qu'à régler les problèmes de poids. Sauf problème physiologique rare, tu n'as que deux leviers sur le poids: la diète et l'activité physique. Il y a 100 ans il y avait très peu de gros, et pourtant leur biologie était exactement la même que la notre. C'est juste qu'ils bouffaient moins, mieux, et qu'ils se bougeaient plus. La question n'est pas quoi faire, c'est plutôt comment l'intégrer dans une vie compliquée. Mais c'est de la pseudoscience de faire croire qu'il y a des questions sur quoi faire.
Mais bloquer la création pour les préserver, c'est les aider eux soit, mais de quel droit bloquer le reste des 99% de la population qui ne pourra alors pas d’œuvres de meilleurs qualité?
C'est peut-être heureusement ou malheureusement, parce que c'est difficile à dire, mais la culture "made in IA" a un problème majeur : elle n'est pas copyrightable dans l'état actuel du droit. Une IA ne peut pas s'inscrire à la SACEM, elle ne peut pas nommer un producteur comme ayant-droit, etc. Bizarrement, toute cette production culturelle IA serait donc dans le domaine public, et ne pourrait bénéficier que très marginalement à l'industrie de la culture. Bien sûr, des "parades" vont être essayées : attribuer les oeuvres à des prête-noms humains, prétendre que les activités annexes (ingé son, marketting…) sont des oeuvres de l'esprit qui se superposent à l'oeuvre de l'AI, ou faire changer les lois. Mais à mon avis, c'est là un risque majeur pour l'"industrie" de la culture à trop utiliser l'IA, puisque leurs revenus dépendent principalement des droits d'auteur. Ça pourra peut-être protéger au moins un temps les créateurs artistiques humains.
L'IA telle qu'elle existe actuellement peut quand même te libérer de certains corvées intellectuelles. Elle pourrait par exemple te servir d'assistant personnel ("Avez-vous pensé à appeler le ramoneur?", "votre contrôle technique arrive bientôt, dois-je prendre RDV pour vous?", etc), elle pourrait aussi remplir des documents administratifs, te prévenir en cas de mouvements suspects sur tes comptes, filtrer tes appels téléphoniques, s'accorder avec les IA des autres pour trouver des crénaux communs pour les RDV… Pour l'informatique par exemple, elle pourrait rédiger la doc, répondre aux questions des utilisateurs, gérer le flux des rapports de bugs, éventuellement reproduire les bugs voire proposer des patches, elle pourrait permettre des refactoring de code massifs, des optimisations agressives, elle pourrait maintenir des distributions, maintenir les systèmes… Ça n'est pas parce qu'elle ne peut pas intervenir sur le monde réel qu'elle est inutile, on a plein de corvées intellectuelles!
Je ne pense pas que personne n'a suggéré d'interdire les activités créatrices. Même dans un monde où on lirait des livres rédigés par l'IA et regarderait des films réalisés par l'IA, n'importe qui pourrait s'adonner à la peinture, à l'écriture, ou à la musique. C'est juste qu'on ne pourrait probablement pas en vivre, ce qui ne changerait pas grand chose puisque peu de gens vivent de la peinture ou de la musique…
Après, les avancées technologiques, c'est difficile de les prévoir. Ça fait 50 ans qu'on voit des prototypes de robots, et à part les bras articulés dans les usines il ne se passe rien du tout, c'est toujours des humains qui ramassent les poubelles. Par contre, il y a des avancées considérables sur les tâches cognitives qu'on pensait inaccessibles. C'est bizarre, mais ça ne se décide pas.
Ça n'est pas la même chose que d'utiliser des processeurs conçus par des algorithmes bien plus avancés que n'importe quel humain? Quand tu as besoin d'une pièce usinée avec une précision de 10 microns, tu ne vas pas demander à un artisan. Par contre, pour une oeuvre culturelle, c'est plus légitime, il semble raisonnable de chercher quelque chose issu d'un cerveau humain.
Mais tout raisonnement a des limites. Les joueurs d'échecs professionnels prennent souvent leur pied à regarder et analyser des parties d'ordinateurs par exemple, parce que justement les ordinateurs jouent quasiment à la perfection, alors que le jeu humain est caractérisé par des approximations, des pièges, ou des erreurs. Une partie d'échecs, ça c'est un superbe exemple d'oeuvre de l'esprit; certaines sont ennuyeuses, d'autres sont flamboyantes, toutes disent quelque chose sur la personnalité de leurs auteurs… et pourtant les ordinateurs mettent 800 points Elo aux meilleurs humains depuis l'intégration de réseaux de neurones aux algos minimax traditionnels, et certaines parties d'ordinateur sont particulièrement esthétiques, avec des sacrifices positionnels par exemple.
Qui est ou paraît inventé, imaginé sans aucun souvenir qui précède.
Autrement dit, qui sort de l'ordinaire. Dans ce sens, la très grande majorité des livres ne sont pas "originaux", donc j'ai du mal à connecter ça au droit d'auteur. Je pense que le droit d'auteur fait référence au sens 1,
Qui n’a pas été fait d’après un modèle et qui sert ou servira de modèle pour des copies ou des imitations.
Mais franchement je ne vois pas ce qu'apporte la notion d'originalité, puisqu'une oeuvre de l'esprit est définie par l'expression de la personnalité de l'auteur. C'est d'ailleurs pour ça que des textes médiocres bénéficient de la protection du droit d'auteur, puisqu'on peut même aller jusqu'à avancer que la médiocrité reflète la personnalité de l'auteur.
Il existe d'autres définitions d'"original", comme par exemple le synonyme de "farfelu", mais je ne pense pas que c'est ce dont il s'agit ici.
Dans tous les cas, un LLM est tout à fait capable de produire quelque chose d'original, dans tous les sens du terme d'ailleurs. Un LLM n'imite pas les textes, il imite la manière dont les textes sont construits, ce qui fait qu'il peut tout à fait produire des associations d'idées ou des récits qui n'ont jamais été faits avant. Bien sûr, l'originalité peut venir du prompt, mais pas nécessairement, je viens de demander au chat de Mistral "raconte une courte histoire mettant en scène trois animaux de ton choix (sois original pour choisir les animaux)", et il commence avec "Il était une fois, dans une forêt enchantée, un trio d'amis insolites : un paresseux nommé Léo, un suricate appelé Zoé, et un caméléon prénommé Oscar.", ce qui ne semble pas moins original que ce qu'un humain aurait fait à la place. On ne parle pas du Nobel de littérature hein, mais jusqu'à preuve du contraire le droit d'auteur concerne toutes les productions et pas seulement les bonnes.
La seule raison pour laquelle la production d'un LLM ne bénéficie pas de la protection de la propriété intellectuelle est que seuls les humains peuvent prétendre à des droits d'auteur (par exemple, les dessins de chimpanzés ne sont pas protégés). Mais ça serait totalement absurde de baser la non-protection sur la non-originalité des LLM, puisque ça ouvrirait nettement la possibilité de leur accorder des droits dès qu'un seuil d'originalité serait franchi, ce qui n'est qu'une question de temps.
Ce qui fait la qualité d'une œuvre, c'est son originalité.
Vraiment? J'ai lu des livres originaux qui étaient pourtant très mauvais… Au contraire, il a dû m'arriver d'apprécier certains livres qui n'étaient pas vraiment originaux, mais sans connaitre les oeuvres dont ils étaient inspirés, ils m'ont semblé intéressants.
Je pense que c'est un faux débat. D'une part, une IA n'écrit pas un livre tout seul. Il faut quelqu'un qui supervise l'IA, qui lui fait réécrire les passages mauvais, qui lui fait rectifier les incohérences, etc. D'autre part, le problème n'est pas de lire quelque chose d'écrit pas une IA, surtout si c'est un livre technique, le problème c'est de le faire sans le savoir. En particulier, comme il n'y a pas de droits d'auteurs quand il n'y a pas d'auteur, ces livres seraient de facto dans le domaine public.
Depuis le début je trouve que l'urgence est d'établir un délit et des peines très dissuasives pour toute tentative d'"usurpation d'humanité", c'est à dire quand on fait passer une IA pour un être humain. Ça ne poserait aucun problème dans aucune circonstance de débuter toute interaction avec une IA par une indication claire sur sa nature, parce que faire interagir les gens avec des IA sans le savoir me semble être une violation profonde des droits humains.
Si tu publies un livre clairement identité comme écrit ou co-écrit par une IA, le lecteur sait exactement ce qu'il va lire, et ça ne me pose aucun problème.
En plus, ces histoires d'originalité, c'est beaucoup de blabla théorique, parce qu'en pratique les LLM sont capables de proposer des récits assez plaisants si on leur fournit un prompt original. Si vous avez des enfants, vous pouvez essayer, ils adorent : vous demandez à chatGPT ou autre une histoire qui se lit en 5 minutes pour des enfants d'un âge donné, et vous demandez aux gamins ce qu'il doit y avoir dans l'histoire (des extraterrestres roses, des joueurs de foot, un chat qui parle chinois, etc); c'est super interactif, on peut avoir des illustrations de l'histoire, et la session de question/réponse à la fin est toujours impayable ("comment les extraterrestres font pour comprendre le chat vu qu'il parle chinois", etc). En plus ils finissent toujours par coincer l'IA et "ah bah ça il ne sait pas parce que c'est un robot et qu'il est bête". Franchement, c'est bien plus rigolo que de relire pour la 127e fois une resucée d'un compte de Grimm où les parents tabassent leurs gamins et où les filles ne peuvent pas sortir sans se faire aborder par des loups libidineux (ils étaient du Nord Pas-de-Calais les frères Grimm?).
dans l'idéologie qui considère légitime d'anéantir l'œkoumène pour substituer aux humains des IA
Je ne vois pas d'autres manières d'interpréter cette phrase autrement… Tu écris textuellement que l'utilisation des ressources de l'environnement pour construire des machines est une idéologie, et j'en doute largement sauf à réviser le sens d'idéologie. Par contre, pas sûr pour ékoumène, qui désigne les milieux habités/anthropisés, donc peut-être le contraire de ce que tu voulais dire (milieux naturels?). Quand on construit un datacenter au milieu de la forêt Amazonienne, on étend l'écoumène, et on détruit des milieux naturels…
Du coup c'est proche de la bulle internet, ça ne veut pas dire qu'il n'y a aucune utilité absolue, que rien n'en ai survivra mais ça ne peut très probablement pas continuer indéfiniment comme ça, ni même se stabiliser à ce niveau.
Je ne suis pas du tout expert du marché de l'AI, mais en tout cas le plan est clair pour OpenAI, avec un objectif de rentabilité en 2029. Ils visent un CA de 100 milliards à cette date, c'est 3 fois moins de Microsoft par exemple. Ça ferait par exemple un abonnement à 20€/mois pour 500M de personnes, ça ne parait pas délirant, le marché semble plus gros que ça (notamment avec les assistants personnels etc).
Et dans l'idéologie qui considère légitime d'anéantir l'œkoumène pour substituer aux humains des IA
J'ai l'impression que tu mets beaucoup de choses dans "idéologie", je ne mettrais pas l'invention et l'utilisation d'outils dans "idéologie" puisque ça fait partie de la définition de notre espèce. L'utilisation du langage articulé et symbolique n'est pas non plus une idéologie, ou alors tu dois accepter que certaines idéologies ne peuvent pas être abandonnées sans abandonner notre nature d'êtres humains…
L'IA est une machine à "penser" autant qu'une pelleteuse est une machine à creuser, qu'une calculatrice est une machine à calculer, ou qu'un arc est une machine à chasser. On invente des outils sophistiqués qu'on appelle "machines" et on les utilise pour faire des choses à notre place, plus rapidement et avec moins d'efforts, pour des résultats parfois supérieurs ou parfois inférieurs en fonction de la tâche et de la qualité des outils. On a toujours inventé des outils et on n'est pas cablés pour abandonner l'utilisation d'outils parce que c'est "mauvais" (pour nous, pour la planète, pour notre avenir économique, etc).
Le système capitaliste remplace massivement le travail humain par des machines parce que c'est moins cher, que c'est plus efficace, que c'est plus pratique, et que ça fait gagner plus d'argent. Au niveau général, ça permet de produire plus de biens en travaillant moins (travailler moins pour gagner plus).
Ce qu'on n'a pas, c'est le moyen de redistribuer "équitablement" ces biens. Ce qu'on fait comme des ânes, c'est qu'au lieu de travailler moins pour un niveau de vie égal, on veut un niveau de vie supérieur—donc on travaille toujours autant, voire plus. Le difficile équilibre nécessite de recycler le boulot remplacé par les machines par des boulots que les machines ne savent pas encore faire; ça crée du chômage et une obsession pour la croissance, l'innovation, et l'exploitation déraisonnable des ressources naturelles.
Le quête du niveau de vie supérieur est assez légitime, et je ne suis pas sûr qu'elle soit particulièrement idéologique. Il n'y a pas que l'accès frénétique à des merdouilles en plastique livrées par Amazon en colis express; manger bio, ça fait partie du niveau de vie, comme l'amélioration de la qualité de l'air, l'accès à des technologies médicales efficaces, l'amélioration des connaissances scientifiques, l'accès à la culture, à l'éducation, les voyages, les services à la personne, la sécurité, les logiciels fonctionnels et non-merdifiés… Donc remplacer le travail manuel par des outils de plus en plus efficaces, je ne sais pas si c'est "raisonnable", mais c'est inévitable parce qu'on le fait depuis des millions d'années, qu'on est cablés comme ça et qu'on n'a aucune intention de renoncer aux avantages.
Par contre, je ne suis pas sûr qu'il soit complètement légitime de parler de bulle. Disons que c'est toujours compliqué; quand tu as un nouveau marché qui intéresse les investisseurs, ça va drainer les capitaux, et les entreprises vont avoir tendance à être valorisées, les investisseur prédisant un très fort retour sur investissement à long terme. Mais vu les incertitudes sur l'avenir du marché de l'IA, ça me semble présomptueux de penser que ce retour est surestimé. Les valorisations boursières de Microsoft ou d'Apple dans les années 1990 n'étaient pas des bulles, ces entreprises ont réellement versé beaucoup, beaucoup d'argent à leurs actionnaires dans les années qui ont suivi.
Au niveau des LLM par exemple, dans beaucoup d'entreprises, les salariés utilisent les accès gratuits de manière "pirate", en y copiant-collant tout et n'importe quoi, y compris des données sensibles. Ça me semblerait logique pour n'importe quelle entreprise de payer un abonnement pour contrôler le devenir de ces informations et pour conclure un accord de confidentialité, et ça ça peut rapporter beaucoup aux boites qui fournissent les LLM, "beaucoup" veut probablement dire des centaines de milliards globalement.
Ça me semble par exemple assez différent de la "bulle internet", ou des entreprises qui fournissaient des services gratuits à beaucoup d'audience mais sans aucun business model étaient valorisées à des niveaux sans commune mesure avec leur capacité à rapporter de l'argent. Là pour le coup c'était vraiment une bulle spéculative, puisque tout le monde était à peu près au courant que les actions étaient surévaluées.
Du coup, si les LLM font pshit dans les années qui viennent, oui, c'était peut-être une bulle, mais je trouve difficile de partir de ce principe actuellement, à moins de changer la définition de "bulle" pour y inclure tous les marchés qui attirent les investisseurs. En tout cas, les LLM c'est pas pareil que les NFT.
Je dis ça je ne dis rien, mais la chauffe du moteur à l'arrêt est souvent conseillée par les constructeurs; quand le moteur est froid l'huile est en bas et visqueuse, et la lubrification correcte n'est atteinte qu'après quelques minutes de fonctionnement. Je ne dis pas que je fais ça, hein, mais disons que ça n'est pas aberrant non plus, un moteur thermique doit être chaud pour fonctionner correctement, tout comme les organes de dépollution (pot catalytique, etc).
Note aussi que la note que tu as mises sur la première page ne dit probablement pas ce que tu veux. Il semble autorisé de retirer le nom de l'auteur, de le changer par celui d'une autre personne (tant que ça n'est pas celui qui fait le changement), et de retirer ou modifier cette note de licence (ce que même la WTFPL n'autorise pas). Par ailleurs, cette note est objectivement diffamatoire, et elle ne pourrait jamais être reproduite par un éditeur (mais heureusement, elle n'interdit pas de la retirer, donc rien de grave). Par contre, si tu ne souhaitais pas qu'on puisse la retirer et la remplacer par n'importe quoi lors de la rediffusion, il aurait fallu utiliser une licence écrite par des professionnels…
Posté par arnaudus .
En réponse au journal Écrivain libre.
Évalué à 4 (+1/-0).
Dernière modification le 22 avril 2025 à 15:08.
Les licences WTF sont aussi une occasion d'écrire la licence la plus simple qui nous convient.
Mais comme elle ne te convient pas, je suis un peu paumé. Tu l'appelles comme tu veux ta licence, mais il faut qu'elle contienne les termes qui conviennent à la manière dont tu veux diffuser ton truc. "WTFPL" n'est pas juste un nom qui fait punk, elle dit "j'abandonne tout droit sur ce contenu". Or, ça n'est pas ce que tu veux faire, donc il te faut une autre licence.
j'ai pas envie de prendre une licence logicielle ou artistique car c'est mon envie.
Là aussi, je suis un peu paumé. Tu veux diffuser quelque chose en donnant des droits aux utilisateurs; si tu diffuses sans licence c'est par défaut le droit d'auteur le plus strict qui s'applique. Si tu veux diffuser librement, il faut donc obligatoirement diffuser avec une licence. Tu l'appelles "logicielle", "artistique", "WTF", comme tu veux, mais il te faut un texte qui s'appelle une licence et qui donne les conditions de diffusion.
Et pour la justice, je me suis déjà fait piqué du code sous licence libre (pypi-stats)
Je ne connais pas les détails, mais pypi-stats est sous licence MIT, qui est très très proche dans l'esprit de la WTFPL. Tu veux dire que du code à toi (sous une licence non-compatible MIT) s'est retrouvé dans pypi-stats (sous licence MIT), ou que le code de pypi-stats MIT s'est retrouvé diffusé dans des circonstances interdites par la licence (ce qui est assez difficile vu la permissivité de la licence MIT, qui n'impose même pas de garder le nom des auteurs)?
Après, faire valoir ses droits, oui, ça peut être long et coûter un peu d'argent (pas forcément beaucoup si on ne prend pas d'avocat). Il faut savoir ce qu'on veut, soit c'est important pour toi soit ça ne l'est pas. Note aussi que ça serait beaucoup moins problématique si tu adhérais à un syndicat d'auteurs par exemple, qui mutualise la défense des droits des auteurs (je ne pense pas que ça existe pour le libre, par contre). C'est comme ça que les auteurs font peur aux gros éditeur, en se regroupant en syndicats.
C'est pour ça que la divulgation est importante car quelque soit la licence, l'œuvre est protégée dès ce moment, et sert d'acte antérieur si besoin.
… sauf quand tu diffuses sous WTFPL, puisque tu renonces à tout droit d'auteur (elle n'est donc plus protégée).
C'est pas évident ces histoires de licence, et c'est pour ça qu'il faut choisir une licence adaptée rédigée par des juristes. Là, dans le contexte, j'aurais par exemple super peur d'imprimer et de vendre un de tes livres parce qu'il me semble qu'il y a un risque sérieux qu'on ne puisse pas faire confiance à la licence sous laquelle ils ont été distribués. Si j'avais envie de mettre une croix gammée sur la couverture pour les vendre à des néo-nazis (l'argent n'a pas d'odeur), je ne voudrais pas que tu reviennes sur les termes de la WTFPL en demandant de faire retirer ton nom ou un truc comme ça pour des raisons de droit moral inaliénable malgré les termes de la WTFPL.
J'utilise la variante « licence anti gad elmaleh »
Bah du coup tu disais WTFPL, mais en fait c'est pas vraiment la WTFPL. Pourquoi pas une CC0 ou une licence BSD-like, qui me semble en fait bien plus adaptée et bien plus claire?
Le droit de paternité est inaliénable et incessible
Non mais ça c'est bizarre. Quand tu publies sous WTFPL, tu affirmes explicitement que tu abandonnes la totalité de tes droits. Et là, tu pars du principe que non, en fait, une particularité de la loi française fait que tu as distribué un truc avec comme consigne "You do what the f*** you want", mais qu'en fait si tu distribues sous ton nom, si tu l'utilises pour faire de la propagande électorale, pour arnaquer les petits vieux, pour entrainer les IA, ou je ne sais pas quoi, tu te réserves le droit d'utiliser les droits moraux. Je ne comprends pas où tu veux en venir, il y a tout un tas de licences libres ou non-libres qui sont très explicites sur ce que tu as le droit de faire ou non, donc pourquoi ne pas les utiliser?
les « auteurs » qui ont pignon sur rue s’embarrassent pas vraiment du droit d'auteur eux mêmes.
Les gens qui ont des grosses voitures ne s'embarrassent pas des limitations de vitesse, mais ça n'empêche pas qu'ils n'ont pas le droit et qu'ils vont avoir des problèmes avec la police et la justice. Je ne comprends pas où tu veux en venir, ton raisonnement c'est vraiment que la WTFPL ou la publication sous droits réservés c'est pareil parce que personne ne respecte les licences? C'est pas du tout pareil pour la justice en tout cas, ni pour les juristes des gros éditeurs.
Tu as quand même du pognon en jeu si tu souhaites distribuer / acheter un livre physique, il faut payer l'imprimeur et le distributeur. Il faut bien se rappeler que les droits d'auteur sont nés justement parce qu'avant le XIXe siècle c'était une sorte de WTFPL en pratique, et que les industriels empochaient tout le pognon sans rien reverser aux auteurs…
Du coup, le livre en WTFPL dans le monde physique, il peut quand même faire l'objet de transactions financières. La différence avec un livre normal, c'est que l'auteur n'est pas impliqué dans ces transactions (en théorie, même si en pratique en France il n'est pas possible de renoncer à ses droits moraux, licence ou pas licence).
Ce qui m'inquièterait un peu, c'est qu'avec ce genre de licence non-protectrice, un tiers pourrait s'approprier le livre et le faire rentrer dans le circuit "traditionnel", ce qui pourrait bloquer la diffusion de la version "libre" (ou disons, la rendre suffisamment complexe pour que personne ne souhaite prendre le risque). Si tu retrouves ton livre en tête de gondole dans tous les supermarchés sous le nom d'un auteur connu, et les sites sur lesquels tu diffuses la version originale soumis à des injonctions de retrait du fichier, la seule solution est de "dédire" la licence et d'utiliser ton droit moral (auquel tu avais pourtant renoncé par la licence WTFPL).
Honnêtement, est-ce que tu en avais entendu parlé ?
Oui, mais tu n'as pas de chance parce que j'ai de bonnes raisons d'en avoir entendu parler.
il utilisent une technologie de séquençage de l'ADN à haut débit qu'ils qualifient de révolutionnaire
C'est du même niveau de bullshit que tes histoires d'AI. Ils font de la métagénomique systématique (ils échantillonnent de l'eau et ils séquencent). C'est hyper-standard.
Le projet Tara Ocean est un des projet les plus important actuellement dans l'étude de l'évolution de la vie sur Terre
Alors oui, c'est un beau projet de recensement de la biodiversité, mais c'est aussi super bien vendu. Parce que des projets de séquençage massif, il y en a plein maintenant, mais eux ils se vendent bien, ils ont des beaux bateaux qui coutent cher, etc.
À la base, ça reste "juste" un projet de grosse base de données, sans réelles questions scientifiques. C'est très utile, parce que plein d'équipes de recherche vont bénéficier de ces données pour étudier des milliers de questions, mais en soi ça n'a pas vocation à répondre à des questions (pas directement).
Ça serait pareil avec un projet de cartographie des fonds marins, ou du ciel, ou de mesurer le poids moléculaire de milliers de molécules au femtogramme près, etc. C'est utile, mais c'est surtout bien vendu.
Et ça, c'est sans compter l'intérêt de maintenir quelques industries lourdes sur le territoire avec les emplois et les compétences qui vont avec… Pareil pour les trains, les bagnoles, les médicaments, etc.
Le problème c'est surtout le fait de mettre en avant l'IA, une fois de plus, comme un genre de techno magique qui peut résoudre tout les problèmes
C'est quand même un peu de la surinterprétation, non? L'effet de mode est agaçant, et bien sûr le secteur est gangréné par une foultitude de startups qui se montent sans autre base que "on fait de l'IA", mais là on a des éléments plus concrets, on parle d'un projet scientifique, on parle de résultats, ça n'est pas que du vent.
Il y a une différence entre "une techno magique qui peut résoudre tous les problèmes" et "une nouvelle technologie capable de résoudre des problèmes qu'on considérait trop complexes pour être résolus rapidement". C'est une technologie de rupture, dans le sens où dans certains domaines, elle a permis des progrès bien plus rapides qu'auparavant. Ça me semble tout à fait crédible que dans des domaines liés à l'analyse d'image ou de son, on puisse espérer des avancées substantielles avec du machine learning.
Je trouve drôlement dommage qu'une communauté comme la notre semble incapable de s'enthousiasmer devant les possibilités : en terme de vitesse de développement des logiciels, en terme de documentation, d'aide aux utilisateurs, en terme de traitement de bug reports, en terme de détection de bugs et de failles de sécurité, et surtout en terme de maintenance de gros systèmes complexes (kernel, distributions…). Au lieu de ça, on se comporte comme des vieux grincheux, incapables de voir comment une telle technologie va pouvoir changer notre approche de la maintenance et du développement des logiciels, revendiquant une forme d'artisanat qui ne correspond à aucun besoin.
ton choix. Tu confonds asynchrone avec non-suivi àmha
Bah non, je ne comprends pas trop. Les caissier(e)s du supermarché, l'opérateur que tu as au téléphone pour régler un problème avec ta connexion Internet ou ton assurance, même ton conseiller bancaire, tous ces rôles qui seront probablement remplacés par des robots dans les années qui viennent, ce sont des personnes avec qui tu as des interactions "one shot" (ou, disons, suffisamment rares pour que tu te rappelles à peine les avoir déja rencontrés). Il me semble légitime de penser que personne ne souhaite s'impliquer dans ce genre d'interactions, parce que c'est épuisant et inutile.
si ça ne te plais' pas, bah tu ne réponds pas
Et après on se demande pourquoi les gens préfèrent échanger avec des robots qu'avec des êtres humains…
[^] # Re: saiki ?
Posté par arnaudus . En réponse au lien PewDiePie : Il a décidé de basculer sous Linux.. Évalué à 3 (+1/-1).
Personne n'a dit le contraire, mais ça ne change pas le fait que l'obésité est 1) une maladie mortelle, et 2) simple et gratuite à soigner. Simple, ça ne veut pas dire facile, puisque les obstacles sont principalement de nature psychologique, et que la psychologie c'est toujours problématique. Mais cette tendance à chercher à mentir aux obèses, je trouve ça débile : bien sûr que c'est de ta faute si tu es gros, et ça ne tient qu'à toi d'arrêter de l'être.
C'est juste que "à sa faim" ça n'est pas "normalement". Chez tous les animaux, la nourriture à volonté réduit l'espérance de vie; le corps est conçu de manière à avoir besoin de moins que ce que tu voudrais.
[^] # Re: Protéger les auteurs
Posté par arnaudus . En réponse au lien Non aux faux livres IA : l’appel des écrivains et éditeurs européens. Évalué à 5 (+2/-0). Dernière modification le 29 avril 2025 à 17:21.
Je n'arrive toujours pas à comprendre ton argument. Disons que dans la vie il y a deux corvées, visser des vis et planter des clous. Quelqu'un invente le tournevis électrique, qui te permet de visser des vis sans efforts. Ton argument c'est donc : "Cet outil est pourri, il ne plante pas les clous". Bah non, il n'est pas pourri du tout, il n'a jamais été fait pour planter les clous. Il visse les vis, et il le fait bien. Plutôt que de te réjouir de ne plus avoir de corvées de vis, tu préfères râler sur le fait qu'il faille encore planter les clous.
Au passage, les robots de SF ne sont pas toujours des esclaves sans cerveaux. C3PO et R2D2 sont plus des chatGPT à roulettes que le robot qui fait la vaisselle dont tu sembles rêver. Certains auteurs du XXe siècle avaient donc anticipé qu'il serait peut-être plus facile de créer des robots-cerveaux que des robots-corps, ce qui est tout à leur honneur parce que ça n'était pas mon intuition. En particulier parce qu'on utilise depuis longtemps les animaux pour leurs corps, donc on sait exploiter ça, mais on n'a pas dans notre entourage naturel des "cerveaux" à exploiter, donc on ne sait pas faire.
[^] # Re: Protéger les auteurs
Posté par arnaudus . En réponse au lien Non aux faux livres IA : l’appel des écrivains et éditeurs européens. Évalué à 3 (+0/-0).
Ça, ça me parait chaud quand même. Elle pourrait produire des partitions qui au premier abord pourraient ressembler à ce que tu voulais, avec les bonnes tonalités dans le bon ordre, mais je ne pense pas que ça tromperait un musicien. Ça m'étonnerait que l'IA puisse prendre en compte les contraintes de l'instrument par exemple (le fait que certains passages puissent être bien plus difficiles à jouer dans certaines tonalités), et surtout… une fugue, c'est un exercice très complexe, il faut que ça s'assemble localement (le contrepoint, ça je pense que l'AI peut gérer) mais aussi globalement. Quand tu introduis le contre-sujet à la mesure 3, il faut déja que tu penses à quand il passera sous le sujet 50 mesures plus loin; pas sûr qu'un algo de machine learning puisse faire ça sans entrainement spécialisé (on lui fait produire des milliers de fugues et on pénalise celles qui ne 'fonctionnent' pas, ça ça pourrait le faire avancer).
Dans tous les cas, j'imagine qu'il manquera l'originalité et les variations des compositions originales, mais je me trompe peut-être.
[^] # Re: Protéger les auteurs
Posté par arnaudus . En réponse au lien Non aux faux livres IA : l’appel des écrivains et éditeurs européens. Évalué à 3 (+0/-0).
Est-ce que ça ne revient pas à dire que la démarche de l'artisanat fait partie de ce que tu cherches quand tu écoutes de la musique? L'artisanat est une démarche qui a de la valeur en elle-même.
Un exemple qui me frappe par exemple, c'est que la très grande majorité des concerts sont maintenant amplifiés, même s'ils font appels à des instruments acoustiques. Techniquement, n'y a aucune différence entre écouter un enregistrement et écouter un instrument amplifié. Mais voir les musiciens jouer en direct pour toi, venir tous les soirs pour jouer la même chose, ça n'est juste "pas pareil". Ça n'est pas une différence technique, c'est juste que ça veut dire quelque chose d'être dans la même pièce, avec des musiciens qui ne sont là que pour les spectateurs, et des spectateurs qui ne sont là que pour les musiciens. C'est ça qui a de la valeur. Comme l'artisan qui te fait un objet imparfait plutôt que l'usine qui te fait un objet parfait.
Pour l'instant, le mode de fonctionnement des IA n'en font que des outils, certes impressionnants, mais dont les capacités restent confinées à leurs données d'apprentissage. Donc oui, pour l'instant, l'IA est un outil. Mais je n'ai aucune idée de la distance qui pourrait nous séparer de la singularité technologique, parce que la singularité, ça n'est pas la même histoire du tout. C'est vraiment un saut complet dans l'inconnu, une sorte de transition technologique que l'humanité n'a jamais connue, donc bien au delà d'un monde marginalement différent.
[^] # Re: Protéger les auteurs
Posté par arnaudus . En réponse au lien Non aux faux livres IA : l’appel des écrivains et éditeurs européens. Évalué à 5 (+2/-0).
C'est comme beaucoup de choses, les gens qui pensent "je n'aime pas X" écrivent "X c'est de la m*", et comme ils n'aiment pas, ils n'utilisent pas, et comme ils n'utilisent pas, ils ne connaissent pas.
Pour l'IA, tu as toujours les mêmes formules qui tournent : Gafam, énergivore, bulle spéculative, vie privée, hallucinations, médiocrité, esclaves africains, manipulation, etc. Mais ce ne sont que des mots et des arguments entendus ailleurs. Par exemple, je n'ai jamais lu quoi que ce soit de raciste en sortie d'un LLM. Les LLM reflètent forcément leurs données d'entrainement, donc évidemment, s'il y a des trucs racistes dans les données, les LLM peuvent sortir théoriquement des trucs racistes, surtout si on insiste sur certains sujets. Sauf que si on leur demande une recette de cuisine ou un algo de tri à bulles, c'est peu probable que la réponse soit raciste… Parmi tous les gens qui accusent les LLM d'être racistes, combien ont-il réellement eu une telle expérience sans avoir soigneusement élaboré un prompt conçu pour déclencher une telle réponse?
Sur le plan de la logique du raisonnement, l'inversion des causes et des conséquences, je ne comprends pas. Ça n'est pas comme ça que la logique fonctionne. "Vladimir Poutine est un dangereux personnage" -> "Il a un cancer et ne va pas durer longtemps". "Je ne veux pas changer mes habitudes" -> "Rouler en SUV ne contribue pas au réchauffement climatique". "J'ai peur que les IA prenne les boulots des humains" -> "Elles sont médiocres et elles hallicinent tout le temps". Je veux dire, ça ne vous semble pas évident qu'il n'y a aucun lien logique entre ce qui est vrai et ce que vous aimeriez être vrai? Je n'ai pas l'impression que ça demande des compétences pointues en épistémologie.
Après, pour l'utilisation pour la vie quotidienne, ça n'est pas loin du déni. Moi pendant 20 ans mes parents m'ont raconté "on aime bien faire la vaisselle, et puis un lave-vaisselle ça ne sert à rien, ça tombe toujours en panne, il faut prélaver, etc etc". Et puis un jour ils ont acheté un lave-vaisselle, et je n'ai plus jamais entendu ça.
La seule réponse possible est donc: "OK, tu penses ne pas avoir besoin de cet outil et c'est très bien. Tu n'as pas à te justifier ou à relayer des arguments sur un sujet qui ne t'intéresse pas."
Ça ne va pas affecter le reste du monde.
[^] # Re: saiki ?
Posté par arnaudus . En réponse au lien PewDiePie : Il a décidé de basculer sous Linux.. Évalué à 7 (+5/-1).
C'est un peu la mode de critiquer une prétendue grossophobie du corps médical ou des instances publiques, mais surmédicaliser le traitement de l'obésité ne va rien résoudre. Ça va engraisser les big pharma avec leurs coupe-faim, et ça va entretenir toute une galaxie de coaches - psychologues - nutrimachins qui ont plus intérêt à se rendre indispensables qu'à régler les problèmes de poids. Sauf problème physiologique rare, tu n'as que deux leviers sur le poids: la diète et l'activité physique. Il y a 100 ans il y avait très peu de gros, et pourtant leur biologie était exactement la même que la notre. C'est juste qu'ils bouffaient moins, mieux, et qu'ils se bougeaient plus. La question n'est pas quoi faire, c'est plutôt comment l'intégrer dans une vie compliquée. Mais c'est de la pseudoscience de faire croire qu'il y a des questions sur quoi faire.
[^] # Re: Protéger les auteurs
Posté par arnaudus . En réponse au lien Non aux faux livres IA : l’appel des écrivains et éditeurs européens. Évalué à 6 (+3/-0).
C'est peut-être heureusement ou malheureusement, parce que c'est difficile à dire, mais la culture "made in IA" a un problème majeur : elle n'est pas copyrightable dans l'état actuel du droit. Une IA ne peut pas s'inscrire à la SACEM, elle ne peut pas nommer un producteur comme ayant-droit, etc. Bizarrement, toute cette production culturelle IA serait donc dans le domaine public, et ne pourrait bénéficier que très marginalement à l'industrie de la culture. Bien sûr, des "parades" vont être essayées : attribuer les oeuvres à des prête-noms humains, prétendre que les activités annexes (ingé son, marketting…) sont des oeuvres de l'esprit qui se superposent à l'oeuvre de l'AI, ou faire changer les lois. Mais à mon avis, c'est là un risque majeur pour l'"industrie" de la culture à trop utiliser l'IA, puisque leurs revenus dépendent principalement des droits d'auteur. Ça pourra peut-être protéger au moins un temps les créateurs artistiques humains.
[^] # Re: Protéger les auteurs
Posté par arnaudus . En réponse au lien Non aux faux livres IA : l’appel des écrivains et éditeurs européens. Évalué à 4 (+2/-1).
L'IA telle qu'elle existe actuellement peut quand même te libérer de certains corvées intellectuelles. Elle pourrait par exemple te servir d'assistant personnel ("Avez-vous pensé à appeler le ramoneur?", "votre contrôle technique arrive bientôt, dois-je prendre RDV pour vous?", etc), elle pourrait aussi remplir des documents administratifs, te prévenir en cas de mouvements suspects sur tes comptes, filtrer tes appels téléphoniques, s'accorder avec les IA des autres pour trouver des crénaux communs pour les RDV… Pour l'informatique par exemple, elle pourrait rédiger la doc, répondre aux questions des utilisateurs, gérer le flux des rapports de bugs, éventuellement reproduire les bugs voire proposer des patches, elle pourrait permettre des refactoring de code massifs, des optimisations agressives, elle pourrait maintenir des distributions, maintenir les systèmes… Ça n'est pas parce qu'elle ne peut pas intervenir sur le monde réel qu'elle est inutile, on a plein de corvées intellectuelles!
[^] # Re: Protéger les auteurs
Posté par arnaudus . En réponse au lien Non aux faux livres IA : l’appel des écrivains et éditeurs européens. Évalué à 3 (+0/-0).
Je ne pense pas que personne n'a suggéré d'interdire les activités créatrices. Même dans un monde où on lirait des livres rédigés par l'IA et regarderait des films réalisés par l'IA, n'importe qui pourrait s'adonner à la peinture, à l'écriture, ou à la musique. C'est juste qu'on ne pourrait probablement pas en vivre, ce qui ne changerait pas grand chose puisque peu de gens vivent de la peinture ou de la musique…
Après, les avancées technologiques, c'est difficile de les prévoir. Ça fait 50 ans qu'on voit des prototypes de robots, et à part les bras articulés dans les usines il ne se passe rien du tout, c'est toujours des humains qui ramassent les poubelles. Par contre, il y a des avancées considérables sur les tâches cognitives qu'on pensait inaccessibles. C'est bizarre, mais ça ne se décide pas.
[^] # Re: Protéger les auteurs
Posté par arnaudus . En réponse au lien Non aux faux livres IA : l’appel des écrivains et éditeurs européens. Évalué à 4 (+1/-0).
Ça n'est pas la même chose que d'utiliser des processeurs conçus par des algorithmes bien plus avancés que n'importe quel humain? Quand tu as besoin d'une pièce usinée avec une précision de 10 microns, tu ne vas pas demander à un artisan. Par contre, pour une oeuvre culturelle, c'est plus légitime, il semble raisonnable de chercher quelque chose issu d'un cerveau humain.
Mais tout raisonnement a des limites. Les joueurs d'échecs professionnels prennent souvent leur pied à regarder et analyser des parties d'ordinateurs par exemple, parce que justement les ordinateurs jouent quasiment à la perfection, alors que le jeu humain est caractérisé par des approximations, des pièges, ou des erreurs. Une partie d'échecs, ça c'est un superbe exemple d'oeuvre de l'esprit; certaines sont ennuyeuses, d'autres sont flamboyantes, toutes disent quelque chose sur la personnalité de leurs auteurs… et pourtant les ordinateurs mettent 800 points Elo aux meilleurs humains depuis l'intégration de réseaux de neurones aux algos minimax traditionnels, et certaines parties d'ordinateur sont particulièrement esthétiques, avec des sacrifices positionnels par exemple.
[^] # Re: Protéger les auteurs
Posté par arnaudus . En réponse au lien Non aux faux livres IA : l’appel des écrivains et éditeurs européens. Évalué à 3 (+0/-0).
Je suis assez destabilisé par tes définitions, j'ai l'impression que "original" a plusieurs sens et qu'on n'utilise pas le même.
Quand je dis "ce livre est original", je pense que je fais référence au sens 2 du wiktionnaire (https://fr.wiktionary.org/wiki/original), :
Autrement dit, qui sort de l'ordinaire. Dans ce sens, la très grande majorité des livres ne sont pas "originaux", donc j'ai du mal à connecter ça au droit d'auteur. Je pense que le droit d'auteur fait référence au sens 1,
Mais franchement je ne vois pas ce qu'apporte la notion d'originalité, puisqu'une oeuvre de l'esprit est définie par l'expression de la personnalité de l'auteur. C'est d'ailleurs pour ça que des textes médiocres bénéficient de la protection du droit d'auteur, puisqu'on peut même aller jusqu'à avancer que la médiocrité reflète la personnalité de l'auteur.
Il existe d'autres définitions d'"original", comme par exemple le synonyme de "farfelu", mais je ne pense pas que c'est ce dont il s'agit ici.
Dans tous les cas, un LLM est tout à fait capable de produire quelque chose d'original, dans tous les sens du terme d'ailleurs. Un LLM n'imite pas les textes, il imite la manière dont les textes sont construits, ce qui fait qu'il peut tout à fait produire des associations d'idées ou des récits qui n'ont jamais été faits avant. Bien sûr, l'originalité peut venir du prompt, mais pas nécessairement, je viens de demander au chat de Mistral "raconte une courte histoire mettant en scène trois animaux de ton choix (sois original pour choisir les animaux)", et il commence avec "Il était une fois, dans une forêt enchantée, un trio d'amis insolites : un paresseux nommé Léo, un suricate appelé Zoé, et un caméléon prénommé Oscar.", ce qui ne semble pas moins original que ce qu'un humain aurait fait à la place. On ne parle pas du Nobel de littérature hein, mais jusqu'à preuve du contraire le droit d'auteur concerne toutes les productions et pas seulement les bonnes.
La seule raison pour laquelle la production d'un LLM ne bénéficie pas de la protection de la propriété intellectuelle est que seuls les humains peuvent prétendre à des droits d'auteur (par exemple, les dessins de chimpanzés ne sont pas protégés). Mais ça serait totalement absurde de baser la non-protection sur la non-originalité des LLM, puisque ça ouvrirait nettement la possibilité de leur accorder des droits dès qu'un seuil d'originalité serait franchi, ce qui n'est qu'une question de temps.
[^] # Re: Protéger les auteurs
Posté par arnaudus . En réponse au lien Non aux faux livres IA : l’appel des écrivains et éditeurs européens. Évalué à 6 (+4/-1). Dernière modification le 28 avril 2025 à 14:34.
Vraiment? J'ai lu des livres originaux qui étaient pourtant très mauvais… Au contraire, il a dû m'arriver d'apprécier certains livres qui n'étaient pas vraiment originaux, mais sans connaitre les oeuvres dont ils étaient inspirés, ils m'ont semblé intéressants.
Je pense que c'est un faux débat. D'une part, une IA n'écrit pas un livre tout seul. Il faut quelqu'un qui supervise l'IA, qui lui fait réécrire les passages mauvais, qui lui fait rectifier les incohérences, etc. D'autre part, le problème n'est pas de lire quelque chose d'écrit pas une IA, surtout si c'est un livre technique, le problème c'est de le faire sans le savoir. En particulier, comme il n'y a pas de droits d'auteurs quand il n'y a pas d'auteur, ces livres seraient de facto dans le domaine public.
Depuis le début je trouve que l'urgence est d'établir un délit et des peines très dissuasives pour toute tentative d'"usurpation d'humanité", c'est à dire quand on fait passer une IA pour un être humain. Ça ne poserait aucun problème dans aucune circonstance de débuter toute interaction avec une IA par une indication claire sur sa nature, parce que faire interagir les gens avec des IA sans le savoir me semble être une violation profonde des droits humains.
Si tu publies un livre clairement identité comme écrit ou co-écrit par une IA, le lecteur sait exactement ce qu'il va lire, et ça ne me pose aucun problème.
En plus, ces histoires d'originalité, c'est beaucoup de blabla théorique, parce qu'en pratique les LLM sont capables de proposer des récits assez plaisants si on leur fournit un prompt original. Si vous avez des enfants, vous pouvez essayer, ils adorent : vous demandez à chatGPT ou autre une histoire qui se lit en 5 minutes pour des enfants d'un âge donné, et vous demandez aux gamins ce qu'il doit y avoir dans l'histoire (des extraterrestres roses, des joueurs de foot, un chat qui parle chinois, etc); c'est super interactif, on peut avoir des illustrations de l'histoire, et la session de question/réponse à la fin est toujours impayable ("comment les extraterrestres font pour comprendre le chat vu qu'il parle chinois", etc). En plus ils finissent toujours par coincer l'IA et "ah bah ça il ne sait pas parce que c'est un robot et qu'il est bête". Franchement, c'est bien plus rigolo que de relire pour la 127e fois une resucée d'un compte de Grimm où les parents tabassent leurs gamins et où les filles ne peuvent pas sortir sans se faire aborder par des loups libidineux (ils étaient du Nord Pas-de-Calais les frères Grimm?).
[^] # Re: Sur le même sujet
Posté par arnaudus . En réponse au lien Bulle IA et désastre climatique (très bon blog en général). Évalué à 2 (+0/-1). Dernière modification le 24 avril 2025 à 11:48.
Tu as écris:
Je ne vois pas d'autres manières d'interpréter cette phrase autrement… Tu écris textuellement que l'utilisation des ressources de l'environnement pour construire des machines est une idéologie, et j'en doute largement sauf à réviser le sens d'idéologie. Par contre, pas sûr pour ékoumène, qui désigne les milieux habités/anthropisés, donc peut-être le contraire de ce que tu voulais dire (milieux naturels?). Quand on construit un datacenter au milieu de la forêt Amazonienne, on étend l'écoumène, et on détruit des milieux naturels…
[^] # Re: Sur le même sujet
Posté par arnaudus . En réponse au lien Bulle IA et désastre climatique (très bon blog en général). Évalué à 3 (+1/-1).
Je ne suis pas du tout expert du marché de l'AI, mais en tout cas le plan est clair pour OpenAI, avec un objectif de rentabilité en 2029. Ils visent un CA de 100 milliards à cette date, c'est 3 fois moins de Microsoft par exemple. Ça ferait par exemple un abonnement à 20€/mois pour 500M de personnes, ça ne parait pas délirant, le marché semble plus gros que ça (notamment avec les assistants personnels etc).
[^] # Re: Sur le même sujet
Posté par arnaudus . En réponse au lien Bulle IA et désastre climatique (très bon blog en général). Évalué à 2 (+1/-2).
J'ai l'impression que tu mets beaucoup de choses dans "idéologie", je ne mettrais pas l'invention et l'utilisation d'outils dans "idéologie" puisque ça fait partie de la définition de notre espèce. L'utilisation du langage articulé et symbolique n'est pas non plus une idéologie, ou alors tu dois accepter que certaines idéologies ne peuvent pas être abandonnées sans abandonner notre nature d'êtres humains…
L'IA est une machine à "penser" autant qu'une pelleteuse est une machine à creuser, qu'une calculatrice est une machine à calculer, ou qu'un arc est une machine à chasser. On invente des outils sophistiqués qu'on appelle "machines" et on les utilise pour faire des choses à notre place, plus rapidement et avec moins d'efforts, pour des résultats parfois supérieurs ou parfois inférieurs en fonction de la tâche et de la qualité des outils. On a toujours inventé des outils et on n'est pas cablés pour abandonner l'utilisation d'outils parce que c'est "mauvais" (pour nous, pour la planète, pour notre avenir économique, etc).
Le système capitaliste remplace massivement le travail humain par des machines parce que c'est moins cher, que c'est plus efficace, que c'est plus pratique, et que ça fait gagner plus d'argent. Au niveau général, ça permet de produire plus de biens en travaillant moins (travailler moins pour gagner plus).
Ce qu'on n'a pas, c'est le moyen de redistribuer "équitablement" ces biens. Ce qu'on fait comme des ânes, c'est qu'au lieu de travailler moins pour un niveau de vie égal, on veut un niveau de vie supérieur—donc on travaille toujours autant, voire plus. Le difficile équilibre nécessite de recycler le boulot remplacé par les machines par des boulots que les machines ne savent pas encore faire; ça crée du chômage et une obsession pour la croissance, l'innovation, et l'exploitation déraisonnable des ressources naturelles.
Le quête du niveau de vie supérieur est assez légitime, et je ne suis pas sûr qu'elle soit particulièrement idéologique. Il n'y a pas que l'accès frénétique à des merdouilles en plastique livrées par Amazon en colis express; manger bio, ça fait partie du niveau de vie, comme l'amélioration de la qualité de l'air, l'accès à des technologies médicales efficaces, l'amélioration des connaissances scientifiques, l'accès à la culture, à l'éducation, les voyages, les services à la personne, la sécurité, les logiciels fonctionnels et non-merdifiés… Donc remplacer le travail manuel par des outils de plus en plus efficaces, je ne sais pas si c'est "raisonnable", mais c'est inévitable parce qu'on le fait depuis des millions d'années, qu'on est cablés comme ça et qu'on n'a aucune intention de renoncer aux avantages.
[^] # Re: Sur le même sujet
Posté par arnaudus . En réponse au lien Bulle IA et désastre climatique (très bon blog en général). Évalué à 5 (+4/-2). Dernière modification le 23 avril 2025 à 17:26.
Par contre, je ne suis pas sûr qu'il soit complètement légitime de parler de bulle. Disons que c'est toujours compliqué; quand tu as un nouveau marché qui intéresse les investisseurs, ça va drainer les capitaux, et les entreprises vont avoir tendance à être valorisées, les investisseur prédisant un très fort retour sur investissement à long terme. Mais vu les incertitudes sur l'avenir du marché de l'IA, ça me semble présomptueux de penser que ce retour est surestimé. Les valorisations boursières de Microsoft ou d'Apple dans les années 1990 n'étaient pas des bulles, ces entreprises ont réellement versé beaucoup, beaucoup d'argent à leurs actionnaires dans les années qui ont suivi.
Au niveau des LLM par exemple, dans beaucoup d'entreprises, les salariés utilisent les accès gratuits de manière "pirate", en y copiant-collant tout et n'importe quoi, y compris des données sensibles. Ça me semblerait logique pour n'importe quelle entreprise de payer un abonnement pour contrôler le devenir de ces informations et pour conclure un accord de confidentialité, et ça ça peut rapporter beaucoup aux boites qui fournissent les LLM, "beaucoup" veut probablement dire des centaines de milliards globalement.
Ça me semble par exemple assez différent de la "bulle internet", ou des entreprises qui fournissaient des services gratuits à beaucoup d'audience mais sans aucun business model étaient valorisées à des niveaux sans commune mesure avec leur capacité à rapporter de l'argent. Là pour le coup c'était vraiment une bulle spéculative, puisque tout le monde était à peu près au courant que les actions étaient surévaluées.
Du coup, si les LLM font pshit dans les années qui viennent, oui, c'était peut-être une bulle, mais je trouve difficile de partir de ce principe actuellement, à moins de changer la définition de "bulle" pour y inclure tous les marchés qui attirent les investisseurs. En tout cas, les LLM c'est pas pareil que les NFT.
[^] # Re: On peut le faire dans d'autres domaines :
Posté par arnaudus . En réponse au lien Sauvez le climat, arrêtez d'être poli avec les chatbots de l'IA. Évalué à 5 (+3/-1).
Je dis ça je ne dis rien, mais la chauffe du moteur à l'arrêt est souvent conseillée par les constructeurs; quand le moteur est froid l'huile est en bas et visqueuse, et la lubrification correcte n'est atteinte qu'après quelques minutes de fonctionnement. Je ne dis pas que je fais ça, hein, mais disons que ça n'est pas aberrant non plus, un moteur thermique doit être chaud pour fonctionner correctement, tout comme les organes de dépollution (pot catalytique, etc).
[^] # Re: PS motivations
Posté par arnaudus . En réponse au journal Écrivain libre. Évalué à 4 (+1/-0).
Note aussi que la note que tu as mises sur la première page ne dit probablement pas ce que tu veux. Il semble autorisé de retirer le nom de l'auteur, de le changer par celui d'une autre personne (tant que ça n'est pas celui qui fait le changement), et de retirer ou modifier cette note de licence (ce que même la WTFPL n'autorise pas). Par ailleurs, cette note est objectivement diffamatoire, et elle ne pourrait jamais être reproduite par un éditeur (mais heureusement, elle n'interdit pas de la retirer, donc rien de grave). Par contre, si tu ne souhaitais pas qu'on puisse la retirer et la remplacer par n'importe quoi lors de la rediffusion, il aurait fallu utiliser une licence écrite par des professionnels…
[^] # Re: PS motivations
Posté par arnaudus . En réponse au journal Écrivain libre. Évalué à 4 (+1/-0). Dernière modification le 22 avril 2025 à 15:08.
Mais comme elle ne te convient pas, je suis un peu paumé. Tu l'appelles comme tu veux ta licence, mais il faut qu'elle contienne les termes qui conviennent à la manière dont tu veux diffuser ton truc. "WTFPL" n'est pas juste un nom qui fait punk, elle dit "j'abandonne tout droit sur ce contenu". Or, ça n'est pas ce que tu veux faire, donc il te faut une autre licence.
Là aussi, je suis un peu paumé. Tu veux diffuser quelque chose en donnant des droits aux utilisateurs; si tu diffuses sans licence c'est par défaut le droit d'auteur le plus strict qui s'applique. Si tu veux diffuser librement, il faut donc obligatoirement diffuser avec une licence. Tu l'appelles "logicielle", "artistique", "WTF", comme tu veux, mais il te faut un texte qui s'appelle une licence et qui donne les conditions de diffusion.
Je ne connais pas les détails, mais pypi-stats est sous licence MIT, qui est très très proche dans l'esprit de la WTFPL. Tu veux dire que du code à toi (sous une licence non-compatible MIT) s'est retrouvé dans pypi-stats (sous licence MIT), ou que le code de pypi-stats MIT s'est retrouvé diffusé dans des circonstances interdites par la licence (ce qui est assez difficile vu la permissivité de la licence MIT, qui n'impose même pas de garder le nom des auteurs)?
Après, faire valoir ses droits, oui, ça peut être long et coûter un peu d'argent (pas forcément beaucoup si on ne prend pas d'avocat). Il faut savoir ce qu'on veut, soit c'est important pour toi soit ça ne l'est pas. Note aussi que ça serait beaucoup moins problématique si tu adhérais à un syndicat d'auteurs par exemple, qui mutualise la défense des droits des auteurs (je ne pense pas que ça existe pour le libre, par contre). C'est comme ça que les auteurs font peur aux gros éditeur, en se regroupant en syndicats.
… sauf quand tu diffuses sous WTFPL, puisque tu renonces à tout droit d'auteur (elle n'est donc plus protégée).
C'est pas évident ces histoires de licence, et c'est pour ça qu'il faut choisir une licence adaptée rédigée par des juristes. Là, dans le contexte, j'aurais par exemple super peur d'imprimer et de vendre un de tes livres parce qu'il me semble qu'il y a un risque sérieux qu'on ne puisse pas faire confiance à la licence sous laquelle ils ont été distribués. Si j'avais envie de mettre une croix gammée sur la couverture pour les vendre à des néo-nazis (l'argent n'a pas d'odeur), je ne voudrais pas que tu reviennes sur les termes de la WTFPL en demandant de faire retirer ton nom ou un truc comme ça pour des raisons de droit moral inaliénable malgré les termes de la WTFPL.
[^] # Re: PS motivations
Posté par arnaudus . En réponse au journal Écrivain libre. Évalué à 4 (+1/-0).
Bah du coup tu disais WTFPL, mais en fait c'est pas vraiment la WTFPL. Pourquoi pas une CC0 ou une licence BSD-like, qui me semble en fait bien plus adaptée et bien plus claire?
Non mais ça c'est bizarre. Quand tu publies sous WTFPL, tu affirmes explicitement que tu abandonnes la totalité de tes droits. Et là, tu pars du principe que non, en fait, une particularité de la loi française fait que tu as distribué un truc avec comme consigne "You do what the f*** you want", mais qu'en fait si tu distribues sous ton nom, si tu l'utilises pour faire de la propagande électorale, pour arnaquer les petits vieux, pour entrainer les IA, ou je ne sais pas quoi, tu te réserves le droit d'utiliser les droits moraux. Je ne comprends pas où tu veux en venir, il y a tout un tas de licences libres ou non-libres qui sont très explicites sur ce que tu as le droit de faire ou non, donc pourquoi ne pas les utiliser?
Les gens qui ont des grosses voitures ne s'embarrassent pas des limitations de vitesse, mais ça n'empêche pas qu'ils n'ont pas le droit et qu'ils vont avoir des problèmes avec la police et la justice. Je ne comprends pas où tu veux en venir, ton raisonnement c'est vraiment que la WTFPL ou la publication sous droits réservés c'est pareil parce que personne ne respecte les licences? C'est pas du tout pareil pour la justice en tout cas, ni pour les juristes des gros éditeurs.
[^] # Re: PS motivations
Posté par arnaudus . En réponse au journal Écrivain libre. Évalué à 4 (+1/-0).
Tu as quand même du pognon en jeu si tu souhaites distribuer / acheter un livre physique, il faut payer l'imprimeur et le distributeur. Il faut bien se rappeler que les droits d'auteur sont nés justement parce qu'avant le XIXe siècle c'était une sorte de WTFPL en pratique, et que les industriels empochaient tout le pognon sans rien reverser aux auteurs…
Du coup, le livre en WTFPL dans le monde physique, il peut quand même faire l'objet de transactions financières. La différence avec un livre normal, c'est que l'auteur n'est pas impliqué dans ces transactions (en théorie, même si en pratique en France il n'est pas possible de renoncer à ses droits moraux, licence ou pas licence).
Ce qui m'inquièterait un peu, c'est qu'avec ce genre de licence non-protectrice, un tiers pourrait s'approprier le livre et le faire rentrer dans le circuit "traditionnel", ce qui pourrait bloquer la diffusion de la version "libre" (ou disons, la rendre suffisamment complexe pour que personne ne souhaite prendre le risque). Si tu retrouves ton livre en tête de gondole dans tous les supermarchés sous le nom d'un auteur connu, et les sites sur lesquels tu diffuses la version originale soumis à des injonctions de retrait du fichier, la seule solution est de "dédire" la licence et d'utiliser ton droit moral (auquel tu avais pourtant renoncé par la licence WTFPL).
[^] # Re: "qui sera partagé en tant que modèle ouvert"
Posté par arnaudus . En réponse au lien Comprendre les dauphins grâce à l'IA. Évalué à 3 (+0/-0).
Oui, mais tu n'as pas de chance parce que j'ai de bonnes raisons d'en avoir entendu parler.
C'est du même niveau de bullshit que tes histoires d'AI. Ils font de la métagénomique systématique (ils échantillonnent de l'eau et ils séquencent). C'est hyper-standard.
Alors oui, c'est un beau projet de recensement de la biodiversité, mais c'est aussi super bien vendu. Parce que des projets de séquençage massif, il y en a plein maintenant, mais eux ils se vendent bien, ils ont des beaux bateaux qui coutent cher, etc.
À la base, ça reste "juste" un projet de grosse base de données, sans réelles questions scientifiques. C'est très utile, parce que plein d'équipes de recherche vont bénéficier de ces données pour étudier des milliers de questions, mais en soi ça n'a pas vocation à répondre à des questions (pas directement).
Ça serait pareil avec un projet de cartographie des fonds marins, ou du ciel, ou de mesurer le poids moléculaire de milliers de molécules au femtogramme près, etc. C'est utile, mais c'est surtout bien vendu.
[^] # Re: pour défendre la vérité et la justice, vous repasserez vérité
Posté par arnaudus . En réponse au lien Entrez dans la peau d'un agent de la DGSE et collectez un maximum de renseignements !. Évalué à 4 (+2/-1).
Et ça, c'est sans compter l'intérêt de maintenir quelques industries lourdes sur le territoire avec les emplois et les compétences qui vont avec… Pareil pour les trains, les bagnoles, les médicaments, etc.
[^] # Re: "qui sera partagé en tant que modèle ouvert"
Posté par arnaudus . En réponse au lien Comprendre les dauphins grâce à l'IA. Évalué à 3 (+0/-0).
C'est quand même un peu de la surinterprétation, non? L'effet de mode est agaçant, et bien sûr le secteur est gangréné par une foultitude de startups qui se montent sans autre base que "on fait de l'IA", mais là on a des éléments plus concrets, on parle d'un projet scientifique, on parle de résultats, ça n'est pas que du vent.
Il y a une différence entre "une techno magique qui peut résoudre tous les problèmes" et "une nouvelle technologie capable de résoudre des problèmes qu'on considérait trop complexes pour être résolus rapidement". C'est une technologie de rupture, dans le sens où dans certains domaines, elle a permis des progrès bien plus rapides qu'auparavant. Ça me semble tout à fait crédible que dans des domaines liés à l'analyse d'image ou de son, on puisse espérer des avancées substantielles avec du machine learning.
Je trouve drôlement dommage qu'une communauté comme la notre semble incapable de s'enthousiasmer devant les possibilités : en terme de vitesse de développement des logiciels, en terme de documentation, d'aide aux utilisateurs, en terme de traitement de bug reports, en terme de détection de bugs et de failles de sécurité, et surtout en terme de maintenance de gros systèmes complexes (kernel, distributions…). Au lieu de ça, on se comporte comme des vieux grincheux, incapables de voir comment une telle technologie va pouvoir changer notre approche de la maintenance et du développement des logiciels, revendiquant une forme d'artisanat qui ne correspond à aucun besoin.
[^] # Re: "qui sera partagé en tant que modèle ouvert"
Posté par arnaudus . En réponse au lien Comprendre les dauphins grâce à l'IA. Évalué à 4 (+1/-0).
Bah non, je ne comprends pas trop. Les caissier(e)s du supermarché, l'opérateur que tu as au téléphone pour régler un problème avec ta connexion Internet ou ton assurance, même ton conseiller bancaire, tous ces rôles qui seront probablement remplacés par des robots dans les années qui viennent, ce sont des personnes avec qui tu as des interactions "one shot" (ou, disons, suffisamment rares pour que tu te rappelles à peine les avoir déja rencontrés). Il me semble légitime de penser que personne ne souhaite s'impliquer dans ce genre d'interactions, parce que c'est épuisant et inutile.
Et après on se demande pourquoi les gens préfèrent échanger avec des robots qu'avec des êtres humains…