De ce que j'ai compris, ça inverse la charge de la preuve, si un indice tend à montrer qu'un contenu protégé a été pompé sans autorisation de l'ayant droit, c'est à la boîte possédant l'IA-générative de démontrer que ça n'est pas le cas. Du coup, ça devient plus facile de protéger ses productions de ces vampires.
Proposition de loi relative à l’instauration d’une présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle
Article unique
La section 1 du chapitre Ier du titre III du livre III de la première partie du code de la propriété intellectuelle est complétée par un article L. 331-4-1 ainsi rédigé :
« Art. L. 331-4-1. – Sauf preuve contraire, l’objet protégé par un droit d’auteur ou par un droit voisin, au sens du présent code, est présumé avoir été exploité par le système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette exploitation. »
Posté par Luc-Skywalker .
Évalué à 3 (+1/-0).
Dernière modification le 24 mars 2026 à 17:49.
Ouf, il n'y a qu'un article. Merci.
Je le comprends comme toi.
Par contre les baveux habilités à aller en Cassation ou au Conseil d’État se frottent déjà les mains.
dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette exploitation
Ça reste une bonne initiative toutefois.
"Si tous les cons volaient, il ferait nuit" F. Dard
Surtout quand tu combines ça avec l'AI Act, qui demande au point 1.d de son article 53 de dire quelles sources sont utilisés pour les systèmes d'IA généralistes.
J'aimerais ajouter que le point 1.x du même article 53 indique que les fournisseurs doivent permettre d'appliquer la clause d'opt out de l'article 4 de la directive DCSM (directive copyright de 2019 de l'EU), mais après une recherche rapide, la directive n'a pas encore été adopté en droit français ce qui donne quand même un résultat assez curieux, et sans doute contestable en justice (car l'AI Act est en vigueur sans avoir besoin de transposition car c'est un règlement).
Ensuite, le manque complet d'uniformisation est courant dans le domaine, je prépare depuis 2 mois une présentation pour les JDLL qui touche un peu au sujet, et les questions autour de la propriété intellectuel, c'est clairement un ou deux niveaux de bordel par rapport à des sujets plus simples comme la réglementation sur la vie privé ou les droits humains.
Est-ce que quelqu'un suit la situation pour le code informatique (surtout le code libre)? Pour les licences type MIT, il ne semble faire aucun doute que l'aspiration et l'analyse par un système automatisé sont licites; pour les licences de type copyleft, pour moi la situation est identique, mais certains sont tentés d'imaginer que le code produit par le LLM pourrait être un travail dérivé (présemption sans base juridique sérieuse à mon avis, mais je ne suis pas juriste).
De ce que je crois comprendre de ces propositions de lois, ce qui semble condamnable c'est la collecte des contenus culturels sans l'autorisation des ayant-droits. Il semble que pour le logiciel libre, la collecte est expressément autorisée par les termes de la licence, et que ces textes ne peuvent pas s'appliquer au code libre. Est-ce qu'il n'y aurait pas une GPL V4 en préparation pour ajouter une éventuelle interdiction de la collecte du code, sans bloquer la réutilisation et la rediffusion selon les termes de la licence? Est-ce que ça ne conviendrait pas à la liberté 2 (liberté d'étudier le code, qui ne dit pas par quel moyen on souhaite étudier le code)?
il ne semble faire aucun doute que l'aspiration et l'analyse par un système automatisé sont licites;
euh, non?
Relis la license, elle est pas très longue et très claire, il y a une condition à respecter:
Si tu réutilises du code sus license MIT, tu dois inclure le texte complet de la license ainsi que la mention de copyright avec les années et les noms des auteurs.
Ce n'est pas très contraignant, mais ça permet de tracer le code et de savoir qui l'a écrit (car, c'est bien connu, les développeurs de logiciels libres travaillent pour la gloire, pas pour l'argent).
Si le LLM recrache une fonction sous license MIT sans mettre le nom de l'auteur, le copyright, et le texte de la license, ça ne especte pas la license. Il y a des chances que la license soit disponible dans la mémoire du LLM. Mais les noms des auteurs et les copyright, c'est moins sûr…
À la sortie de ChatGPT pour le grand public on a pu constater plusieurs fois qu'il renvoyait du code identique à du code sous licence. Et bien il semble que ça soit toujours le cas :
Using LiCoEval, we evaluate 14 popular LLMs, finding that even top-performing LLMs produce a non-negligible proportion (0.88% to 2.01%) of code strikingly similar to existing open-source implementations. Notably, most LLMs fail to provide accurate license information, particularly for code under copyleft licenses. These findings underscore the urgent need to enhance LLM compliance capabilities in code generation tasks.
Mais avec les agents qui écrivent du code au kilomètre, ça me paraît compliqué à respecter… Est-ce qu'ils vont remplir les fichiers de commentaires pour citer les sources des morceaux de code ? Après la règle ne vaut que pour du code non-trivial. Je n'ai pas fouillé l'étude en lien mais peut-être que "0.88% to 2.01%" ça correspond à des constructions idiomatiques.
Relis la license, elle est pas très longue et très claire, il y a une condition à respecter:
La condition à respecter porte sur la publication du code, donc je reste sur l'idée qu'il n'y a aucun doute qu'il soit licite d'aspirer et d'analyser le code.
La clause en question est: *The above copyright notice and this permission notice shall be included in all copies or substantial portions of the Software. *
"Substantial portions" n'a que très peu de chances de s'appliquer à la sortie d'un LLM, en encore moins à la sortie d'un LLM de 2026 (parce que les histoires de bouts de code reconnaissable, ça date de Copilot 2022 qui était surparamétré), donc à part pour le plaisir de l'argütie juridique…
Avec toutes les précautions d'usage, j'aimerais émettre un doute encore plus large que le vôtre : l'analyse d'œuvres communiquées au public ne relève-t-il pas du droit d'usage normal ? que ce soit pour regarder bêtement sur un écran en tant que distraction et lavage de cerveau, pour les travaux universitaires les plus louables ou tout autre usage allant de celui que chacun jugera le plus méprisable à celui qu'il appréciera le plus ; sans excepter donc l'entraînement d'une IA ? Est-il vraiment raisonnable de créer des catégories spéciales d'utilisation d'œuvres par certains types de logiciel ? N'est-ce pas là ouvrir une boîte de Pandore ? Est-ce que le droit de la propriété intellectuelle ne couvre pas déjà les productions IA : soit qu'elles enfreignent le droit actuel en recrachant et reproduisant des fragments d'œuvres protégés, soit qu'elles puissent être considérées comme suffisamment distantes des données qu'elle interpolent ?
1) dans un monde où tout mérite des transactions financières, c'est bizarre que les boites d'AI qui brassent des milliers de milliards aient accès à ces catalogues que les humains doivent payer
2) on sent bien que les IA risques de faire diminuer très substantiellement les revenus de l'"industrie de la culture", donc il y a une sorte de panique à essayer de soutirer un max de pognon avant les vaches maigres
3) la capacité des IA à plagier un style montre que les IA sont susceptibles de produire des choses originales soumises en théorie à des droits d'auteur. Si en 2050 tu peux demander à ta télé "Crée-moi un dessin animé de style Disney avec des animaux et des princesses", le problème n'est pas le recrachage de fragments d'oeuvres protégées (ça, c'est les gens qui ne comprennent pas comment les IA fonctionnent qui disent ça), le problème c'est que l'IA est susceptible d'intégrer et de reproduire l'originalité d'un créateur humain sans le rémunérer.
Expérience mentale d'une situation extrême : les IA deviennent assez performantes pour passer un test où il devient impossible de déterminer quelle nouvelle oeuvre vient d'une personne identifiée ou d'une IA. Par exemple, on demande à Aya Nakamura—le droit d'auteur n'a pas de critère de qualité, seulement d'originalité—et à une IA de faire une nouvelle chanson dans le style d'Aya Nakamura, on fait écouter la chanson à 1000 spécialistes de ce style de musique, et > 50% des gens se trompent sur l'origine de l'oeuvre: l'IA a en quelque sorte "cloné" les capacités créatrices d'une personne, comme si c'était une copie de son cerveau en quelque sorte. Est-ce qu'il serait naturel de considérer qu'une telle copie fonctionnelle de cerveau ne crée aucun droit d'auteur en faveur du cerveau initial? C'est pourtant bien une oeuvre de l'esprit, au sens juridique du terme, puisqu'elle reflète la personnalité et l'originalité de son auteur. Le fait de "déporter" cet esprit (enfin, une copie fonctionnelle de cet esprit) dans une machine ne semble pas réellement importante dans la manière dont la loi est rédigée. Ça me semble au moins nécessiter une reflexion.
Est-ce que quelqu'un suit la situation pour le code informatique (surtout le code libre)?
Moi, oui, vu que je vais en parler lors des JDLLs dans 2 mois. Par contre, j'ai pas le temps d'écrire un commentaire sur ça (en plus, faut bien que je donne une raison de remplir la salle pour rentabiliser la lecture de l'équivalent de 2 ou 3 livres sur la question).
Pour une GPL v4 (ou plutôt un truc dans l'esprit d'une évolution de la GPL), Richard Fontana en parle dans une présentation de février et travaille aussi, je crois, sur le projet Copyleft.next avec d'autres.
# Charge de la preuve
Posté par sebas . Évalué à 4 (+2/-0).
De ce que j'ai compris, ça inverse la charge de la preuve, si un indice tend à montrer qu'un contenu protégé a été pompé sans autorisation de l'ayant droit, c'est à la boîte possédant l'IA-générative de démontrer que ça n'est pas le cas. Du coup, ça devient plus facile de protéger ses productions de ces vampires.
[^] # Re: Charge de la preuve
Posté par Luc-Skywalker . Évalué à 3 (+1/-0). Dernière modification le 24 mars 2026 à 17:49.
Ouf, il n'y a qu'un article. Merci.
Je le comprends comme toi.
Par contre les baveux habilités à aller en Cassation ou au Conseil d’État se frottent déjà les mains.
Ça reste une bonne initiative toutefois.
"Si tous les cons volaient, il ferait nuit" F. Dard
[^] # Re: Charge de la preuve
Posté par Misc (site web personnel) . Évalué à 6 (+3/-0).
Surtout quand tu combines ça avec l'AI Act, qui demande au point 1.d de son article 53 de dire quelles sources sont utilisés pour les systèmes d'IA généralistes.
J'aimerais ajouter que le point 1.x du même article 53 indique que les fournisseurs doivent permettre d'appliquer la clause d'opt out de l'article 4 de la directive DCSM (directive copyright de 2019 de l'EU), mais après une recherche rapide, la directive n'a pas encore été adopté en droit français ce qui donne quand même un résultat assez curieux, et sans doute contestable en justice (car l'AI Act est en vigueur sans avoir besoin de transposition car c'est un règlement).
Ensuite, le manque complet d'uniformisation est courant dans le domaine, je prépare depuis 2 mois une présentation pour les JDLL qui touche un peu au sujet, et les questions autour de la propriété intellectuel, c'est clairement un ou deux niveaux de bordel par rapport à des sujets plus simples comme la réglementation sur la vie privé ou les droits humains.
# Quid du code?
Posté par arnaudus . Évalué à 6 (+3/-0).
Est-ce que quelqu'un suit la situation pour le code informatique (surtout le code libre)? Pour les licences type MIT, il ne semble faire aucun doute que l'aspiration et l'analyse par un système automatisé sont licites; pour les licences de type copyleft, pour moi la situation est identique, mais certains sont tentés d'imaginer que le code produit par le LLM pourrait être un travail dérivé (présemption sans base juridique sérieuse à mon avis, mais je ne suis pas juriste).
De ce que je crois comprendre de ces propositions de lois, ce qui semble condamnable c'est la collecte des contenus culturels sans l'autorisation des ayant-droits. Il semble que pour le logiciel libre, la collecte est expressément autorisée par les termes de la licence, et que ces textes ne peuvent pas s'appliquer au code libre. Est-ce qu'il n'y aurait pas une GPL V4 en préparation pour ajouter une éventuelle interdiction de la collecte du code, sans bloquer la réutilisation et la rediffusion selon les termes de la licence? Est-ce que ça ne conviendrait pas à la liberté 2 (liberté d'étudier le code, qui ne dit pas par quel moyen on souhaite étudier le code)?
[^] # Re: Quid du code?
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 10 (+7/-0).
euh, non?
Relis la license, elle est pas très longue et très claire, il y a une condition à respecter:
Si tu réutilises du code sus license MIT, tu dois inclure le texte complet de la license ainsi que la mention de copyright avec les années et les noms des auteurs.
Ce n'est pas très contraignant, mais ça permet de tracer le code et de savoir qui l'a écrit (car, c'est bien connu, les développeurs de logiciels libres travaillent pour la gloire, pas pour l'argent).
Si le LLM recrache une fonction sous license MIT sans mettre le nom de l'auteur, le copyright, et le texte de la license, ça ne especte pas la license. Il y a des chances que la license soit disponible dans la mémoire du LLM. Mais les noms des auteurs et les copyright, c'est moins sûr…
[^] # Re: Quid du code?
Posté par Faya . Évalué à 4 (+2/-0).
À la sortie de ChatGPT pour le grand public on a pu constater plusieurs fois qu'il renvoyait du code identique à du code sous licence. Et bien il semble que ça soit toujours le cas :
Mais avec les agents qui écrivent du code au kilomètre, ça me paraît compliqué à respecter… Est-ce qu'ils vont remplir les fichiers de commentaires pour citer les sources des morceaux de code ? Après la règle ne vaut que pour du code non-trivial. Je n'ai pas fouillé l'étude en lien mais peut-être que "0.88% to 2.01%" ça correspond à des constructions idiomatiques.
[^] # Re: Quid du code?
Posté par arnaudus . Évalué à 4 (+1/-0).
La condition à respecter porte sur la publication du code, donc je reste sur l'idée qu'il n'y a aucun doute qu'il soit licite d'aspirer et d'analyser le code.
La clause en question est: *The above copyright notice and this permission notice shall be included in all copies or substantial portions of the Software. *
"Substantial portions" n'a que très peu de chances de s'appliquer à la sortie d'un LLM, en encore moins à la sortie d'un LLM de 2026 (parce que les histoires de bouts de code reconnaissable, ça date de Copilot 2022 qui était surparamétré), donc à part pour le plaisir de l'argütie juridique…
[^] # Re: Quid du code?
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 7 (+4/-0).
Avec toutes les précautions d'usage, j'aimerais émettre un doute encore plus large que le vôtre : l'analyse d'œuvres communiquées au public ne relève-t-il pas du droit d'usage normal ? que ce soit pour regarder bêtement sur un écran en tant que distraction et lavage de cerveau, pour les travaux universitaires les plus louables ou tout autre usage allant de celui que chacun jugera le plus méprisable à celui qu'il appréciera le plus ; sans excepter donc l'entraînement d'une IA ? Est-il vraiment raisonnable de créer des catégories spéciales d'utilisation d'œuvres par certains types de logiciel ? N'est-ce pas là ouvrir une boîte de Pandore ? Est-ce que le droit de la propriété intellectuelle ne couvre pas déjà les productions IA : soit qu'elles enfreignent le droit actuel en recrachant et reproduisant des fragments d'œuvres protégés, soit qu'elles puissent être considérées comme suffisamment distantes des données qu'elle interpolent ?
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: Quid du code?
Posté par arnaudus . Évalué à 5 (+2/-0).
Sur le principe, c'est "évidemment oui", mais
1) dans un monde où tout mérite des transactions financières, c'est bizarre que les boites d'AI qui brassent des milliers de milliards aient accès à ces catalogues que les humains doivent payer
2) on sent bien que les IA risques de faire diminuer très substantiellement les revenus de l'"industrie de la culture", donc il y a une sorte de panique à essayer de soutirer un max de pognon avant les vaches maigres
3) la capacité des IA à plagier un style montre que les IA sont susceptibles de produire des choses originales soumises en théorie à des droits d'auteur. Si en 2050 tu peux demander à ta télé "Crée-moi un dessin animé de style Disney avec des animaux et des princesses", le problème n'est pas le recrachage de fragments d'oeuvres protégées (ça, c'est les gens qui ne comprennent pas comment les IA fonctionnent qui disent ça), le problème c'est que l'IA est susceptible d'intégrer et de reproduire l'originalité d'un créateur humain sans le rémunérer.
Expérience mentale d'une situation extrême : les IA deviennent assez performantes pour passer un test où il devient impossible de déterminer quelle nouvelle oeuvre vient d'une personne identifiée ou d'une IA. Par exemple, on demande à Aya Nakamura—le droit d'auteur n'a pas de critère de qualité, seulement d'originalité—et à une IA de faire une nouvelle chanson dans le style d'Aya Nakamura, on fait écouter la chanson à 1000 spécialistes de ce style de musique, et > 50% des gens se trompent sur l'origine de l'oeuvre: l'IA a en quelque sorte "cloné" les capacités créatrices d'une personne, comme si c'était une copie de son cerveau en quelque sorte. Est-ce qu'il serait naturel de considérer qu'une telle copie fonctionnelle de cerveau ne crée aucun droit d'auteur en faveur du cerveau initial? C'est pourtant bien une oeuvre de l'esprit, au sens juridique du terme, puisqu'elle reflète la personnalité et l'originalité de son auteur. Le fait de "déporter" cet esprit (enfin, une copie fonctionnelle de cet esprit) dans une machine ne semble pas réellement importante dans la manière dont la loi est rédigée. Ça me semble au moins nécessiter une reflexion.
[^] # Re: Quid du code?
Posté par Misc (site web personnel) . Évalué à 3 (+0/-0).
Moi, oui, vu que je vais en parler lors des JDLLs dans 2 mois. Par contre, j'ai pas le temps d'écrire un commentaire sur ça (en plus, faut bien que je donne une raison de remplir la salle pour rentabiliser la lecture de l'équivalent de 2 ou 3 livres sur la question).
Pour une GPL v4 (ou plutôt un truc dans l'esprit d'une évolution de la GPL), Richard Fontana en parle dans une présentation de février et travaille aussi, je crois, sur le projet Copyleft.next avec d'autres.
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.