Ca m'a tout l'air d'être un demi-aveu. Microsoft ne semble pas si confiant que ça que ces outils d'IA ne viole pas le droit d'auteur sinon cette déclaration n'aurait aucun sens.
Maintenant si des personnes utilisant Copilot (ou autres outils similaires) commencent à se faire condamner, je pense que les avocats seront plus occupés à démontrer que le client n'a pas utilisé Copilot dans les bonnes conditions que de payer les dommages et intérêts.
cette déclaration fait sens, cela sous entend que chaque petit procès contre des petites entreprise innovante se prendront le bulldozer d'avocat de Microsoft pendant 30 ans.
en filigrane : ne nous embêtez pas avec cela vous allez perdre beaucoup d'argent
Je ne suis pas du tout d'accord : pour moi, il s'agit avant tout de lever un frein de potentiels utilisateurs qui pourraient craindre un éventuel procès en droit d'auteur. C'est une problématique vielle comme le web marchand : comment donner de la confiance ? Ebay avait résolu ça en rachetant Paypal et en vendant de l'assurance financière ; MS tente de résoudre ça en vendant de l'assurance juridique. S'ils estimaient que le risque était grand, en bon assureur, ils ne le vendrait pas (ou plus cher).
Peut-être que l’aveu est à prendre dans l’autre sens : beaucoup de leurs clients pillent allègrement du contenu publié (ou pas…) pour constituer leurs modèles. Et Microsoft le sait parfaitement.
Et par contenu publié ça vaut pour tout ce qui est sous licence libre (≠ domaine public).
Ca m'a tout l'air d'être un demi-aveu. Microsoft ne semble pas si confiant que ça que ces outils d'IA ne viole pas le droit d'auteur sinon cette déclaration n'aurait aucun sens.
J'y lis tout le contraire. Ils sont tellement sûrs de l'issue des procès qu'ils peuvent s'engager financièrement. Ils veulent aussi dissuader les poursuites abusives, puisque ça permettrait aux "petits" de faire face à des procès.
Sur le fond, ils doivent bien savoir si leur modèle est overfitté ou pas. Le problème de Copilot c'est qu'il n'avait pas assez de données, ce qui faisait qu'il ressortait textuellement des lignes entières de sa base de données. C'est normalement impossible si le modèle a été correctement entrainé, donc c'est les ingénieurs qui ont entrainé le modèle qui savent si Microsoft prend un risque ou non.
Quoi qu'il en soit, si on applique les mêmes règles aux AI qu'aux humains, même les "ratés" de Copilot n'auraient probablement pas justifié des poursuites pour contrefaçon. Aux US, copier quelques lignes de manière non-intentionnelle entre dans le cadre du "fair use" (c'est l'intention qui compte), et en droit français, il faut justifier de l'originalité (ce qui est d'ailleurs étonnant, c'est que la jurisprudence semble s'intéresser surtout à l'originalité du logiciel, et pas l'originalité du code source, c'est bien le logiciel qui est protégé (et, par conséquent, le code objet et le code source associé).
Évidemment, comme il n'y a pas de jurisprudence sur les AI, on peut fantasmer sur n'importe quoi, mais à moins d'un retournement de jurisprudence ou une interprétation différente du fait de l'AI, il semble hautement douteux qu'un tribunal puisse conclure à la contrefaçon parce qu'un auteur croit reconnaitre son code dans la sortie d'un modèle de langage. Paradoxalement, un modèle de langage bien configuré ne retourne qu'un texte consensuel, entrainé sur plusieurs sources équivalentes; par conséquent, la sortie ne peut pas être originale (et s'il y a des dizaines de bouts de code indépendants qui font la même chose, on peut également questionner l'originalité).
# In english
Posté par antistress (site web personnel) . Évalué à 4.
# Pas si confiant
Posté par pamputt . Évalué à 3.
Ca m'a tout l'air d'être un demi-aveu. Microsoft ne semble pas si confiant que ça que ces outils d'IA ne viole pas le droit d'auteur sinon cette déclaration n'aurait aucun sens.
Maintenant si des personnes utilisant Copilot (ou autres outils similaires) commencent à se faire condamner, je pense que les avocats seront plus occupés à démontrer que le client n'a pas utilisé Copilot dans les bonnes conditions que de payer les dommages et intérêts.
[^] # Re: Pas si confiant
Posté par ChocolatineFlying . Évalué à 7.
cette déclaration fait sens, cela sous entend que chaque petit procès contre des petites entreprise innovante se prendront le bulldozer d'avocat de Microsoft pendant 30 ans.
en filigrane : ne nous embêtez pas avec cela vous allez perdre beaucoup d'argent
[^] # Re: Pas si confiant
Posté par Xanatos . Évalué à 1.
Oui enfin c'est de la com'
Si c'est pour faire une Muskerie
[^] # Re: Pas si confiant
Posté par aiolos . Évalué à 8.
Je ne suis pas du tout d'accord : pour moi, il s'agit avant tout de lever un frein de potentiels utilisateurs qui pourraient craindre un éventuel procès en droit d'auteur. C'est une problématique vielle comme le web marchand : comment donner de la confiance ? Ebay avait résolu ça en rachetant Paypal et en vendant de l'assurance financière ; MS tente de résoudre ça en vendant de l'assurance juridique. S'ils estimaient que le risque était grand, en bon assureur, ils ne le vendrait pas (ou plus cher).
[^] # Re: Pas si confiant
Posté par greendev . Évalué à -3.
Peut-être que l’aveu est à prendre dans l’autre sens : beaucoup de leurs clients pillent allègrement du contenu publié (ou pas…) pour constituer leurs modèles. Et Microsoft le sait parfaitement.
Et par contenu publié ça vaut pour tout ce qui est sous licence libre (≠ domaine public).
[^] # Re: Pas si confiant
Posté par arnaudus . Évalué à 6.
J'y lis tout le contraire. Ils sont tellement sûrs de l'issue des procès qu'ils peuvent s'engager financièrement. Ils veulent aussi dissuader les poursuites abusives, puisque ça permettrait aux "petits" de faire face à des procès.
Sur le fond, ils doivent bien savoir si leur modèle est overfitté ou pas. Le problème de Copilot c'est qu'il n'avait pas assez de données, ce qui faisait qu'il ressortait textuellement des lignes entières de sa base de données. C'est normalement impossible si le modèle a été correctement entrainé, donc c'est les ingénieurs qui ont entrainé le modèle qui savent si Microsoft prend un risque ou non.
Quoi qu'il en soit, si on applique les mêmes règles aux AI qu'aux humains, même les "ratés" de Copilot n'auraient probablement pas justifié des poursuites pour contrefaçon. Aux US, copier quelques lignes de manière non-intentionnelle entre dans le cadre du "fair use" (c'est l'intention qui compte), et en droit français, il faut justifier de l'originalité (ce qui est d'ailleurs étonnant, c'est que la jurisprudence semble s'intéresser surtout à l'originalité du logiciel, et pas l'originalité du code source, c'est bien le logiciel qui est protégé (et, par conséquent, le code objet et le code source associé).
Évidemment, comme il n'y a pas de jurisprudence sur les AI, on peut fantasmer sur n'importe quoi, mais à moins d'un retournement de jurisprudence ou une interprétation différente du fait de l'AI, il semble hautement douteux qu'un tribunal puisse conclure à la contrefaçon parce qu'un auteur croit reconnaitre son code dans la sortie d'un modèle de langage. Paradoxalement, un modèle de langage bien configuré ne retourne qu'un texte consensuel, entrainé sur plusieurs sources équivalentes; par conséquent, la sortie ne peut pas être originale (et s'il y a des dizaines de bouts de code indépendants qui font la même chose, on peut également questionner l'originalité).
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.