Le meilleur modèle de langage pour le savoir médical est libre

Posté par  . Édité par Benoît Sibaud, Julien Jorge et Ysabeau 🧶 🧦. Modéré par Benoît Sibaud. Licence CC By‑SA.
16
3
déc.
2023
Science

Des scientifiques de l’École polytechnique fédérale de Lausanne lancent Meditron, le grand modèle de langage sous licence libre et adapté au domaine médical le plus performant au monde. Objectif : aider à la prise de décision clinique. Entraîné avec des données ouvertes et distribué sous licence libre Apache, ce modèle est également beaucoup moins gourmand en ressources que les chatbots du marché : libre à chacun de mettre des moyens pour l’utiliser et l’améliorer.

Cette dépêche est un travail dérivé d’un texte original de Tanya Petersen diffusé sous licence de nature « Attribution - Partage dans les Mêmes Conditions » (CC-BY-SA 4.0)

Les grands modèles de langage sont des algorithmes d’apprentissage profond entraînés avec d’innombrables textes pour apprendre des milliards de relations mathématiques entre les mots (également appelés « paramètres »). Ceux-ci sont de plus en plus connus, car ils constituent la base algorithmique de chatbots comme ChatGPT d’OpenAI et PaLM, utilisé pour Bard de Google. Les plus grands modèles d’aujourd’hui possèdent des centaines de milliards de paramètres, et leur entraînement coûte également des milliards de dollars.

Alors que les modèles généralistes à grande échelle comme ChatGPT peuvent aider les utilisatrices et utilisateurs à accomplir un ensemble de tâches, comme rédiger des courriels ou créer des poèmes, le fait de cibler un domaine de connaissance spécifique peut permettre aux modèles d’être plus petits et plus accessibles. Par exemple, les grands modèles de langage qui sont entraînés avec des connaissances médicales de qualité peuvent potentiellement démocratiser l’accès à des informations fondées sur la science pour aider dans les prises de décisions cliniques.

De nombreux efforts ont déjà été déployés pour exploiter et améliorer les connaissances médicales et les capacités de raisonnement des grands modèles de langage. Pourtant, à ce jour, l’IA qui en découle est soit fermée et privatrice (par exemple MedPaLM et GPT-4, soit limitée à une échelle d’environ 13 milliards de paramètres, ce qui en restreint l’accès ou la capacité.

À des fins d’amélioration de l’accès et de la représentation, des chercheuses et chercheurs de la Faculté informatique et communications de l’EPFL ont mis au point Meditron 7B et 70B, une paire de grands modèles de langage open source comportant respectivement 7 et 70 milliards de paramètres et adaptés au domaine médical, et les ont présentés dans leur article en prépublication intitulé Meditron-70B: Scaling Medical Pretraining for Large Language Models.

S’appuyant sur le modèle Llama-2 en libre accès (via une licence spécifique) lancé par Meta, avec la contribution continue de cliniciennes et cliniciens ainsi que de biologistes, Meditron a été entraîné avec des sources de données médicales soigneusement sélectionnées. Ces dernières incluaient la littérature médicale évaluée par des pairs et issue de référentiels en libre accès comme PubMed, et un ensemble unique de directives de pratiques cliniques diverses, couvrant de nombreux pays, régions, hôpitaux et organisations internationales.

« Après avoir développé Meditron, nous l’avons évalué par rapport à quatre points de référence médicaux majeurs, montrant que ses performances dépassent celles de tous les autres modèles open source disponibles, ainsi que celles des modèles fermés GPT-3.5 et Med-PaLM. Meditron-70B est même à moins de 5% de GPT-4 et 10% de Med-PaLM-2, les deux modèles les plus performants, mais fermés, actuellement adaptés aux connaissances médicales », explique Zeming Chen, principal auteur de l’étude et doctorant au sein du Laboratoire de traitement du langage naturel (NLP) dirigé par le professeur Antoine Bosselut, chercheur principal du projet.

Dans un monde où la plupart des gens se méfient, voire redoutent, les progrès rapides de l’intelligence artificielle, le professeur Martin Jaggi, responsable du Laboratoire d’apprentissage machine et d’optimisation (MLO) de l’EPFL, souligne l’importance de la particularité open source de Meditron, y compris le code de sélection du corpus médical de préentraînement et les poids des modèles.

« Il y a une transparence sur la manière dont Meditron a été entraîné et les données qui ont été utilisées. Nous souhaitons que les chercheuses et chercheurs testent notre modèle et le rendent plus fiable et plus robuste grâce à leurs améliorations, en renforçant sa sécurité dans la validation en conditions réelles, un processus long et nécessaire. Rien de tout cela n’est disponible avec les modèles fermés développés par les grandes entreprises technologiques », explique-t-il.

La professeure Mary-Anne Hartley, médecin et responsable du Laboratory for intelligent Global Health Technologies, hébergé conjointement au Laboratoire MLO de l’EPFL et à l’École de médecine de Yale, dirige les aspects médicaux de l’étude. « La sécurité était au centre de nos préoccupations dès le début de la conception de Meditron. Ce qui est unique, c’est qu’il code les connaissances médicales à partir de sources transparentes d’informations de qualité. Il s’agit maintenant de s’assurer que le modèle est capable de fournir ces informations de manière appropriée et en toute sécurité ».

Les directives de pratiques cliniques du Comité international de la Croix-Rouge (CICR) constituent l’une de ces sources d’informations de qualité.

« Il n’est pas fréquent que les nouveaux outils de santé soient pertinents pour les besoins humanitaires », souligne Javier Elkin, qui dirige le Programme de santé numérique au CICR. « Le CICR est un gardien essentiel des principes humanitaires. Nous sommes ravis de collaborer avec cette initiative de l’EPFL qui nous permet d’intégrer nos directives à la technologie ».

Grâce à une bourse Humanitarian Action Challenge coordonnée par l’EssentialTech Centre de l’EPFL, début décembre, un atelier commun à Genève explorera le potentiel, ainsi que les limites et les risques, de ce type de technologie, avec une session spéciale sur Meditron par les autrices et auteurs.

« Nous avons développé Meditron car l’accès aux connaissances médicales devrait être un droit universel » conclut Antoine Bosselut. « *Nous espérons qu’il sera un point de départ utile pour les chercheuses et chercheurs qui souhaitent adapter et valider cette technologie en toute sécurité dans leur pratique ».

Le lancement de Meditron s’inscrit dans la mission du nouveau Centre IA de l’EPFL qui porte sur la manière dont une IA responsable et efficace peut faire progresser l’innovation technologique au profit de tous les secteurs de la société. Le Centre IA de l’EPFL veut tirer parti de la vaste expertise du corps enseignant et de la communauté de recherche. Il encourage un engagement multidisciplinaire dans la recherche, l’enseignement et l’innovation en matière d’IA, ainsi que des partenariats plus larges avec différents acteurs de la société.

Aller plus loin

  • # Open source, mouais...

    Posté par  (site web personnel, Mastodon) . Évalué à 10.

    Le terme d'« open source » est déjà utilisé pour désigner tout et n'importe quoi par des journalistes ou marketeux paresseux. Mais, dans le monde des LLM, c'est bien pire. Si les auteurs de Meditron font manifestement un effort d'ouverture, leur modèle n'est pas parti de zéro, c'est un raffinage de Llama qui n'est absolument pas libre (par exemple, la licence interdit de l'utiliser pour développer un autre modèle, c'est comme si la licence de gcc interdisait de l'utiliser pour développer clang/LLVM). Il est donc probable que Meditron hérite de la licence (pas du tout « open source ») de Llama.

  • # Merci pour cette info

    Posté par  (Mastodon) . Évalué à 2.

    Je vais m'en servir pour ma prochaine formation Big Data au Groupe Pasteur.

  • # Merci

    Posté par  . Évalué à 0.

    Magnifique projet!

    Je pense qu'il est sain que ce genre de tech ne soit pas la main mise de greedo corpo pharma tech inc.
    Si des versions open source haute qualité voient le jour des les débuts, ils auront moins de marge de manœuvre pour faire gober les innocentes gens qu'avoir un tel service gratuit et libre est techniquement infaisable (…blah blah blah bs de marketeux véreux.)

  • # C'est une mauvaise nouvelle !

    Posté par  (site web personnel) . Évalué à 3.

    Merci pour cette info.
    C'est une très mauvaise nouvelle, à moins que je n'ai pas compris. Je cherche justement à me renseigner sur toutes ces IA que l'on tente de nous imposer. Mon entreprise travaille sur des données de santé et nous donne accès à ChatGPT, et j'ai découvert que des collègues ont accès à Copilot. Bref.
    Ce n'est pas une bonne nouvelle, car les IA LLM, bien qu'impressionnantes, ne sont pas des outils pour prendre des décisions, mais des outils statistiques. Ils vont donc rendre leur verdict probable, mais dénoué de toute logique et de toute vérité scientifique.
    Un exemple que ChatGPT ne connait pas la logique : https://www.reddit.com/r/ChatGPT/comments/11vmdqn/chatgpt_isnt_very_good_at_math_or_am_i_making_a/
    Un exemple que BingIA ne connait pas la vérité : https://tiggi.es/@FinnleyDolfin/111456158604856914?utm_source=pocket_saves
    Vu la complexité de la littérature scientifique, ses escroqueries, je pense par exemple à Didier Raoult qui a écrit entre 2000 et 3000 papiers dans sa carrière, soit un par semaine au minimum, il ne faut absolument pas qu'une IA LLM fasse du diagnostic médical.
    Je ne dis pas que l'IA ne peut pas aider à l'interprétation d'une radiographie ou autre résultat, mais heureusement, les médecins ont conscience que leur diagnostique les engage.
    Toutes ces IA sont une catastrophe écologique et ne vont pas dans le sens de la sobriété énergétique qui va nous tomber dessus, donc si on pouvait ne pas rendre notre activité dépendante de toutes ces cochonneries et utiliser notre cerveau, merci !

    • [^] # Re: C'est une mauvaise nouvelle !

      Posté par  (site web personnel) . Évalué à 4.

      Ils vont donc rendre leur verdict probable, mais dénoué de toute logique et de toute vérité scientifique.

      le seul fait que chatgpt n'est pas en mesure d'afficher un taux de confiance dans ses réponses le disqualifie pour toute prise de décision… si encore il ne mentait pas de manière éhontée :/

    • [^] # Re: C'est une mauvaise nouvelle !

      Posté par  . Évalué à -2.

      Bonjour,

      Je ne pense qu'il soit pertinent ni honnête d'accuser le Professeur Didier Raoult d'escroquerie sur ce site. Il y a des plateaux télévisés spécialisés.

      Après tout, il a été une référence française et mondiale en matière d'infectiologie et virologie jusqu'à ce qu'il prenne les armes contre les grands labos vaccinateurs. En tout cas, ses pairs spécialistes ne l'ont pas accusé d'escroquerie. Que des médecins et des scientifiques ne soient pas d'accord sur des sujets mal connus est très sain pour la science, où l'unanimité est toujours dangereuse et annonciatrice d'obscurantisme.

      Maintenant, si des fois il s'avérait que le Professeur Raoult a escroqué le monde et la France pendant des dizaines d'années, et ben ca serait très grave, car ca voudrait dire qu'autour de lui, tous sont aveugles !!

      • [^] # Re: C'est une mauvaise nouvelle !

        Posté par  . Évalué à 0. Dernière modification le 19 décembre 2023 à 10:11.

        il a été une référence française et mondiale en matière d'infectiologie et virologie jusqu'à ce qu'il prenne les armes contre les grands labos vaccinateurs.

        Non, faut pas la refaire à l'envers. C'est bien avant qu'on ne parle de vaccins qu'il a commencé à "déraper" hors de la science, sans doute parce que son ego ne lui permettait pas d'avouer qu'il s'était trompé en affirmant prématurément (sur youtube !!!) que le covid était la maladie pulmonaire la plus facile à guérir.

        Quant à avoir été une référence mondiale, je ne suis absolument pas qualifié pour en juger mais quand bien même ce serait vrai, il faut toutefois rappeler que le titre qu'il s'attribue lui-même de meilleur spécialiste français au monde provient d'un ranking fourni par un site dont l'algorithme se base principalement sur le nombre de publications.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.