La chimie reste de la chimie. Il n'y a pas de chimie distincte pour les médocs et la toxicité ou pour le reste du corps humain.
L'effet cocktail peut s'expliquer par d'interactions qui favorisent ou défavorisent les absorptions des molécules toxiques mais aussi parce qu'un composé seul peut être inoffensif mais en présence d'autre chose réagir et avoir des sous produits de réactions qui sont eux toxiques.
Le soucis c'est que c'est difficile à évaluer et de tester tous les combos. Surtout que notre corps régule beaucoup de composés aussi à des fréquences variables.
Donc oui cet effet peut exister et il faut être humble devant nos connaissances à ce sujet.
Cependant cela ne veut pas dire qu'on ne sait rien ni que l'effet cocktail concerne tous les produits et tout le monde avec la même dangerosité
Même sans aller si loin, ce n'est pas pour rien non plus que :
Certains médicaments / compléments alimentaires doivent être pris avec de l'eau ou plutôt avec un repas gras suivant si c'est liposoluble ou non ;
Certains médicaments ne doivent pas être pris ensembles ou avec certains aliments pour éviter de se neutraliser en terme d'absorption ;
Que certains médicaments doivent être pris à jeun pour mieux contrôler le dosage reçu de manière effectif.
Le corps humain est très dynamique, il faut dire que c'est une succession de réactions chimiques très variés et à grande échelle. C'est très étonnant de penser que la toxicité puisse être une notion totalement indépendante de cette dynamique.
Leur papier est publique, si tu trouves des problèmes tu peux les décrire ici.
Ouais leur papier est certes public mais cela reste un communiqué de presse et non une étude scientifique.
La méthodologie précise est absente, de nombreuses données manquent comme le modèle employé et la taille du prompt médian et le type de requête que cela représente car entre un raisonnement et une requête basique il y a un monde.
De plus ce qui compte aussi, et ce n'est pas un détail, c'est la pollution et consommation globale qui compte et non par requête. Donnée aussi manquante.
Le simple fait qu'ils disent que les serveurs sont alimentés par des énergies renouvelables montre que c'est quand même un outil de communication plus qu'un exemple de rigueur scientifique, je doute fortement que leurs serveurs soient alimentés 100% par de l’électricité renouvelable qu'ils produisent, ils ont probablement un système de certificats pour affirmer cela ce qui est relativement malhonnête pour l'attribution des émissions.
Bref, leur article reste relativement opaque et quand tu ajoutes à cela que c'est produit par l'entreprise elle même, il faut quand même se méfier des résultats bruts. Le résultat n'est pas inintéressant mais il ne faut pas non plus considérer le résultat communiqué comme objectif et et scientifiquement valide.
De ce que j'avais lu concernant cette histoire, il existait des démonstrations de valeurs plus intéressantes dans la nature autour de cette question.
Et à la lecture du résultat il semble que ce n'est pas un problème si complexe pour un chercheur en maths, ni quelque chose qui demande de créer de nouveaux concepts, objets ou raisonnements. Un peu comme coder avec pour générer du code nouveau mais qui reste dans l'ordre du connu.
Ce n'est pas inintéressant comme résultat mais pas aussi renversant que certains le disent non plus.
J'ai infiniment plus de respect et d'émotion devant l'art génératif algorithmique ou il s'agit de faire avec économie de moyen et quelques idées mathématiques … même si c'est souvent sommaire et abstrait.
Le premier ressemble dans l'idée aux démos où tu génères de la musique, des images ou scènes à partir d'algorithmes avec pour objectif d'avoir des effets sympa qui consomment le moins de ressources possible tout en étant temps réels pour les arts dynamiques.
Y'a un côté artistique évidemment mais aussi technique qui demande souvent pas mal d'efforts pour trouver des compromis intéressant entre temps d'exécution, quantité de mémoire et effets obtenus. Un milieu très créatif et pas évident.
C'est bien qu'ils fournissent des chiffres et des progrès en ce sens par requête.
Cependant il y a quand même quelques oublis dans ce tableau.
Tout d'abord cela se base sur la requête médiane qui est probablement courte (genre une requête Google classique). Or les requêtes plus longues sont significativement plus gourmands et on pousse de plus en plus à s'en servir.
Certains modes de fonctionnement cumulent les usages, par exemple si Gemini fait des recherches sur Internet, il utilise aussi un moteur de recherches et des sites externes pour collecter des infos. Les bilans se cumulent et ne se compensent pas.
À mesure qu'ils ont des gains d'efficacité les gens s'en servent toujours plus, que ce soit par utilisateur comme collectivement. Pas pour rien qu'ils investissent tous dans beaucoup d'infrastructure pour tenir la montée en charge, que la consommation énergétique de ces entreprises a fortement augmenté et qu'ils ont tous repoussé leurs objectifs environnementaux.
Le bilan carbone de l'infra au global (construction des puces, etc.) n'est pas pris en compte non plus.
C'est pourtant au global que l'impact doit être mesuré car c’est ce qui compte vraiment, pas juste le bilan par requête même si c'est déjà ça.
Alors oui on peut comprendre mais ça demande un effort certain, beaucoup de mots ont changé d'orthographe, la manière d'écrire a clairement évolué en terme de style et beaucoup de mots ont aussi disparu depuis (et donc on en comprend pas immédiatement le sens, on doit souvent deviner).
Ce n'est pas pour rien que les collégiens ne lisent jamais Molière en texte d'origine mais toujours une version modernisée pour rendre cela plus digeste. Et même avec ça c'est facile de se faire avoir (évolutions culturelles et de vocabulaires obligent).
Cela est d'ailleurs valable pour des auteurs anciens dans d'autres langues.
Le "e" se prononce "i" et le "ai" se prononce "é". Deux nouvelles exceptions orthographiques en 5 lettres. Les mots "courriel" et "mél" n'introduisent pas de nouvelles difficultés orthographiques. (par contre, je crains qu'on repassera pour être encore compris dans 5 siècles)
Notons que c'est souvent le cas pour les néologismes transcrits tels quelles depuis une autre langue. sine die par exemple n'est pas une locution qui se prononce comme du français standard à partir de son orthographe. C'est le propre de ce mécanisme même si une francisation peut apparaître sur le temps long en changeant l'orthographe ou la prononciation mais cela n'a rien de systématique.
De toute façon si tout le monde dit et écrit email, l'avis de l'Académie Française n'empêchera pas son adoption et de fait son inclusion dans l'usage et dans le vocabulaire courant du français.
Cela ne permet pas d'influer significativement le chiffre de la France… à moins qu'il soit 10 fois pire… ce qui n'est pas le cas car les DOM/TOM, si certes sont relativement moins bien équipé (côte hôpitaux, comme PIB ou infrastructure), ne sont pas dans un état catastrophique.
Les DOM-TOM ont une mortalité infantile comprise entre 6,7 et 8,9 pour milles, je rappelle que la moyenne nationale c'est 3,9. Il y a donc un facteur deux très net en jeu. Rien que cet écart explique 0,2 pour mille de différence à l'échelle nationale (ce qui est l'ordre de grandeur de l'augmentation dont on parle ici tout de même).
Le pire département métropolitain est la Seine St Dennis avec 5,4 pour mille. Seulement trois départements qui dépassent les 5.
Alors oui ça n'explique pas tout, mais il ne faut pas non plus fermer les yeux. Car on voit que très clairement qu'ils n'ont pas les mêmes ressources que nous pour gérer la santé (cela se voit sur d'autres indicateurs, pas juste la mortalité infantile). Ce n'est pas un hasard si les cinq départements d'outre mer ont un tel écart avec la métropole, c'est un problème malheureusement courant et il est honteux de les laisser dans une telle situation.
En outre la France n'est pas le seul pays à avoir des DOM/TOM. Le Groenland DOM/TOM des pays bas
Le Groenland est très peu habité et a un taux de fécondité similaire au Danemark, ce n'est pas le cas de notre Outre Mer qui est bien plus habité et avec une natalité plus élevée.
Pour les Pays-Bas de même l'écart est aussi important. Même le moins peuplé Mayotte l'est deux fois plus que leur plus peuplé à savoir Curaçao.
Bref, faut se reposer un peu plus sur les calculs pour comparer.
Il est certainement plus difficile à gérer que nos DOM/TOM tropicaux (Imagine toi habiter à 1000 km de l'hôpital le plus proche sur une île glacée…).
Pourtant leur mortalité infantile est dans les mêmes eaux. Donc qu'en conclure ? Sans doute qu'on gère mal la situation là bas faute d'infra, ressources ou de personnel adéquat ?
Ce que je dis, c'est juste que les DOM/TOM ne sont pas une excuse pour avoir de mauvais chiffres.
Comme je le montre, ce n'est pas la seule explication mais l'ignorer serait une erreur.
Ce que l'INSEE montre c'est que quelques départements ont des résultats bien plus faibles que les autres et le fait qu'ils soient probablement des zones relativement pauvres devraient être un indicateur que le problème est lié.
Mais cela montre aussi qu'en allouant les ressources à ces quelques territoires on pourrait largement améliorer le résultat global, probablement plus simple qu'en ayant des mesures qui couvrent tout le territoire.
Puis si tu améliorer la gestion de la mortalité infantile dans ces territoires, nul doute que le bénéfice se verrait pour d'autres indicateurs de santé.
Évidemment, c'est facile de dire que c'était pire avant, je peux même te prédire que ça va progresser.
Je rappelle juste que la régressé observée reste quand même dans des valeurs qu'on observe depuis 20 ans qui sont les meilleurs de l'Histoire du pays. Donc comparer à il y a 30 ans où la situation était déjà bonne on reste dans une meilleure posture.
C'est bien de le garder en tête, oui il y a une régression et cela doit servir à comprendre ce qui se passe et à adapter les dispositifs mais cela ne signifie pas pour autant que c'est la fin.
Gnome est bien connu pour passer son temps à casser la compatibiité entre les diverses versions de ses API.
La seule chose que GNOME casse régulièrement c'est l'API de ses extensions, et encore c'est plus stable maintenant.
Beeaucoup d'applis Gnome passsent lleur temps à "évoluer" en supprimant des fonctionnalités.
C'est plutôt faux ça en vrai. Il y a eu quelques cas mais comme dans tout logiciel en vrai. La question des fonctionnalité est toujours un compromis entre utilité / effort de maintenance / simplicité d'utilisation. Parfois retirer une fonctionnalité peu utilisée mais qui complique la vie des utilisateurs ou des développeurs c'est la meilleure chose à faire.
Systemd passe son temps à tout recoder (DNS, Date/time, etc …) pour des trucs qui marchent moins bien que les applis qu'ils sont censés "remplacer" Et le problème avec systemD, c'est que tu ne peux pas virer ces trucs : tu es juste contrant de les désactiver quand tu ne veux pas t'en servir, et t'es pas à l'abri d'une réactivation sans prévenir à la prochaine mise à jour.
Je me sers de systemd tous les jours à la maison et au travail et c'est un bonheur par rapport à avant. Et mon boulot c'est de maintenir des firmware donc des "distro maison".
Alors oui ce n'est pas parfait mais on est loin du portrait que tu dresses.
Donc ouil l'enshitifcation est bien présente dans le logiciel libre.
L'emmerdification c'est valoriser le bilan financier de l'entreprise au détriment des utilisateurs.
systemd et GNOME ne sont pas dans ce cadre, ils font des choix qui conviennent à énormément de monde mais bien sûr pas à tous.
Perso j'ai aimé GNOME 2, mais j'adore encore plus GNOME 3. C'est vraiment mon environnement idéal. Et j'en connais plein qui partagent le même point de vue.
Mais je trouve ça super que pour certains Xfce, KDE ou autre est la meilleure solution. C'est l'avantage du libre, on a le choix. Un logiciel unique ne peut pas satisfaire tout le monde à la perfection.
ouias c'est ce que j'aimerais faire avec suystemd. Je demande pas grand chose, juste pouvoir virer les briques qui ne m'intéressent pas.
Tu peux, mais après si la distro ne le propose pas le soucis est la distro et pas systemd.
C'est pas anodin que sa principale critique contre Julia c'est de ne pas être un académique/expert reconnu. Bref ça tourne autour de la légitimité à être producteur-transmetteur de savoir, mais toujours dans une vision descendante et hiérarchique de la connaissance. Bref petite guéguerre entre petites bourgeoisies culturelle et économique.
Pour moi ce n'est pas la principale critique qu'il adresse à Julia, c'est même presque du détail.
Résumons rapidement les gros arguments :
Quand il parle des LLMs, tout ce qui dit montre une mauvaise compréhension de leur fonctionnement qu'on peut difficilement attribuer à un objectif de vulgarisation (on peut être beaucoup plus justes tout en restant simple) ;
Il cite des études anciennes dont il déforme la porté et le protocole pour valoriser son propos ;
Il est vendu comme co créateur de Siri mais manifestement aucun élément tangible ne montre que c'est le cas ;
Il raconte des anecdotes autour de Siri qui avec les informations disponibles peuvent montrer que ce n'est pas très crédible ;
Il prétend qu'en tant que mathématicien il va faire une démo de maths de son propos mais son raisonnement n'a rien d'une démo de maths et en effet son statut en tant que mathématicien est douteux ;
Difficile de rester expert quand tu fais 150 interventions / conférences par an, tu de détaches forcément de l'expertise.
Donc je ne trouve pas que la remarque la plus pertinente et forte soit d'ordre du diplôme. C'est bien au delà de ça.
Évidemment, mais il y a des années lumières entre "niveau créatif c'est le néant" et "construire des nouveaux paradigmes dans les domaines scientifiques". En fait, là, on parle de *superintelligence artificielle", et à ma connaissance aucun des modèles existants prétend à la superintelligence.
La superintelligence c'est au delà de ça encore.
C'est le fait que l'IA surpasse l'Humanité et peut du coup aller bien plus loin, plus vite quitte à ce que l'Humanité ne suive plus.
Repousser un peu les limites ou améliorer la physique ou les maths ne signifie pas que ce soit le cas. Einstein a pu faire ça tout en restant humain (enfin, je crois ?).
Dans tous les cas, tu fais bien d'insister sur le fait qu'il ne faut pas confondre les versions des modèles utilisées pour les tests et les benchmarks, qui sont des versions de développement avec souvent beaucoup de ressources disponibles, et les versions gratuites grand public. Même si l'écart se compte parfois en mois ou en quelques années, donc ça n'est quand même pas comparer une navette spatiale et une twingo.
Je ne compare pas des modèles de tests et de production, je compare le fait que le benchmark ce n'est pas la vraie vie et vice versa.
C'est d'ailleurs pareil pour les humains. Tu peux être la brute de concours en prépa, être le major de ta promo et devenir un mathématicien médiocre et inversement.
C'est d'ailleurs un gros problèmes entre ce que les benchmarks disent des LLM et leur capacité à remplacer intégralement des employés, la transposition n'est pas immédiate.
Démontrer des théorèmes sans créer de nouvelles formes de maths c'est aussi le boulot des mathématiciens, et on en est là.
Des théorèmes non triviaux qui n'étaient pas encore démontrés y'en a eu beaucoup de trouvés avec ça ? Ce n'est pas l'impression que j'ai eu.
La réalité est qu'on n'en sait rien. Je ne vois rien en tout cas qui rendrait impossible l'atteinte d'une singularité technologique dans les années qui viennent.
Le fait qu'il y ait des faiblesses structurelles dans les raisonnements et la restitution des connaissances malgré la quantité de données qu'ils ont reçu à l'entrainement (plus que tout être humain peut ingurgiter dans une vie) est pour moi un signe que la marche est plus grande qu'il n'y paraît.
Je suis en vrai dubitatif que les modèles actuels soient la bonne voie pour cet objectif.
La singularité est d'ailleurs sujet à débat car il ne suffit pas d'avoir une AGI pour ça. Il faut aussi que l'IA puisse avoir les ressources pour travailler et faire ce qu'il y a à faire, que la limite en bande passante des progrès scientifiques soit les capacités cognitives humaines aujourd'hui (pour info y'a les matériaux, l'énergie et les lois de la physique qui sont aussi des limites à cela, et cela s'appliquera à une telle entité), qu'il y a en réalité matière à aller beaucoup plus loin dans le domaine des connaissances et à pouvoir les mettre en oeuvre, etc.
Alors peut être que cela arrivera, mais le scénario LLM => AGI => singularité le tout en quelques années est très ambitieux et il y a pas mal d'obstacles réels à ces scénarios. Ce n'est clairement pas garantie et la réalité est qu'aujourd'hui comme je le dis et tu sembles d'accord avec ça : on n'en sait rien, cela arrivera peut être, peut être pas, ou peut être dans vraiment longtemps.
Sur le côté créatif, même les premières versions de chatGPT ont montré leur capacité à créer : de la musique, du texte, des images, des objets 3D, etc. Je trouve que la question ne se pose même pas, ces logiciels peuvent créer des "oeuvres" de manière bien plus efficace qu'un humain moyen (bien sûr, ça n'est pas du Zola, mais encore une fois le critère d'une IA n'est pas de surpasser le meilleur humain dans tous les domaines!).
Pour info il disait :
Mais en raisonnement créatif pur, c'est le néant.
Cela dépend de ce qu'on met derrière ces termes mais en terme de créativité il y a malgré tout des limites.
Par exemple est-ce que les IA seraient capables de construire de nouveaux objets ou paradigmes dans des domaines scientifiques tels que les maths, physique, etc. ? Le genre de rupture quand par exemple la physique a accouché de la relativité et de la mécanique quantique.
Basé sur ce qu'on peut voir, ces machines n'en sont pas capables. Le seront-ils demain ? On n'en sait rien.
Cette année, l'IA de Google a résolu 5 problèmes sur 6 des "International Math Olympiades", ce qui la classe dans les 30 premiers (c'est une compétition hyper-balaise). Les IA spécialisées ont le niveau des tous meilleurs mathématiciens du monde.
Mais ces machines montrent dans le même temps des faiblesses structurelles que ce soit dans les étapes de raisonnement comme de restitution des connaissances. Il ne suffit pas de brandir quelques résultats pour dire "ils ont le niveau des meilleurs mathématiciens du monde".
Par ailleurs le boulot d'un mathématicien est de repousser l'état de l'art des maths quitte à créer de nouveaux concepts et pour l'instant on n'en est pas là.
Cela ne signifie pas pour autant que tout ceci est inutile et qu'il n'y a rien de bons dedans.
Alors sur ton graphique comme sur le mien les deux ont des valeurs depuis 2020 en dessous des valeurs de 1996 (qui était de 5 - 4,9 au lieu de 3,7 - 4,1 aujourd'hui).
Donc il y a bien eu une baisse globale opérée depuis.
Je n'ai pas dit que la baisse a été continue entre temps. Comme pour d'autres pays européens.
Depuis 1996 le taux de mortalité infantile en France a baissé, comme d'autres pays européens, et d'autres pays européens ont connu parfois des fluctuations à la hausse entre temps aussi.
C'est un fait, cela ne veut pas dire que la situation est satisfaisante et qu'on ne peut pas faire mieux.
Je parlais de tendances longues (plusieurs décennies), pas des années récentes.
D'ailleurs si on regarde les courbes cités ici, on constate que la France n'est pas le seul pays européens à avoir des fluctuations à la hausse depuis 20 ans. Et parfois ils l'ont eu avant nous avant de diminuer après.
Quand a l'éffet DOM/TOM, il est extrêmement marginal dans la mesure ou les DOM/TOM sont quand même bien équipé
Ce sont pourtant les départements français qui ont le taux de mortalité infantile la plus élevée du pays.
Est-ce liée à la pauvreté ? À la qualité des infras ? Autre chose ? Les études ne le disent pas formellement, mais ils ont clairement un rôle dans le bilan global de la France et le fait qu'ils soient français n'empêche pas une telle situation.
La forte disparité du taux de mortalité infantile signifie qu'il y a sans doute quelques leviers accessibles à actionner sur ces territoires (Seine St Denis semble également très concernée) pour améliorer la situation localement et du coup le bilan global du pays aussi.
La France a eu 676 643 naissances en 2023 dont 38 239 en Outre-Mer soit 5,6% des naissances en France.
Ce n'est pas dérisoire, d'autant qu'ils ne représentent que 3,2% de la population totale.
Je ne trouve pas que ce soit négligeable surtout que les taux de mortalité infantile sont dans les faits faibles.
D'ailleurs la France n'a pas été toujours le mauvais élève, loin sans faux.
Le bilan global n'est dans l'absolu pas désastreux. Naître en France reste globalement sûr et c'est mieux de naître aujourd'hui qu'il y a 50 ans sur ce critère.
Mais on a moins progressé que certains de nos voisins. Reste à savoir pourquoi dans le détail pour fournir les bonnes politiques pour améliorer encore plus la situation. D'autant qu'il semble que ce problème touche plus certains territoires que d'autres, cela signifie qu'il y a sans doute moyen d'avoir un progrès important sans pour autant devoir réformer tout le pays et dépenser des milliards en infras et personnels partout.
Dit autrement, on a améliorer la prise en charge à 7 mois de grossesse, donc on peut prendre en charge à 6 mois. On ne dégrade donc pas la mortalité infantile avec la progression de la prise en charge. On la déporte plus tôt.
Sauf que un enfant qui naît à 7 mois ce n'est vraiment pas la même chose que s'il naît à 8 mois. Et cela est d'autant plus vrai plus tôt.
Cela signifie qu'à bien des égards tout est plus fragile : risques d'infection, problèmes à l'accouchement, organes pas suffisamment robustes, etc. Des situations qui se passent plutôt bien à 8 mois ne se passent vraiment plus aussi bien à 7 mois.
Et surtout en général si tu accouches à 7 mois, c'est souvent pour une raison particulière (liée à la maman comme au bébé) qui est de fait plus grave que si ça avait eu lieu un mois plus tard.
Bref, clairement pas, même si on arrive à soigner des situations de plus grand prématurés avant, cela ne signifie pas que le risque de morts post accouchements est constant. Cela peut juste signifier qu'avant on avait 0-5% de taux de survie et qu'on a su l'améliorer pour cette prématurité à 20% (j'invente les chiffres, l'idée est là)
On peut rajouter, que les maternité, accouchent à la chaîne et donc n'ont pas toujours le temps de bien se préparer, de bien préparer la maman. C'est aussi du vécut : A ben non, la vous arrivé pas au bon moment, on a un autre accouchement en cours. Ou inverssement, on accélère le processus, pour se débarrasser d'un accouchement (au mépris du confort de la maman), et du coup avec un peu plus de risques de complications (léger, mais certains).
Je ne suis pas convaincu que ce soit le principal problème concernant la mortalité infantile pour la coup. Non pas que ça ne mérite pas une attention particulière mais c'est un autre sujet.
Non, le réel problème, c'est que l'on a fermé des maternités. Beaucoup de maman ont plus d'une heure de route pour se rendre à la maternité, ce qui rends les examens pré-accouchements beaucoup plus difficile et les risques lié à une grossesse sur le bord de la route beaucoup plus important. J'ai connu ça. On va à la maternité, on nous dit. Fausse alerte, rentrez chez vous. Arrivé à la maison, 1 ou 2 jours plus tard on se dit, on va attendre, c'est peut-être une fausse alerte, on ne va pas faire 2h de route et 2h sur place pour rien…
La réalité est plus nuancée aussi. Les maternités qui ferment ce sont aussi des maternités qui faisaient peu d'accouchements, souvent en zone rurale avec peu d'habitants.
Alors oui, c'est un frein pour l'accès au soin. Mais cela signifie aussi que le personnel a moins d'entrainements, croise moins de cas différents ce qui peut aussi être un problème pour la prise en charge de certaines grossesses.
Ce n'est donc pas tout noir ou tout blanc sur ce point non plus, après améliorer la prise en charge médicale en zone rurale me semble pour le coup en effet important et cela ne passe pas forcément par plein d'hôpitaux de proximité, cela peut revêtir d'autres formes également.
Donc tu enlève l'équipe que tu remplace par du LLM. Tu ne garde que l'architecte. Ça me fait peur, mais ça marche.
Il y a aussi pas mal de limitations que j'ai mentionné, qui peuvent potentiellement être résolus mais tout cela reste malgré tout de l'ordre du conditionnel.
Reste le problème de comment tu obtiens cet architecte si il n'est pas passé par l'étape précédente. Pour l'instant ça va, mais dans 5-10 ans…
Oui, il y a évidemment la question de la transmission du savoir aux générations suivantes qui se posent.
Mais pas que d'ailleurs.
Par exemple concernant la productivité, en lisant certains, oui ils peuvent travailler plus vite sur le moment. Très bien. Mais faut aussi analyser sur le long terme.
Est-ce que les moments de code ou les pauses intellectuelles qu'on peut prendre ne sont pas nécessaires pour tenir dans la durée et avoir des idées nouvelles ou en tout cas meilleures ? Un petit peu comme ceux qui bossent 80h / semaine, oui sur le court terme tu gagnes potentiellement du temps mais si c'est ton rythme de croisière tu vas finir en burn out et boom.
Personnellement j'aime bien apprendre ce que je touche. Je ne suis pas très fan de l'approche "je bricole un peu au hasard". Dans mon boulot plusieurs fois j'ai du toucher à des projets dans des langages que je ne connaissais pas vraiment, des projets pour lesquels j'ai besoin de changer une ligne de code pour résoudre mon soucis, etc. Cas typique où certains utilisent par ailleurs des LLM car ce serait du code "jetable". Sauf que plus tard finalement ces langages ou projets je les ai retrouvé ailleurs ou le fait de bosser dessus m'a ouvert d'autres perspectives en terme de conception et possibilités pour d'autres projets. Ou en lisant la doc de l'API d'une bibliothèque j'ai découvert une fonctionnalité qui pourrait faire encore mieux que ce que j'envisageais de faire à l'origine quitte à retravailler un peu mon plan initial. Je serais sans doute passé totalement à côté de tout cela si j'avais confié cela à un LLM pour résoudre vite fait mon soucis.
Cela ne veut pas dire qu'il ne faut pas s'en servir ni même que ce sera un réel problème à long terme, mais je trouve que pas mal de retours d'expérience manquent de recul de longs termes avec ces pratiques. Certains commencent à dire les retours négatifs qu'ils perçoivent et que personne ne voyait au départ, nul doute que d'autres effets peuvent apparaître.
La difficulté, c'est de définir ce qu'est un raisonnement créatif pur. Il n'y a pas de définition formelle universelle. Mais je pense que pour l'usage couramment accepté de ce terme, que l'IA générative pourra se rapprocher suffisament de la créativité qu'il sera impossible de la distinguer de la créativité d'un humain, c'est même probablement déja le cas dans certains domaines. Croire que la créativité pourra être préservée est à mon avis une illusion.
Un exercice intéressant ce serait de mettre un système dans l'état des connaissances pré 1905 et voir si avec les données et connaissances de l'époque la machine peut retrouver ou imaginer des systèmes physiques qui ont été prédites grâce à la relativité restreinte, générale et mécanique quantique.
Pour cela il a fallu créer de nouveaux objets et concepts pour rendre compte des incohérences observées et qui ont été assez robustes pour prédire de nouvelles choses non mesurées à l'époque.
Pas évident, mais là on serait devant une preuve de créativité scientifique reproductible et claire. Il ne semble clairement pas possible à ce jour de faire ce genre de choses avec des LLMs. Peut être un jour. Et clairement si cela est effectué, ce serait un gap.
Après on peut utiliser n'importe quel cas analogue où la solution au problème n'est pas trivial et demande d'inventer plein de choses novatrices avec les connaissances sous la main. Que ce soit en physique, maths ou autre discipline.
Pas encore… Mais quand on voit les avancés obtenus avec les processus itératifs (ce qui est nommé « raisonnement »), et la conjonction avec des systèmes formels de preuves,
Je trouve que les processus itératifs tels qu'ils sont appliqués montrent justement rapidement leurs limites. C'est pas mal mais difficile de conclure si ça permettra d'aller aussi loin.
Je me demande si on n'est pas devant un phénomène de loi de Pareto : on obtient 80% d'un résultat spectaculaire avec 20% d'efforts, mais résoudre les difficultés résiduelles qu'on voit sera peut être très difficile, long et coûteux. Peut être pas, mais on a eu pas mal d'exemples dans le passé de technos ou prouesse qui semblait révolutionnaire et que la généralisation était qu'une question de mois et finalement pas du tout.
C'est difficile de prédire l'avenir sur ces questions en fait.
Alors quand je vois ce qu'elle est capable de faire avec des trucs plutôt réservés aux experts (genre faire du monkey patching pour aller modifier un objet d'une classe tierces et lui transformer ses descripteurs (des setters dans l'exemple)), je me dis qu'on est pas loin.
Est-ce vraiment ça de l'expertise Python ? J'ai vu des exemples plus probants, mais vu aussi des cas triviaux où ça ne fonctionnait pas par ailleurs. La résilience ce n'est pas encore ça.
Après, avec le fonctionnement actuel on aura a minima besoin d'experts pour la guider et la contrôler, mais à part ce cas d'usage, pour ma part
Ce n'est pas rien ni un détail.
De nombreux experts en fait font déjà plus ou moins ce travail. Ils ne passent pas leur temps à coder mais à diriger techniquement une équipe, à architecture la solution, à arbitrer entre coûts, fonctionnement, maintenance, faisabilité technique, à arbitrer entre des besoins ou désirs contradictoires, etc.
Et pour cela il faut comprendre le système, connaître les limitations techniques, les difficultés, avoir un minimum de bagage technique parfois dans différents domaines.
Alors peut être qu'un jour les LLMs feront ça sans soucis à partir des desirata d'un utilisateur ou d'un CEO mais ce n'est pas encore le cas en particulier pour des besoins et des systèmes complexes.
Moi mon problème c'est sur la formation de ces experts, qui le sont devenus en faisant les choses eux-mêmes, au cours du temps. Ce que j'ai peur, c'est que le vivier d'experts se tarisse, et qu'on n'arrive plus à renouveller la population d'experts, justement à cause de l'IA générative.
C'est un risque que je partage, il y a également le risque de la monoculture. Avoir plusieurs personnes qui participent à un projet, avec des expertises, des horizons, des cultures, des origines, des besoins, etc. d'origines différentes cela permet aussi de donner des points de vue et des reculs différents. Cela permet de discuter des fonctionnalités (est-ce vraiment pertinent ? On ne peut pas faire mieux que ça ?), de prendre en compte des critères qu'on n'avait pas pensé à la base, ou de proposer des solutions nouvelles.
Si tout repose sur un LLM avec un codeur et un manageur, le risque de monoculture devient plus importante et finalement d'avoir des résultats moins bons qu'en impliquant plus de personnes dans la conception.
D'ailleurs ce problème est par exemple très visible dans des entreprises qui ont une équipe non renouvelée depuis très longtemps et qui ne se maintient pas à jour techniquement. "On a a toujours fait comme ça", "les tests unitaires c'est quoi ?", "les gestionnaires de versions c'est un dépôt FTP avec des archives", etc.
Les autres pays de l'UE n'ont pas un tel Outre Mer, le Royaume-Uni en était un peu plus proche et encore mais depuis le Brexit ils ne sont pas dans le calcul.
Cela n'explique peut être pas tout mais peut être que la situation là bas plombe aussi les statistiques de la France entière.
Vue la disparité du taux de mortalité infantile sur le territoire, faudrait regarder les cas où c'est élevé. Est-ce la santé des mères ? Problèmes d'infra ? Manque de personnel médical ? Mélange de tout ça ?
Et les vérifier parce que les hallucinations n'ont pas disparu donc ça va inventer des sources de temps en temps…
Mais aussi parce que le LLM peut dire qu'il se base sur la source X mais en réalité le contenu n'est pas lié (ou exploite mal la dite source).
Mais en fait cela dépend, de nombreuses requêtes aux LLM ne passent pas par un accès à Internet et du coup tout repose sur les données d'entrainement, et là son résultat ne repose sur aucune source particulière.
[^] # Re: 46% sur 60 testé
Posté par Renault (site web personnel) . En réponse au lien 46 % des bornes de recharge électriques dépassent les seuils. Évalué à 6 (+3/-0).
Quel rapport ?
La chimie reste de la chimie. Il n'y a pas de chimie distincte pour les médocs et la toxicité ou pour le reste du corps humain.
L'effet cocktail peut s'expliquer par d'interactions qui favorisent ou défavorisent les absorptions des molécules toxiques mais aussi parce qu'un composé seul peut être inoffensif mais en présence d'autre chose réagir et avoir des sous produits de réactions qui sont eux toxiques.
Le soucis c'est que c'est difficile à évaluer et de tester tous les combos. Surtout que notre corps régule beaucoup de composés aussi à des fréquences variables.
Donc oui cet effet peut exister et il faut être humble devant nos connaissances à ce sujet.
Cependant cela ne veut pas dire qu'on ne sait rien ni que l'effet cocktail concerne tous les produits et tout le monde avec la même dangerosité
[^] # Re: 46% sur 60 testé
Posté par Renault (site web personnel) . En réponse au lien 46 % des bornes de recharge électriques dépassent les seuils. Évalué à 6 (+3/-0).
Même sans aller si loin, ce n'est pas pour rien non plus que :
Le corps humain est très dynamique, il faut dire que c'est une succession de réactions chimiques très variés et à grande échelle. C'est très étonnant de penser que la toxicité puisse être une notion totalement indépendante de cette dynamique.
[^] # Re: bof
Posté par Renault (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 6 (+3/-0).
Ouais leur papier est certes public mais cela reste un communiqué de presse et non une étude scientifique.
La méthodologie précise est absente, de nombreuses données manquent comme le modèle employé et la taille du prompt médian et le type de requête que cela représente car entre un raisonnement et une requête basique il y a un monde.
De plus ce qui compte aussi, et ce n'est pas un détail, c'est la pollution et consommation globale qui compte et non par requête. Donnée aussi manquante.
Le simple fait qu'ils disent que les serveurs sont alimentés par des énergies renouvelables montre que c'est quand même un outil de communication plus qu'un exemple de rigueur scientifique, je doute fortement que leurs serveurs soient alimentés 100% par de l’électricité renouvelable qu'ils produisent, ils ont probablement un système de certificats pour affirmer cela ce qui est relativement malhonnête pour l'attribution des émissions.
Bref, leur article reste relativement opaque et quand tu ajoutes à cela que c'est produit par l'entreprise elle même, il faut quand même se méfier des résultats bruts. Le résultat n'est pas inintéressant mais il ne faut pas non plus considérer le résultat communiqué comme objectif et et scientifiquement valide.
[^] # Re: bof
Posté par Renault (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 6 (+3/-0).
De ce que j'avais lu concernant cette histoire, il existait des démonstrations de valeurs plus intéressantes dans la nature autour de cette question.
Et à la lecture du résultat il semble que ce n'est pas un problème si complexe pour un chercheur en maths, ni quelque chose qui demande de créer de nouveaux concepts, objets ou raisonnements. Un peu comme coder avec pour générer du code nouveau mais qui reste dans l'ordre du connu.
Ce n'est pas inintéressant comme résultat mais pas aussi renversant que certains le disent non plus.
[^] # Re: bof
Posté par Renault (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 7 (+4/-0).
Le premier ressemble dans l'idée aux démos où tu génères de la musique, des images ou scènes à partir d'algorithmes avec pour objectif d'avoir des effets sympa qui consomment le moins de ressources possible tout en étant temps réels pour les arts dynamiques.
Y'a un côté artistique évidemment mais aussi technique qui demande souvent pas mal d'efforts pour trouver des compromis intéressant entre temps d'exécution, quantité de mémoire et effets obtenus. Un milieu très créatif et pas évident.
# Effet rebond tout ça
Posté par Renault (site web personnel) . En réponse au lien "the median Gemini Apps text prompt uses 0.24 watt-hours (Wh) of energy, emits 0.03 grams of co2". Évalué à 8 (+5/-0).
C'est bien qu'ils fournissent des chiffres et des progrès en ce sens par requête.
Cependant il y a quand même quelques oublis dans ce tableau.
Tout d'abord cela se base sur la requête médiane qui est probablement courte (genre une requête Google classique). Or les requêtes plus longues sont significativement plus gourmands et on pousse de plus en plus à s'en servir.
Certains modes de fonctionnement cumulent les usages, par exemple si Gemini fait des recherches sur Internet, il utilise aussi un moteur de recherches et des sites externes pour collecter des infos. Les bilans se cumulent et ne se compensent pas.
À mesure qu'ils ont des gains d'efficacité les gens s'en servent toujours plus, que ce soit par utilisateur comme collectivement. Pas pour rien qu'ils investissent tous dans beaucoup d'infrastructure pour tenir la montée en charge, que la consommation énergétique de ces entreprises a fortement augmenté et qu'ils ont tous repoussé leurs objectifs environnementaux.
Le bilan carbone de l'infra au global (construction des puces, etc.) n'est pas pris en compte non plus.
C'est pourtant au global que l'impact doit être mesuré car c’est ce qui compte vraiment, pas juste le bilan par requête même si c'est déjà ça.
[^] # Re: Intérêt du débat ?
Posté par Renault (site web personnel) . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à 4 (+1/-0).
Pépin le Bref (donc Pépin le Brèfle n'existe pas).
[^] # Re: De toute façon, ce qui compte pour une langue, c’est fait qu’elle soit parlée !
Posté par Renault (site web personnel) . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à 6 (+3/-0).
Euh, pardon ? Lire Molière, Racine ou Rabelais dans le texte original donc sans aucune adaptation en français moderne est pénible : https://fr.wikisource.org/wiki/Gargantua/%C3%89dition_Juste,_1535
Alors oui on peut comprendre mais ça demande un effort certain, beaucoup de mots ont changé d'orthographe, la manière d'écrire a clairement évolué en terme de style et beaucoup de mots ont aussi disparu depuis (et donc on en comprend pas immédiatement le sens, on doit souvent deviner).
Ce n'est pas pour rien que les collégiens ne lisent jamais Molière en texte d'origine mais toujours une version modernisée pour rendre cela plus digeste. Et même avec ça c'est facile de se faire avoir (évolutions culturelles et de vocabulaires obligent).
Cela est d'ailleurs valable pour des auteurs anciens dans d'autres langues.
Notons que c'est souvent le cas pour les néologismes transcrits tels quelles depuis une autre langue. sine die par exemple n'est pas une locution qui se prononce comme du français standard à partir de son orthographe. C'est le propre de ce mécanisme même si une francisation peut apparaître sur le temps long en changeant l'orthographe ou la prononciation mais cela n'a rien de systématique.
De toute façon si tout le monde dit et écrit email, l'avis de l'Académie Française n'empêchera pas son adoption et de fait son inclusion dans l'usage et dans le vocabulaire courant du français.
[^] # Re: pistes
Posté par Renault (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 3 (+0/-0).
Tu as regardé les chiffres de l'INSEE ou pas ?
https://www.insee.fr/fr/statistiques/7627069#tableau-figure1
Les DOM-TOM ont une mortalité infantile comprise entre 6,7 et 8,9 pour milles, je rappelle que la moyenne nationale c'est 3,9. Il y a donc un facteur deux très net en jeu. Rien que cet écart explique 0,2 pour mille de différence à l'échelle nationale (ce qui est l'ordre de grandeur de l'augmentation dont on parle ici tout de même).
Le pire département métropolitain est la Seine St Dennis avec 5,4 pour mille. Seulement trois départements qui dépassent les 5.
Alors oui ça n'explique pas tout, mais il ne faut pas non plus fermer les yeux. Car on voit que très clairement qu'ils n'ont pas les mêmes ressources que nous pour gérer la santé (cela se voit sur d'autres indicateurs, pas juste la mortalité infantile). Ce n'est pas un hasard si les cinq départements d'outre mer ont un tel écart avec la métropole, c'est un problème malheureusement courant et il est honteux de les laisser dans une telle situation.
Le Groenland est très peu habité et a un taux de fécondité similaire au Danemark, ce n'est pas le cas de notre Outre Mer qui est bien plus habité et avec une natalité plus élevée.
Pour les Pays-Bas de même l'écart est aussi important. Même le moins peuplé Mayotte l'est deux fois plus que leur plus peuplé à savoir Curaçao.
Bref, faut se reposer un peu plus sur les calculs pour comparer.
Pourtant leur mortalité infantile est dans les mêmes eaux. Donc qu'en conclure ? Sans doute qu'on gère mal la situation là bas faute d'infra, ressources ou de personnel adéquat ?
Comme je le montre, ce n'est pas la seule explication mais l'ignorer serait une erreur.
Ce que l'INSEE montre c'est que quelques départements ont des résultats bien plus faibles que les autres et le fait qu'ils soient probablement des zones relativement pauvres devraient être un indicateur que le problème est lié.
Mais cela montre aussi qu'en allouant les ressources à ces quelques territoires on pourrait largement améliorer le résultat global, probablement plus simple qu'en ayant des mesures qui couvrent tout le territoire.
Puis si tu améliorer la gestion de la mortalité infantile dans ces territoires, nul doute que le bénéfice se verrait pour d'autres indicateurs de santé.
Je rappelle juste que la régressé observée reste quand même dans des valeurs qu'on observe depuis 20 ans qui sont les meilleurs de l'Histoire du pays. Donc comparer à il y a 30 ans où la situation était déjà bonne on reste dans une meilleure posture.
C'est bien de le garder en tête, oui il y a une régression et cela doit servir à comprendre ce qui se passe et à adapter les dispositifs mais cela ne signifie pas pour autant que c'est la fin.
[^] # Re: Il y a quand même un moyen bien plus efficace pour éviter de se fatiguer à tout ça ....
Posté par Renault (site web personnel) . En réponse à la dépêche GNOME Stop Me Now. Évalué à 10 (+11/-1).
La seule chose que GNOME casse régulièrement c'est l'API de ses extensions, et encore c'est plus stable maintenant.
C'est plutôt faux ça en vrai. Il y a eu quelques cas mais comme dans tout logiciel en vrai. La question des fonctionnalité est toujours un compromis entre utilité / effort de maintenance / simplicité d'utilisation. Parfois retirer une fonctionnalité peu utilisée mais qui complique la vie des utilisateurs ou des développeurs c'est la meilleure chose à faire.
Je me sers de systemd tous les jours à la maison et au travail et c'est un bonheur par rapport à avant. Et mon boulot c'est de maintenir des firmware donc des "distro maison".
Alors oui ce n'est pas parfait mais on est loin du portrait que tu dresses.
L'emmerdification c'est valoriser le bilan financier de l'entreprise au détriment des utilisateurs.
systemd et GNOME ne sont pas dans ce cadre, ils font des choix qui conviennent à énormément de monde mais bien sûr pas à tous.
Perso j'ai aimé GNOME 2, mais j'adore encore plus GNOME 3. C'est vraiment mon environnement idéal. Et j'en connais plein qui partagent le même point de vue.
Mais je trouve ça super que pour certains Xfce, KDE ou autre est la meilleure solution. C'est l'avantage du libre, on a le choix. Un logiciel unique ne peut pas satisfaire tout le monde à la perfection.
Tu peux, mais après si la distro ne le propose pas le soucis est la distro et pas systemd.
[^] # Re: Mr Phi est un expert en IA ?
Posté par Renault (site web personnel) . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 10 (+16/-1).
Pour moi ce n'est pas la principale critique qu'il adresse à Julia, c'est même presque du détail.
Résumons rapidement les gros arguments :
Donc je ne trouve pas que la remarque la plus pertinente et forte soit d'ordre du diplôme. C'est bien au delà de ça.
[^] # Re: Mr Phi est un expert en IA ?
Posté par Renault (site web personnel) . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 10 (+10/-0).
En l’occurrence sa compréhension des LLM n'est pas mauvaise jusqu'ici et ses arguments à l'encontre de Julia sont pour la plupart pertinentes.
Sans dire que tout ce qu'il fait est parfait je ne trouve pas qu'il soit tombé dans un travers où il dit vraiment n'importe quoi.
[^] # Re: Inédit pour les métiers qualifiés
Posté par Renault (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 5 (+2/-0).
La superintelligence c'est au delà de ça encore.
C'est le fait que l'IA surpasse l'Humanité et peut du coup aller bien plus loin, plus vite quitte à ce que l'Humanité ne suive plus.
Repousser un peu les limites ou améliorer la physique ou les maths ne signifie pas que ce soit le cas. Einstein a pu faire ça tout en restant humain (enfin, je crois ?).
Je ne compare pas des modèles de tests et de production, je compare le fait que le benchmark ce n'est pas la vraie vie et vice versa.
C'est d'ailleurs pareil pour les humains. Tu peux être la brute de concours en prépa, être le major de ta promo et devenir un mathématicien médiocre et inversement.
C'est d'ailleurs un gros problèmes entre ce que les benchmarks disent des LLM et leur capacité à remplacer intégralement des employés, la transposition n'est pas immédiate.
Des théorèmes non triviaux qui n'étaient pas encore démontrés y'en a eu beaucoup de trouvés avec ça ? Ce n'est pas l'impression que j'ai eu.
Le fait qu'il y ait des faiblesses structurelles dans les raisonnements et la restitution des connaissances malgré la quantité de données qu'ils ont reçu à l'entrainement (plus que tout être humain peut ingurgiter dans une vie) est pour moi un signe que la marche est plus grande qu'il n'y paraît.
Je suis en vrai dubitatif que les modèles actuels soient la bonne voie pour cet objectif.
La singularité est d'ailleurs sujet à débat car il ne suffit pas d'avoir une AGI pour ça. Il faut aussi que l'IA puisse avoir les ressources pour travailler et faire ce qu'il y a à faire, que la limite en bande passante des progrès scientifiques soit les capacités cognitives humaines aujourd'hui (pour info y'a les matériaux, l'énergie et les lois de la physique qui sont aussi des limites à cela, et cela s'appliquera à une telle entité), qu'il y a en réalité matière à aller beaucoup plus loin dans le domaine des connaissances et à pouvoir les mettre en oeuvre, etc.
Alors peut être que cela arrivera, mais le scénario LLM => AGI => singularité le tout en quelques années est très ambitieux et il y a pas mal d'obstacles réels à ces scénarios. Ce n'est clairement pas garantie et la réalité est qu'aujourd'hui comme je le dis et tu sembles d'accord avec ça : on n'en sait rien, cela arrivera peut être, peut être pas, ou peut être dans vraiment longtemps.
[^] # Re: Inédit pour les métiers qualifiés
Posté par Renault (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4 (+1/-0).
Pour info il disait :
Cela dépend de ce qu'on met derrière ces termes mais en terme de créativité il y a malgré tout des limites.
Par exemple est-ce que les IA seraient capables de construire de nouveaux objets ou paradigmes dans des domaines scientifiques tels que les maths, physique, etc. ? Le genre de rupture quand par exemple la physique a accouché de la relativité et de la mécanique quantique.
Basé sur ce qu'on peut voir, ces machines n'en sont pas capables. Le seront-ils demain ? On n'en sait rien.
Mais ces machines montrent dans le même temps des faiblesses structurelles que ce soit dans les étapes de raisonnement comme de restitution des connaissances. Il ne suffit pas de brandir quelques résultats pour dire "ils ont le niveau des meilleurs mathématiciens du monde".
Par ailleurs le boulot d'un mathématicien est de repousser l'état de l'art des maths quitte à créer de nouveaux concepts et pour l'instant on n'en est pas là.
Cela ne signifie pas pour autant que tout ceci est inutile et qu'il n'y a rien de bons dedans.
[^] # Re: pistes
Posté par Renault (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 3 (+0/-0).
Alors sur ton graphique comme sur le mien les deux ont des valeurs depuis 2020 en dessous des valeurs de 1996 (qui était de 5 - 4,9 au lieu de 3,7 - 4,1 aujourd'hui).
Donc il y a bien eu une baisse globale opérée depuis.
Je n'ai pas dit que la baisse a été continue entre temps. Comme pour d'autres pays européens.
[^] # Re: pistes
Posté par Renault (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 3 (+0/-0).
Je t'invite donc à regarder le graphe qui a été mentionné plus haut comme je l'ai mentionné : https://www.insee.fr/fr/statistiques/7627069#graphique-figure4
Depuis 1996 le taux de mortalité infantile en France a baissé, comme d'autres pays européens, et d'autres pays européens ont connu parfois des fluctuations à la hausse entre temps aussi.
C'est un fait, cela ne veut pas dire que la situation est satisfaisante et qu'on ne peut pas faire mieux.
[^] # Re: pistes
Posté par Renault (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 2 (+0/-1).
Je parlais de tendances longues (plusieurs décennies), pas des années récentes.
D'ailleurs si on regarde les courbes cités ici, on constate que la France n'est pas le seul pays européens à avoir des fluctuations à la hausse depuis 20 ans. Et parfois ils l'ont eu avant nous avant de diminuer après.
[^] # Re: pistes
Posté par Renault (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 4 (+1/-0).
Ce sont pourtant les départements français qui ont le taux de mortalité infantile la plus élevée du pays.
Est-ce liée à la pauvreté ? À la qualité des infras ? Autre chose ? Les études ne le disent pas formellement, mais ils ont clairement un rôle dans le bilan global de la France et le fait qu'ils soient français n'empêche pas une telle situation.
La forte disparité du taux de mortalité infantile signifie qu'il y a sans doute quelques leviers accessibles à actionner sur ces territoires (Seine St Denis semble également très concernée) pour améliorer la situation localement et du coup le bilan global du pays aussi.
D'après l'INSEE : https://statistiques-locales.insee.fr/#c=indicator&i=ec_evol.naisdnn&s=2023&t=A01&view=map2
La France a eu 676 643 naissances en 2023 dont 38 239 en Outre-Mer soit 5,6% des naissances en France.
Ce n'est pas dérisoire, d'autant qu'ils ne représentent que 3,2% de la population totale.
Je ne trouve pas que ce soit négligeable surtout que les taux de mortalité infantile sont dans les faits faibles.
Le bilan global n'est dans l'absolu pas désastreux. Naître en France reste globalement sûr et c'est mieux de naître aujourd'hui qu'il y a 50 ans sur ce critère.
Mais on a moins progressé que certains de nos voisins. Reste à savoir pourquoi dans le détail pour fournir les bonnes politiques pour améliorer encore plus la situation. D'autant qu'il semble que ce problème touche plus certains territoires que d'autres, cela signifie qu'il y a sans doute moyen d'avoir un progrès important sans pour autant devoir réformer tout le pays et dépenser des milliards en infras et personnels partout.
[^] # Re: pistes
Posté par Renault (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 4 (+1/-0).
Sauf que un enfant qui naît à 7 mois ce n'est vraiment pas la même chose que s'il naît à 8 mois. Et cela est d'autant plus vrai plus tôt.
Cela signifie qu'à bien des égards tout est plus fragile : risques d'infection, problèmes à l'accouchement, organes pas suffisamment robustes, etc. Des situations qui se passent plutôt bien à 8 mois ne se passent vraiment plus aussi bien à 7 mois.
Et surtout en général si tu accouches à 7 mois, c'est souvent pour une raison particulière (liée à la maman comme au bébé) qui est de fait plus grave que si ça avait eu lieu un mois plus tard.
Bref, clairement pas, même si on arrive à soigner des situations de plus grand prématurés avant, cela ne signifie pas que le risque de morts post accouchements est constant. Cela peut juste signifier qu'avant on avait 0-5% de taux de survie et qu'on a su l'améliorer pour cette prématurité à 20% (j'invente les chiffres, l'idée est là)
Je ne suis pas convaincu que ce soit le principal problème concernant la mortalité infantile pour la coup. Non pas que ça ne mérite pas une attention particulière mais c'est un autre sujet.
La réalité est plus nuancée aussi. Les maternités qui ferment ce sont aussi des maternités qui faisaient peu d'accouchements, souvent en zone rurale avec peu d'habitants.
Alors oui, c'est un frein pour l'accès au soin. Mais cela signifie aussi que le personnel a moins d'entrainements, croise moins de cas différents ce qui peut aussi être un problème pour la prise en charge de certaines grossesses.
Ce n'est donc pas tout noir ou tout blanc sur ce point non plus, après améliorer la prise en charge médicale en zone rurale me semble pour le coup en effet important et cela ne passe pas forcément par plein d'hôpitaux de proximité, cela peut revêtir d'autres formes également.
[^] # Re: Inédit pour les métiers qualifiés
Posté par Renault (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 6 (+3/-0). Dernière modification le 11 août 2025 à 22:06.
Il y a aussi pas mal de limitations que j'ai mentionné, qui peuvent potentiellement être résolus mais tout cela reste malgré tout de l'ordre du conditionnel.
Oui, il y a évidemment la question de la transmission du savoir aux générations suivantes qui se posent.
Mais pas que d'ailleurs.
Par exemple concernant la productivité, en lisant certains, oui ils peuvent travailler plus vite sur le moment. Très bien. Mais faut aussi analyser sur le long terme.
Est-ce que les moments de code ou les pauses intellectuelles qu'on peut prendre ne sont pas nécessaires pour tenir dans la durée et avoir des idées nouvelles ou en tout cas meilleures ? Un petit peu comme ceux qui bossent 80h / semaine, oui sur le court terme tu gagnes potentiellement du temps mais si c'est ton rythme de croisière tu vas finir en burn out et boom.
Personnellement j'aime bien apprendre ce que je touche. Je ne suis pas très fan de l'approche "je bricole un peu au hasard". Dans mon boulot plusieurs fois j'ai du toucher à des projets dans des langages que je ne connaissais pas vraiment, des projets pour lesquels j'ai besoin de changer une ligne de code pour résoudre mon soucis, etc. Cas typique où certains utilisent par ailleurs des LLM car ce serait du code "jetable". Sauf que plus tard finalement ces langages ou projets je les ai retrouvé ailleurs ou le fait de bosser dessus m'a ouvert d'autres perspectives en terme de conception et possibilités pour d'autres projets. Ou en lisant la doc de l'API d'une bibliothèque j'ai découvert une fonctionnalité qui pourrait faire encore mieux que ce que j'envisageais de faire à l'origine quitte à retravailler un peu mon plan initial. Je serais sans doute passé totalement à côté de tout cela si j'avais confié cela à un LLM pour résoudre vite fait mon soucis.
Cela ne veut pas dire qu'il ne faut pas s'en servir ni même que ce sera un réel problème à long terme, mais je trouve que pas mal de retours d'expérience manquent de recul de longs termes avec ces pratiques. Certains commencent à dire les retours négatifs qu'ils perçoivent et que personne ne voyait au départ, nul doute que d'autres effets peuvent apparaître.
[^] # Re: Inédit pour les métiers qualifiés
Posté par Renault (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4 (+1/-0).
Un exercice intéressant ce serait de mettre un système dans l'état des connaissances pré 1905 et voir si avec les données et connaissances de l'époque la machine peut retrouver ou imaginer des systèmes physiques qui ont été prédites grâce à la relativité restreinte, générale et mécanique quantique.
Pour cela il a fallu créer de nouveaux objets et concepts pour rendre compte des incohérences observées et qui ont été assez robustes pour prédire de nouvelles choses non mesurées à l'époque.
Pas évident, mais là on serait devant une preuve de créativité scientifique reproductible et claire. Il ne semble clairement pas possible à ce jour de faire ce genre de choses avec des LLMs. Peut être un jour. Et clairement si cela est effectué, ce serait un gap.
Après on peut utiliser n'importe quel cas analogue où la solution au problème n'est pas trivial et demande d'inventer plein de choses novatrices avec les connaissances sous la main. Que ce soit en physique, maths ou autre discipline.
Je trouve que les processus itératifs tels qu'ils sont appliqués montrent justement rapidement leurs limites. C'est pas mal mais difficile de conclure si ça permettra d'aller aussi loin.
Je me demande si on n'est pas devant un phénomène de loi de Pareto : on obtient 80% d'un résultat spectaculaire avec 20% d'efforts, mais résoudre les difficultés résiduelles qu'on voit sera peut être très difficile, long et coûteux. Peut être pas, mais on a eu pas mal d'exemples dans le passé de technos ou prouesse qui semblait révolutionnaire et que la généralisation était qu'une question de mois et finalement pas du tout.
C'est difficile de prédire l'avenir sur ces questions en fait.
Est-ce vraiment ça de l'expertise Python ? J'ai vu des exemples plus probants, mais vu aussi des cas triviaux où ça ne fonctionnait pas par ailleurs. La résilience ce n'est pas encore ça.
Ce n'est pas rien ni un détail.
De nombreux experts en fait font déjà plus ou moins ce travail. Ils ne passent pas leur temps à coder mais à diriger techniquement une équipe, à architecture la solution, à arbitrer entre coûts, fonctionnement, maintenance, faisabilité technique, à arbitrer entre des besoins ou désirs contradictoires, etc.
Et pour cela il faut comprendre le système, connaître les limitations techniques, les difficultés, avoir un minimum de bagage technique parfois dans différents domaines.
Alors peut être qu'un jour les LLMs feront ça sans soucis à partir des desirata d'un utilisateur ou d'un CEO mais ce n'est pas encore le cas en particulier pour des besoins et des systèmes complexes.
C'est un risque que je partage, il y a également le risque de la monoculture. Avoir plusieurs personnes qui participent à un projet, avec des expertises, des horizons, des cultures, des origines, des besoins, etc. d'origines différentes cela permet aussi de donner des points de vue et des reculs différents. Cela permet de discuter des fonctionnalités (est-ce vraiment pertinent ? On ne peut pas faire mieux que ça ?), de prendre en compte des critères qu'on n'avait pas pensé à la base, ou de proposer des solutions nouvelles.
Si tout repose sur un LLM avec un codeur et un manageur, le risque de monoculture devient plus importante et finalement d'avoir des résultats moins bons qu'en impliquant plus de personnes dans la conception.
D'ailleurs ce problème est par exemple très visible dans des entreprises qui ont une équipe non renouvelée depuis très longtemps et qui ne se maintient pas à jour techniquement. "On a a toujours fait comme ça", "les tests unitaires c'est quoi ?", "les gestionnaires de versions c'est un dépôt FTP avec des archives", etc.
[^] # Re: pistes
Posté par Renault (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 4 (+1/-0).
Une différence c'est notamment la situation Outre Mer.
Ce sont des départements avec une natalité élevée : https://www.insee.fr/fr/outil-interactif/5367857/territoires/20_DEM/22_NAI
Mais aussi avec une mortalité élevée : https://www.insee.fr/fr/statistiques/7627069
Les autres pays de l'UE n'ont pas un tel Outre Mer, le Royaume-Uni en était un peu plus proche et encore mais depuis le Brexit ils ne sont pas dans le calcul.
Cela n'explique peut être pas tout mais peut être que la situation là bas plombe aussi les statistiques de la France entière.
Vue la disparité du taux de mortalité infantile sur le territoire, faudrait regarder les cas où c'est élevé. Est-ce la santé des mères ? Problèmes d'infra ? Manque de personnel médical ? Mélange de tout ça ?
[^] # Re: Mon petit retour sur le sujet
Posté par Renault (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 3 (+0/-0).
Cela implique un minimum de savoir théoriques de base malgré tout.
Si toute ta formation repose sur cet outil et que tu ne maitrises rien à minimum, tu ne pourras pas être un bon généraliste.
[^] # Re: Mon petit retour sur le sujet
Posté par Renault (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4 (+1/-0).
Mais aussi parce que le LLM peut dire qu'il se base sur la source X mais en réalité le contenu n'est pas lié (ou exploite mal la dite source).
Mais en fait cela dépend, de nombreuses requêtes aux LLM ne passent pas par un accès à Internet et du coup tout repose sur les données d'entrainement, et là son résultat ne repose sur aucune source particulière.
[^] # Re: Mon petit retour sur le sujet
Posté par Renault (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4 (+1/-0).
Je parlais en terme de société et objectif du système éducatif au sens large.
Pas des aspirations au niveau individuel.