Renault a écrit 7624 commentaires

  • [^] # Re: Attention aux hallucinations et au scope

    Posté par  (site web personnel) . En réponse au journal Comparaison de dépenses entre pays. Évalué à 3.

    Globalement ce qui faut se dire c'est qu'avoir un panorama complet de la situation d'un pays et de plusieurs pays nécessite plusieurs indicateurs. Avec un tableau unique comme ici tu as plus de questions qui se posent (et qui doivent être répondues avec d'autres mesures ou analyses) que de réponses.

  • [^] # Re: Attention aux hallucinations et au scope

    Posté par  (site web personnel) . En réponse au journal Comparaison de dépenses entre pays. Évalué à 10. Dernière modification le 19 septembre 2025 à 10:19.

    Mon but est de comparer l'effort du pays, pas la qualité de service.

    Mais même ça n'a pas beaucoup d'intérêt de voir cela de manière isolée.

    Tu balances ton tableau publiquement, y'a un objectif, non ? Et comparer de manière brute ces chiffres n'a pas beaucoup d'intérêts car comme toujours un indicateur isolé ne dit pas grand chose finalement.

    Ce genre de tableau en fait doit permettre de creuser la réflexion : pourquoi il y a des écarts, est-ce une différence politique, une différence de services rendues, une différence de structure de la population (jeune vs vieille), etc.

    En général ce genre de chiffres brutes balancées ainsi sont souvent utilisées pour immédiatement embrayer "la France paye trop par rapport à d'autres" et justifier ainsi qu'on doive réduire la dépense sans se poser la question de ce qui peut expliquer cette variabilité entre états.

    Donc pourquoi tu balances ce tableau sans plus de contexte ? Je pense que c'est intéressant de comprendre ton objectif. Et je pense que c'est essentiel en commentaire de recontextualiser un petit peu aussi ces chiffres pour éviter les interprétations simplistes qu'on a malheureusement trop souvent face à ce genre de données notamment dans la presse ou le milieu politique.

  • # Attention aux hallucinations et au scope

    Posté par  (site web personnel) . En réponse au journal Comparaison de dépenses entre pays. Évalué à 10.

    Si on regarde le chiffre des retraites des USA à partir de ce lien https://www.oecd.org/fr/data/indicators/pension-spending.html

    Les USA ont environ 7,2% et 5,7% du PIB de 2022 respectivement dépensés par le public et le privé pour la retraite.
    Cela donne presque 13% du PIB pour ce poste de dépense, bien au delà de ce que le tableau rapporte car finalement proche de ce que les pays européens dépensent.

    Donc je pense que ces chiffres sont à revérifier.

    Par ailleurs, il faut faire attention aussi au scope :

    • Conditions d'accès à ces dépenses ou ventilation des dépenses, ce n'est pas parce que tu dépenses en proportion de manière similaire qu'un autre pays que l'impact pour la dite population est la même
    • Faut prendre en compte également la répartition de la population, si tu as peu de jeunes et beaucoup de vieux tu dépenseras en théorie plus pour la retraite que pour l'éducation en proportion
    • Même si l'OCDE standardise pas mal de choses dans les calculs statistiques, les scopes sont probablement toujours un peu différent entre chaque pays pour la répartition des dépenses
  • [^] # Re: Vrai soucis pour définir sa propre rentabilité

    Posté par  (site web personnel) . En réponse au lien La tech au bord du gouffre financier . Évalué à 10.

    En fait la question de la vente à pertes est souvent mal comprise.

    En France tu n'as pas le droit d'être un supermarché, d'acheter un pot de Nutella à 5€ à Ferrero et le revendre à 4€ sur tes étales. Car c'est de la vente à perte.

    Mais, tu es Sony, tu fais une Playstation, tu fixes le prix que tu veux pour la vendre. La seule contrainte est que le supermarché qui le revend le revend au moins au prix d'achat auprès de son fournisseur (et ainsi de suite jusqu'à Sony).

    En même temps c'est logique. C'est quoi le coût réel d'une Playstation ? Impossible à dire.
    De nombreux coûts de production sont fixes, donc le coût réel d'une Playstation dépend du nombre d'unités que tu vas vendre en réalité chose que tu ne sauras qu'après coup. Si on interdisait strictement la vente à perte, Sony devrait vendre sa première Playstation sortie d'usine à un prix exorbitant pour amortir les coûts fixes ce qui n'aurait aucun sens.

    Donc Sony doit faire un pari pour le tarif de vente dès le départ. Ils ont une estimation des coûts fixes et variables, des cibles de vente pour atteindre la rentabilité mais sans aucune garantie d'y parvenir. Et si Sony n'en vend pas assez, il faut leur faire un procès ?

    C'est encore plus compliqué en cas de possibilités de synergie, genre une usine qui peut produire facilement différents produits et dont le nombre de lignes de productions peuvent varier en fonction des besoins. On évalue comment ces coûts ?

    Il faudrait faire ça de plus à l'échelle du produit entier, donc pour chaque composant qui entre dans la composition du produit final. Auprès de chaque fournisseur.

    Bref, ce n'est pas très réaliste d'estimer le coût d'un produit et la notion de vente à perte en dehors du domaine purement commercial à savoir l'achat et revente de biens tels quels. D'où le fait que ce n'est réglementé nul part.

  • [^] # Re: Lu

    Posté par  (site web personnel) . En réponse au lien Using Claude Code to modernize a 25-year-old kernel driver. Évalué à 5.

    J’ai toutefois du mal à croire que pour un driver de lecture de périphérique, dont on se fout des droits j’imagine, cela est évolué au point que ce soit complètement différent en terme de logique.

    Oui pour un pilote sauf si ça utilise un sous système compliqué qui a évolué a souvent peu besoin d'une refonte en profondeur. Le plus dur c'était de l'avoir fonctionnel à la base, après c'est le jeu de voir les évolutions d'API.
    Ce serait un code plus fondamental tel qu'un sous système entier cela pourrait être une autre paire de manche.

    Toutefois il dit bien qu’il s’est fait aidé par le LLM mais qu’une personne n’ayant jamais fait de driver noyau n’aurait jamais pu se faire aider. Il est probable que le temps investi par rapport au gain n’en valait pas la chandelle sans aide. En gros, seul, il aurait peut-être abandonné avant d’avoir quelque chose qui marche. Mais à deux cerveaux humains qui s’entraident ça aurait pu également fonctionner peut-être…

    En fait son article est bizarre. De ce que j'ai compris le gars a quand même un bagage très honorable en C. Pour écrire un pilote noyau il n'y a pas besoin de beaucoup plus. Comme il le dit lui même, cela démystifie le noyau en un sens, le noyau n'est pas aussi mystique qu'un autre projet. Écrire un pilote noyau basique est limite plus simple que de contribuer à de nombreux projets qui ont l'air plus simple en apparence en espace utilisateur. Peut être que s'il avait fait tout tout seul cela ne lui aurait pas pris tant de temps que cela en plus avec des connaissances en C suffisante.

    Je suis également étonné qu'il dise que faire cela lui aurait surtout nécessité de comprendre du code ancien et inutile. Il a peut être en partie raison, mais de l'autre il aurait malgré tout eu besoin de lire ou écrire du code noyau moderne ce qui est pour le coup plus utile. D'ailleurs il semble dire qu'il fera du code noyau récent à l'avenir donc ce n'est pas si inutile de se plonger dans ce genre d'exercices à mon sens car le volet moderne du code reste valorisable.

    J'aime bien en tout cas la problématique de base que je trouve intéressante.

  • [^] # Re: Aucune légitimité

    Posté par  (site web personnel) . En réponse au lien B. Kernighan (co-créateur d'Unix) sur Rust : « Je ne pense pas qu'il va remplacer C tout de suite ». Évalué à 4.

    Je ne vois pas de raisons pour laquelle le CPU deviendrait secondaire à ce point là.
    Le GPU a des inconvénients qui le rendent assez peu adaptés à réellement prendre le pas sur le CPU en dehors de quelques cas spécifiques.

  • [^] # Re: 46% sur 60 testé

    Posté par  (site web personnel) . En réponse au lien 46 % des bornes de recharge électriques dépassent les seuils. Évalué à 6.

    Quel rapport ?

    La chimie reste de la chimie. Il n'y a pas de chimie distincte pour les médocs et la toxicité ou pour le reste du corps humain.

    L'effet cocktail peut s'expliquer par d'interactions qui favorisent ou défavorisent les absorptions des molécules toxiques mais aussi parce qu'un composé seul peut être inoffensif mais en présence d'autre chose réagir et avoir des sous produits de réactions qui sont eux toxiques.

    Le soucis c'est que c'est difficile à évaluer et de tester tous les combos. Surtout que notre corps régule beaucoup de composés aussi à des fréquences variables.

    Donc oui cet effet peut exister et il faut être humble devant nos connaissances à ce sujet.

    Cependant cela ne veut pas dire qu'on ne sait rien ni que l'effet cocktail concerne tous les produits et tout le monde avec la même dangerosité

  • [^] # Re: 46% sur 60 testé

    Posté par  (site web personnel) . En réponse au lien 46 % des bornes de recharge électriques dépassent les seuils. Évalué à 7.

    Même sans aller si loin, ce n'est pas pour rien non plus que :

    • Certains médicaments / compléments alimentaires doivent être pris avec de l'eau ou plutôt avec un repas gras suivant si c'est liposoluble ou non ;
    • Certains médicaments ne doivent pas être pris ensembles ou avec certains aliments pour éviter de se neutraliser en terme d'absorption ;
    • Que certains médicaments doivent être pris à jeun pour mieux contrôler le dosage reçu de manière effectif.

    Le corps humain est très dynamique, il faut dire que c'est une succession de réactions chimiques très variés et à grande échelle. C'est très étonnant de penser que la toxicité puisse être une notion totalement indépendante de cette dynamique.

  • [^] # Re: bof

    Posté par  (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 6.

    Leur papier est publique, si tu trouves des problèmes tu peux les décrire ici.

    Ouais leur papier est certes public mais cela reste un communiqué de presse et non une étude scientifique.
    La méthodologie précise est absente, de nombreuses données manquent comme le modèle employé et la taille du prompt médian et le type de requête que cela représente car entre un raisonnement et une requête basique il y a un monde.

    De plus ce qui compte aussi, et ce n'est pas un détail, c'est la pollution et consommation globale qui compte et non par requête. Donnée aussi manquante.

    Le simple fait qu'ils disent que les serveurs sont alimentés par des énergies renouvelables montre que c'est quand même un outil de communication plus qu'un exemple de rigueur scientifique, je doute fortement que leurs serveurs soient alimentés 100% par de l’électricité renouvelable qu'ils produisent, ils ont probablement un système de certificats pour affirmer cela ce qui est relativement malhonnête pour l'attribution des émissions.

    Bref, leur article reste relativement opaque et quand tu ajoutes à cela que c'est produit par l'entreprise elle même, il faut quand même se méfier des résultats bruts. Le résultat n'est pas inintéressant mais il ne faut pas non plus considérer le résultat communiqué comme objectif et et scientifiquement valide.

  • [^] # Re: bof

    Posté par  (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 6.

    De ce que j'avais lu concernant cette histoire, il existait des démonstrations de valeurs plus intéressantes dans la nature autour de cette question.

    Et à la lecture du résultat il semble que ce n'est pas un problème si complexe pour un chercheur en maths, ni quelque chose qui demande de créer de nouveaux concepts, objets ou raisonnements. Un peu comme coder avec pour générer du code nouveau mais qui reste dans l'ordre du connu.

    Ce n'est pas inintéressant comme résultat mais pas aussi renversant que certains le disent non plus.

  • [^] # Re: bof

    Posté par  (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 7.

    J'ai infiniment plus de respect et d'émotion devant l'art génératif algorithmique ou il s'agit de faire avec économie de moyen et quelques idées mathématiques … même si c'est souvent sommaire et abstrait.

    Le premier ressemble dans l'idée aux démos où tu génères de la musique, des images ou scènes à partir d'algorithmes avec pour objectif d'avoir des effets sympa qui consomment le moins de ressources possible tout en étant temps réels pour les arts dynamiques.

    Y'a un côté artistique évidemment mais aussi technique qui demande souvent pas mal d'efforts pour trouver des compromis intéressant entre temps d'exécution, quantité de mémoire et effets obtenus. Un milieu très créatif et pas évident.

  • # Effet rebond tout ça

    Posté par  (site web personnel) . En réponse au lien "the median Gemini Apps text prompt uses 0.24 watt-hours (Wh) of energy, emits 0.03 grams of co2". Évalué à 8.

    C'est bien qu'ils fournissent des chiffres et des progrès en ce sens par requête.

    Cependant il y a quand même quelques oublis dans ce tableau.

    Tout d'abord cela se base sur la requête médiane qui est probablement courte (genre une requête Google classique). Or les requêtes plus longues sont significativement plus gourmands et on pousse de plus en plus à s'en servir.

    Certains modes de fonctionnement cumulent les usages, par exemple si Gemini fait des recherches sur Internet, il utilise aussi un moteur de recherches et des sites externes pour collecter des infos. Les bilans se cumulent et ne se compensent pas.

    À mesure qu'ils ont des gains d'efficacité les gens s'en servent toujours plus, que ce soit par utilisateur comme collectivement. Pas pour rien qu'ils investissent tous dans beaucoup d'infrastructure pour tenir la montée en charge, que la consommation énergétique de ces entreprises a fortement augmenté et qu'ils ont tous repoussé leurs objectifs environnementaux.

    Le bilan carbone de l'infra au global (construction des puces, etc.) n'est pas pris en compte non plus.

    C'est pourtant au global que l'impact doit être mesuré car c’est ce qui compte vraiment, pas juste le bilan par requête même si c'est déjà ça.

  • [^] # Re: Intérêt du débat ?

    Posté par  (site web personnel) . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à 4.

    Pépin le Bref (donc Pépin le Brèfle n'existe pas).

  • [^] # Re: De toute façon, ce qui compte pour une langue, c’est fait qu’elle soit parlée !

    Posté par  (site web personnel) . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à 6.

    Il y a la rétrocompatibilié.
    Rabelais est encore lisible sans difficultés majeures 5 siècles plus tard.

    Euh, pardon ? Lire Molière, Racine ou Rabelais dans le texte original donc sans aucune adaptation en français moderne est pénible : https://fr.wikisource.org/wiki/Gargantua/%C3%89dition_Juste,_1535

    Alors oui on peut comprendre mais ça demande un effort certain, beaucoup de mots ont changé d'orthographe, la manière d'écrire a clairement évolué en terme de style et beaucoup de mots ont aussi disparu depuis (et donc on en comprend pas immédiatement le sens, on doit souvent deviner).

    Ce n'est pas pour rien que les collégiens ne lisent jamais Molière en texte d'origine mais toujours une version modernisée pour rendre cela plus digeste. Et même avec ça c'est facile de se faire avoir (évolutions culturelles et de vocabulaires obligent).

    Cela est d'ailleurs valable pour des auteurs anciens dans d'autres langues.

    Le "e" se prononce "i" et le "ai" se prononce "é". Deux nouvelles exceptions orthographiques en 5 lettres. Les mots "courriel" et "mél" n'introduisent pas de nouvelles difficultés orthographiques. (par contre, je crains qu'on repassera pour être encore compris dans 5 siècles)

    Notons que c'est souvent le cas pour les néologismes transcrits tels quelles depuis une autre langue. sine die par exemple n'est pas une locution qui se prononce comme du français standard à partir de son orthographe. C'est le propre de ce mécanisme même si une francisation peut apparaître sur le temps long en changeant l'orthographe ou la prononciation mais cela n'a rien de systématique.

    De toute façon si tout le monde dit et écrit email, l'avis de l'Académie Française n'empêchera pas son adoption et de fait son inclusion dans l'usage et dans le vocabulaire courant du français.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 3.

    Cela ne permet pas d'influer significativement le chiffre de la France… à moins qu'il soit 10 fois pire… ce qui n'est pas le cas car les DOM/TOM, si certes sont relativement moins bien équipé (côte hôpitaux, comme PIB ou infrastructure), ne sont pas dans un état catastrophique.

    Tu as regardé les chiffres de l'INSEE ou pas ?

    https://www.insee.fr/fr/statistiques/7627069#tableau-figure1

    Les DOM-TOM ont une mortalité infantile comprise entre 6,7 et 8,9 pour milles, je rappelle que la moyenne nationale c'est 3,9. Il y a donc un facteur deux très net en jeu. Rien que cet écart explique 0,2 pour mille de différence à l'échelle nationale (ce qui est l'ordre de grandeur de l'augmentation dont on parle ici tout de même).

    Le pire département métropolitain est la Seine St Dennis avec 5,4 pour mille. Seulement trois départements qui dépassent les 5.

    Alors oui ça n'explique pas tout, mais il ne faut pas non plus fermer les yeux. Car on voit que très clairement qu'ils n'ont pas les mêmes ressources que nous pour gérer la santé (cela se voit sur d'autres indicateurs, pas juste la mortalité infantile). Ce n'est pas un hasard si les cinq départements d'outre mer ont un tel écart avec la métropole, c'est un problème malheureusement courant et il est honteux de les laisser dans une telle situation.

    En outre la France n'est pas le seul pays à avoir des DOM/TOM. Le Groenland DOM/TOM des pays bas

    Le Groenland est très peu habité et a un taux de fécondité similaire au Danemark, ce n'est pas le cas de notre Outre Mer qui est bien plus habité et avec une natalité plus élevée.

    Pour les Pays-Bas de même l'écart est aussi important. Même le moins peuplé Mayotte l'est deux fois plus que leur plus peuplé à savoir Curaçao.

    Bref, faut se reposer un peu plus sur les calculs pour comparer.

    Il est certainement plus difficile à gérer que nos DOM/TOM tropicaux (Imagine toi habiter à 1000 km de l'hôpital le plus proche sur une île glacée…).

    Pourtant leur mortalité infantile est dans les mêmes eaux. Donc qu'en conclure ? Sans doute qu'on gère mal la situation là bas faute d'infra, ressources ou de personnel adéquat ?

    Ce que je dis, c'est juste que les DOM/TOM ne sont pas une excuse pour avoir de mauvais chiffres.

    Comme je le montre, ce n'est pas la seule explication mais l'ignorer serait une erreur.

    Ce que l'INSEE montre c'est que quelques départements ont des résultats bien plus faibles que les autres et le fait qu'ils soient probablement des zones relativement pauvres devraient être un indicateur que le problème est lié.

    Mais cela montre aussi qu'en allouant les ressources à ces quelques territoires on pourrait largement améliorer le résultat global, probablement plus simple qu'en ayant des mesures qui couvrent tout le territoire.

    Puis si tu améliorer la gestion de la mortalité infantile dans ces territoires, nul doute que le bénéfice se verrait pour d'autres indicateurs de santé.

    Évidemment, c'est facile de dire que c'était pire avant, je peux même te prédire que ça va progresser.

    Je rappelle juste que la régressé observée reste quand même dans des valeurs qu'on observe depuis 20 ans qui sont les meilleurs de l'Histoire du pays. Donc comparer à il y a 30 ans où la situation était déjà bonne on reste dans une meilleure posture.

    C'est bien de le garder en tête, oui il y a une régression et cela doit servir à comprendre ce qui se passe et à adapter les dispositifs mais cela ne signifie pas pour autant que c'est la fin.

  • [^] # Re: Il y a quand même un moyen bien plus efficace pour éviter de se fatiguer à tout ça ....

    Posté par  (site web personnel) . En réponse à la dépêche GNOME Stop Me Now. Évalué à 10.

    Gnome est bien connu pour passer son temps à casser la compatibiité entre les diverses versions de ses API.

    La seule chose que GNOME casse régulièrement c'est l'API de ses extensions, et encore c'est plus stable maintenant.

    Beeaucoup d'applis Gnome passsent lleur temps à "évoluer" en supprimant des fonctionnalités.

    C'est plutôt faux ça en vrai. Il y a eu quelques cas mais comme dans tout logiciel en vrai. La question des fonctionnalité est toujours un compromis entre utilité / effort de maintenance / simplicité d'utilisation. Parfois retirer une fonctionnalité peu utilisée mais qui complique la vie des utilisateurs ou des développeurs c'est la meilleure chose à faire.

    Systemd passe son temps à tout recoder (DNS, Date/time, etc …) pour des trucs qui marchent moins bien que les applis qu'ils sont censés "remplacer" Et le problème avec systemD, c'est que tu ne peux pas virer ces trucs : tu es juste contrant de les désactiver quand tu ne veux pas t'en servir, et t'es pas à l'abri d'une réactivation sans prévenir à la prochaine mise à jour.

    Je me sers de systemd tous les jours à la maison et au travail et c'est un bonheur par rapport à avant. Et mon boulot c'est de maintenir des firmware donc des "distro maison".

    Alors oui ce n'est pas parfait mais on est loin du portrait que tu dresses.

    Donc ouil l'enshitifcation est bien présente dans le logiciel libre.

    L'emmerdification c'est valoriser le bilan financier de l'entreprise au détriment des utilisateurs.
    systemd et GNOME ne sont pas dans ce cadre, ils font des choix qui conviennent à énormément de monde mais bien sûr pas à tous.

    Perso j'ai aimé GNOME 2, mais j'adore encore plus GNOME 3. C'est vraiment mon environnement idéal. Et j'en connais plein qui partagent le même point de vue.

    Mais je trouve ça super que pour certains Xfce, KDE ou autre est la meilleure solution. C'est l'avantage du libre, on a le choix. Un logiciel unique ne peut pas satisfaire tout le monde à la perfection.

    ouias c'est ce que j'aimerais faire avec suystemd. Je demande pas grand chose, juste pouvoir virer les briques qui ne m'intéressent pas.

    Tu peux, mais après si la distro ne le propose pas le soucis est la distro et pas systemd.

  • [^] # Re: Mr Phi est un expert en IA ?

    Posté par  (site web personnel) . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 10.

    C'est pas anodin que sa principale critique contre Julia c'est de ne pas être un académique/expert reconnu. Bref ça tourne autour de la légitimité à être producteur-transmetteur de savoir, mais toujours dans une vision descendante et hiérarchique de la connaissance. Bref petite guéguerre entre petites bourgeoisies culturelle et économique.

    Pour moi ce n'est pas la principale critique qu'il adresse à Julia, c'est même presque du détail.

    Résumons rapidement les gros arguments :

    • Quand il parle des LLMs, tout ce qui dit montre une mauvaise compréhension de leur fonctionnement qu'on peut difficilement attribuer à un objectif de vulgarisation (on peut être beaucoup plus justes tout en restant simple) ;
    • Il cite des études anciennes dont il déforme la porté et le protocole pour valoriser son propos ;
    • Il est vendu comme co créateur de Siri mais manifestement aucun élément tangible ne montre que c'est le cas ;
    • Il raconte des anecdotes autour de Siri qui avec les informations disponibles peuvent montrer que ce n'est pas très crédible ;
    • Il prétend qu'en tant que mathématicien il va faire une démo de maths de son propos mais son raisonnement n'a rien d'une démo de maths et en effet son statut en tant que mathématicien est douteux ;
    • Difficile de rester expert quand tu fais 150 interventions / conférences par an, tu de détaches forcément de l'expertise.

    Donc je ne trouve pas que la remarque la plus pertinente et forte soit d'ordre du diplôme. C'est bien au delà de ça.

  • [^] # Re: Mr Phi est un expert en IA ?

    Posté par  (site web personnel) . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 10.

    En l’occurrence sa compréhension des LLM n'est pas mauvaise jusqu'ici et ses arguments à l'encontre de Julia sont pour la plupart pertinentes.

    Sans dire que tout ce qu'il fait est parfait je ne trouve pas qu'il soit tombé dans un travers où il dit vraiment n'importe quoi.

  • [^] # Re: Inédit pour les métiers qualifiés

    Posté par  (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 5.

    Évidemment, mais il y a des années lumières entre "niveau créatif c'est le néant" et "construire des nouveaux paradigmes dans les domaines scientifiques". En fait, là, on parle de *superintelligence artificielle", et à ma connaissance aucun des modèles existants prétend à la superintelligence.

    La superintelligence c'est au delà de ça encore.
    C'est le fait que l'IA surpasse l'Humanité et peut du coup aller bien plus loin, plus vite quitte à ce que l'Humanité ne suive plus.

    Repousser un peu les limites ou améliorer la physique ou les maths ne signifie pas que ce soit le cas. Einstein a pu faire ça tout en restant humain (enfin, je crois ?).

    Dans tous les cas, tu fais bien d'insister sur le fait qu'il ne faut pas confondre les versions des modèles utilisées pour les tests et les benchmarks, qui sont des versions de développement avec souvent beaucoup de ressources disponibles, et les versions gratuites grand public. Même si l'écart se compte parfois en mois ou en quelques années, donc ça n'est quand même pas comparer une navette spatiale et une twingo.

    Je ne compare pas des modèles de tests et de production, je compare le fait que le benchmark ce n'est pas la vraie vie et vice versa.

    C'est d'ailleurs pareil pour les humains. Tu peux être la brute de concours en prépa, être le major de ta promo et devenir un mathématicien médiocre et inversement.

    C'est d'ailleurs un gros problèmes entre ce que les benchmarks disent des LLM et leur capacité à remplacer intégralement des employés, la transposition n'est pas immédiate.

    Démontrer des théorèmes sans créer de nouvelles formes de maths c'est aussi le boulot des mathématiciens, et on en est là.

    Des théorèmes non triviaux qui n'étaient pas encore démontrés y'en a eu beaucoup de trouvés avec ça ? Ce n'est pas l'impression que j'ai eu.

    La réalité est qu'on n'en sait rien. Je ne vois rien en tout cas qui rendrait impossible l'atteinte d'une singularité technologique dans les années qui viennent.

    Le fait qu'il y ait des faiblesses structurelles dans les raisonnements et la restitution des connaissances malgré la quantité de données qu'ils ont reçu à l'entrainement (plus que tout être humain peut ingurgiter dans une vie) est pour moi un signe que la marche est plus grande qu'il n'y paraît.

    Je suis en vrai dubitatif que les modèles actuels soient la bonne voie pour cet objectif.

    La singularité est d'ailleurs sujet à débat car il ne suffit pas d'avoir une AGI pour ça. Il faut aussi que l'IA puisse avoir les ressources pour travailler et faire ce qu'il y a à faire, que la limite en bande passante des progrès scientifiques soit les capacités cognitives humaines aujourd'hui (pour info y'a les matériaux, l'énergie et les lois de la physique qui sont aussi des limites à cela, et cela s'appliquera à une telle entité), qu'il y a en réalité matière à aller beaucoup plus loin dans le domaine des connaissances et à pouvoir les mettre en oeuvre, etc.

    Alors peut être que cela arrivera, mais le scénario LLM => AGI => singularité le tout en quelques années est très ambitieux et il y a pas mal d'obstacles réels à ces scénarios. Ce n'est clairement pas garantie et la réalité est qu'aujourd'hui comme je le dis et tu sembles d'accord avec ça : on n'en sait rien, cela arrivera peut être, peut être pas, ou peut être dans vraiment longtemps.

  • [^] # Re: Inédit pour les métiers qualifiés

    Posté par  (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4.

    Sur le côté créatif, même les premières versions de chatGPT ont montré leur capacité à créer : de la musique, du texte, des images, des objets 3D, etc. Je trouve que la question ne se pose même pas, ces logiciels peuvent créer des "oeuvres" de manière bien plus efficace qu'un humain moyen (bien sûr, ça n'est pas du Zola, mais encore une fois le critère d'une IA n'est pas de surpasser le meilleur humain dans tous les domaines!).

    Pour info il disait :

    Mais en raisonnement créatif pur, c'est le néant.

    Cela dépend de ce qu'on met derrière ces termes mais en terme de créativité il y a malgré tout des limites.
    Par exemple est-ce que les IA seraient capables de construire de nouveaux objets ou paradigmes dans des domaines scientifiques tels que les maths, physique, etc. ? Le genre de rupture quand par exemple la physique a accouché de la relativité et de la mécanique quantique.

    Basé sur ce qu'on peut voir, ces machines n'en sont pas capables. Le seront-ils demain ? On n'en sait rien.

    Cette année, l'IA de Google a résolu 5 problèmes sur 6 des "International Math Olympiades", ce qui la classe dans les 30 premiers (c'est une compétition hyper-balaise). Les IA spécialisées ont le niveau des tous meilleurs mathématiciens du monde.

    Mais ces machines montrent dans le même temps des faiblesses structurelles que ce soit dans les étapes de raisonnement comme de restitution des connaissances. Il ne suffit pas de brandir quelques résultats pour dire "ils ont le niveau des meilleurs mathématiciens du monde".

    Par ailleurs le boulot d'un mathématicien est de repousser l'état de l'art des maths quitte à créer de nouveaux concepts et pour l'instant on n'en est pas là.

    Cela ne signifie pas pour autant que tout ceci est inutile et qu'il n'y a rien de bons dedans.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 3.

    Alors sur ton graphique comme sur le mien les deux ont des valeurs depuis 2020 en dessous des valeurs de 1996 (qui était de 5 - 4,9 au lieu de 3,7 - 4,1 aujourd'hui).

    Donc il y a bien eu une baisse globale opérée depuis.

    Je n'ai pas dit que la baisse a été continue entre temps. Comme pour d'autres pays européens.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 3.

    Je t'invite donc à regarder le graphe qui a été mentionné plus haut comme je l'ai mentionné : https://www.insee.fr/fr/statistiques/7627069#graphique-figure4

    Depuis 1996 le taux de mortalité infantile en France a baissé, comme d'autres pays européens, et d'autres pays européens ont connu parfois des fluctuations à la hausse entre temps aussi.

    C'est un fait, cela ne veut pas dire que la situation est satisfaisante et qu'on ne peut pas faire mieux.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 2.

    Je parlais de tendances longues (plusieurs décennies), pas des années récentes.

    D'ailleurs si on regarde les courbes cités ici, on constate que la France n'est pas le seul pays européens à avoir des fluctuations à la hausse depuis 20 ans. Et parfois ils l'ont eu avant nous avant de diminuer après.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 4.

    Quand a l'éffet DOM/TOM, il est extrêmement marginal dans la mesure ou les DOM/TOM sont quand même bien équipé

    Ce sont pourtant les départements français qui ont le taux de mortalité infantile la plus élevée du pays.

    Est-ce liée à la pauvreté ? À la qualité des infras ? Autre chose ? Les études ne le disent pas formellement, mais ils ont clairement un rôle dans le bilan global de la France et le fait qu'ils soient français n'empêche pas une telle situation.

    La forte disparité du taux de mortalité infantile signifie qu'il y a sans doute quelques leviers accessibles à actionner sur ces territoires (Seine St Denis semble également très concernée) pour améliorer la situation localement et du coup le bilan global du pays aussi.

    représentent peu de naissance en proportion

    D'après l'INSEE : https://statistiques-locales.insee.fr/#c=indicator&i=ec_evol.naisdnn&s=2023&t=A01&view=map2

    La France a eu 676 643 naissances en 2023 dont 38 239 en Outre-Mer soit 5,6% des naissances en France.
    Ce n'est pas dérisoire, d'autant qu'ils ne représentent que 3,2% de la population totale.

    Je ne trouve pas que ce soit négligeable surtout que les taux de mortalité infantile sont dans les faits faibles.

    D'ailleurs la France n'a pas été toujours le mauvais élève, loin sans faux.

    Le bilan global n'est dans l'absolu pas désastreux. Naître en France reste globalement sûr et c'est mieux de naître aujourd'hui qu'il y a 50 ans sur ce critère.

    Mais on a moins progressé que certains de nos voisins. Reste à savoir pourquoi dans le détail pour fournir les bonnes politiques pour améliorer encore plus la situation. D'autant qu'il semble que ce problème touche plus certains territoires que d'autres, cela signifie qu'il y a sans doute moyen d'avoir un progrès important sans pour autant devoir réformer tout le pays et dépenser des milliards en infras et personnels partout.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 4.

    Dit autrement, on a améliorer la prise en charge à 7 mois de grossesse, donc on peut prendre en charge à 6 mois. On ne dégrade donc pas la mortalité infantile avec la progression de la prise en charge. On la déporte plus tôt.

    Sauf que un enfant qui naît à 7 mois ce n'est vraiment pas la même chose que s'il naît à 8 mois. Et cela est d'autant plus vrai plus tôt.

    Cela signifie qu'à bien des égards tout est plus fragile : risques d'infection, problèmes à l'accouchement, organes pas suffisamment robustes, etc. Des situations qui se passent plutôt bien à 8 mois ne se passent vraiment plus aussi bien à 7 mois.

    Et surtout en général si tu accouches à 7 mois, c'est souvent pour une raison particulière (liée à la maman comme au bébé) qui est de fait plus grave que si ça avait eu lieu un mois plus tard.

    Bref, clairement pas, même si on arrive à soigner des situations de plus grand prématurés avant, cela ne signifie pas que le risque de morts post accouchements est constant. Cela peut juste signifier qu'avant on avait 0-5% de taux de survie et qu'on a su l'améliorer pour cette prématurité à 20% (j'invente les chiffres, l'idée est là)

    On peut rajouter, que les maternité, accouchent à la chaîne et donc n'ont pas toujours le temps de bien se préparer, de bien préparer la maman. C'est aussi du vécut : A ben non, la vous arrivé pas au bon moment, on a un autre accouchement en cours. Ou inverssement, on accélère le processus, pour se débarrasser d'un accouchement (au mépris du confort de la maman), et du coup avec un peu plus de risques de complications (léger, mais certains).

    Je ne suis pas convaincu que ce soit le principal problème concernant la mortalité infantile pour la coup. Non pas que ça ne mérite pas une attention particulière mais c'est un autre sujet.

    Non, le réel problème, c'est que l'on a fermé des maternités. Beaucoup de maman ont plus d'une heure de route pour se rendre à la maternité, ce qui rends les examens pré-accouchements beaucoup plus difficile et les risques lié à une grossesse sur le bord de la route beaucoup plus important. J'ai connu ça. On va à la maternité, on nous dit. Fausse alerte, rentrez chez vous. Arrivé à la maison, 1 ou 2 jours plus tard on se dit, on va attendre, c'est peut-être une fausse alerte, on ne va pas faire 2h de route et 2h sur place pour rien…

    La réalité est plus nuancée aussi. Les maternités qui ferment ce sont aussi des maternités qui faisaient peu d'accouchements, souvent en zone rurale avec peu d'habitants.

    Alors oui, c'est un frein pour l'accès au soin. Mais cela signifie aussi que le personnel a moins d'entrainements, croise moins de cas différents ce qui peut aussi être un problème pour la prise en charge de certaines grossesses.

    Ce n'est donc pas tout noir ou tout blanc sur ce point non plus, après améliorer la prise en charge médicale en zone rurale me semble pour le coup en effet important et cela ne passe pas forcément par plein d'hôpitaux de proximité, cela peut revêtir d'autres formes également.