Renault a écrit 7632 commentaires

  • [^] # Re: Mr Phi est un expert en IA ?

    Posté par  (site web personnel) . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 10.

    En l’occurrence sa compréhension des LLM n'est pas mauvaise jusqu'ici et ses arguments à l'encontre de Julia sont pour la plupart pertinentes.

    Sans dire que tout ce qu'il fait est parfait je ne trouve pas qu'il soit tombé dans un travers où il dit vraiment n'importe quoi.

  • [^] # Re: Inédit pour les métiers qualifiés

    Posté par  (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 5.

    Évidemment, mais il y a des années lumières entre "niveau créatif c'est le néant" et "construire des nouveaux paradigmes dans les domaines scientifiques". En fait, là, on parle de *superintelligence artificielle", et à ma connaissance aucun des modèles existants prétend à la superintelligence.

    La superintelligence c'est au delà de ça encore.
    C'est le fait que l'IA surpasse l'Humanité et peut du coup aller bien plus loin, plus vite quitte à ce que l'Humanité ne suive plus.

    Repousser un peu les limites ou améliorer la physique ou les maths ne signifie pas que ce soit le cas. Einstein a pu faire ça tout en restant humain (enfin, je crois ?).

    Dans tous les cas, tu fais bien d'insister sur le fait qu'il ne faut pas confondre les versions des modèles utilisées pour les tests et les benchmarks, qui sont des versions de développement avec souvent beaucoup de ressources disponibles, et les versions gratuites grand public. Même si l'écart se compte parfois en mois ou en quelques années, donc ça n'est quand même pas comparer une navette spatiale et une twingo.

    Je ne compare pas des modèles de tests et de production, je compare le fait que le benchmark ce n'est pas la vraie vie et vice versa.

    C'est d'ailleurs pareil pour les humains. Tu peux être la brute de concours en prépa, être le major de ta promo et devenir un mathématicien médiocre et inversement.

    C'est d'ailleurs un gros problèmes entre ce que les benchmarks disent des LLM et leur capacité à remplacer intégralement des employés, la transposition n'est pas immédiate.

    Démontrer des théorèmes sans créer de nouvelles formes de maths c'est aussi le boulot des mathématiciens, et on en est là.

    Des théorèmes non triviaux qui n'étaient pas encore démontrés y'en a eu beaucoup de trouvés avec ça ? Ce n'est pas l'impression que j'ai eu.

    La réalité est qu'on n'en sait rien. Je ne vois rien en tout cas qui rendrait impossible l'atteinte d'une singularité technologique dans les années qui viennent.

    Le fait qu'il y ait des faiblesses structurelles dans les raisonnements et la restitution des connaissances malgré la quantité de données qu'ils ont reçu à l'entrainement (plus que tout être humain peut ingurgiter dans une vie) est pour moi un signe que la marche est plus grande qu'il n'y paraît.

    Je suis en vrai dubitatif que les modèles actuels soient la bonne voie pour cet objectif.

    La singularité est d'ailleurs sujet à débat car il ne suffit pas d'avoir une AGI pour ça. Il faut aussi que l'IA puisse avoir les ressources pour travailler et faire ce qu'il y a à faire, que la limite en bande passante des progrès scientifiques soit les capacités cognitives humaines aujourd'hui (pour info y'a les matériaux, l'énergie et les lois de la physique qui sont aussi des limites à cela, et cela s'appliquera à une telle entité), qu'il y a en réalité matière à aller beaucoup plus loin dans le domaine des connaissances et à pouvoir les mettre en oeuvre, etc.

    Alors peut être que cela arrivera, mais le scénario LLM => AGI => singularité le tout en quelques années est très ambitieux et il y a pas mal d'obstacles réels à ces scénarios. Ce n'est clairement pas garantie et la réalité est qu'aujourd'hui comme je le dis et tu sembles d'accord avec ça : on n'en sait rien, cela arrivera peut être, peut être pas, ou peut être dans vraiment longtemps.

  • [^] # Re: Inédit pour les métiers qualifiés

    Posté par  (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4.

    Sur le côté créatif, même les premières versions de chatGPT ont montré leur capacité à créer : de la musique, du texte, des images, des objets 3D, etc. Je trouve que la question ne se pose même pas, ces logiciels peuvent créer des "oeuvres" de manière bien plus efficace qu'un humain moyen (bien sûr, ça n'est pas du Zola, mais encore une fois le critère d'une IA n'est pas de surpasser le meilleur humain dans tous les domaines!).

    Pour info il disait :

    Mais en raisonnement créatif pur, c'est le néant.

    Cela dépend de ce qu'on met derrière ces termes mais en terme de créativité il y a malgré tout des limites.
    Par exemple est-ce que les IA seraient capables de construire de nouveaux objets ou paradigmes dans des domaines scientifiques tels que les maths, physique, etc. ? Le genre de rupture quand par exemple la physique a accouché de la relativité et de la mécanique quantique.

    Basé sur ce qu'on peut voir, ces machines n'en sont pas capables. Le seront-ils demain ? On n'en sait rien.

    Cette année, l'IA de Google a résolu 5 problèmes sur 6 des "International Math Olympiades", ce qui la classe dans les 30 premiers (c'est une compétition hyper-balaise). Les IA spécialisées ont le niveau des tous meilleurs mathématiciens du monde.

    Mais ces machines montrent dans le même temps des faiblesses structurelles que ce soit dans les étapes de raisonnement comme de restitution des connaissances. Il ne suffit pas de brandir quelques résultats pour dire "ils ont le niveau des meilleurs mathématiciens du monde".

    Par ailleurs le boulot d'un mathématicien est de repousser l'état de l'art des maths quitte à créer de nouveaux concepts et pour l'instant on n'en est pas là.

    Cela ne signifie pas pour autant que tout ceci est inutile et qu'il n'y a rien de bons dedans.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 3.

    Alors sur ton graphique comme sur le mien les deux ont des valeurs depuis 2020 en dessous des valeurs de 1996 (qui était de 5 - 4,9 au lieu de 3,7 - 4,1 aujourd'hui).

    Donc il y a bien eu une baisse globale opérée depuis.

    Je n'ai pas dit que la baisse a été continue entre temps. Comme pour d'autres pays européens.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 3.

    Je t'invite donc à regarder le graphe qui a été mentionné plus haut comme je l'ai mentionné : https://www.insee.fr/fr/statistiques/7627069#graphique-figure4

    Depuis 1996 le taux de mortalité infantile en France a baissé, comme d'autres pays européens, et d'autres pays européens ont connu parfois des fluctuations à la hausse entre temps aussi.

    C'est un fait, cela ne veut pas dire que la situation est satisfaisante et qu'on ne peut pas faire mieux.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 2.

    Je parlais de tendances longues (plusieurs décennies), pas des années récentes.

    D'ailleurs si on regarde les courbes cités ici, on constate que la France n'est pas le seul pays européens à avoir des fluctuations à la hausse depuis 20 ans. Et parfois ils l'ont eu avant nous avant de diminuer après.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 4.

    Quand a l'éffet DOM/TOM, il est extrêmement marginal dans la mesure ou les DOM/TOM sont quand même bien équipé

    Ce sont pourtant les départements français qui ont le taux de mortalité infantile la plus élevée du pays.

    Est-ce liée à la pauvreté ? À la qualité des infras ? Autre chose ? Les études ne le disent pas formellement, mais ils ont clairement un rôle dans le bilan global de la France et le fait qu'ils soient français n'empêche pas une telle situation.

    La forte disparité du taux de mortalité infantile signifie qu'il y a sans doute quelques leviers accessibles à actionner sur ces territoires (Seine St Denis semble également très concernée) pour améliorer la situation localement et du coup le bilan global du pays aussi.

    représentent peu de naissance en proportion

    D'après l'INSEE : https://statistiques-locales.insee.fr/#c=indicator&i=ec_evol.naisdnn&s=2023&t=A01&view=map2

    La France a eu 676 643 naissances en 2023 dont 38 239 en Outre-Mer soit 5,6% des naissances en France.
    Ce n'est pas dérisoire, d'autant qu'ils ne représentent que 3,2% de la population totale.

    Je ne trouve pas que ce soit négligeable surtout que les taux de mortalité infantile sont dans les faits faibles.

    D'ailleurs la France n'a pas été toujours le mauvais élève, loin sans faux.

    Le bilan global n'est dans l'absolu pas désastreux. Naître en France reste globalement sûr et c'est mieux de naître aujourd'hui qu'il y a 50 ans sur ce critère.

    Mais on a moins progressé que certains de nos voisins. Reste à savoir pourquoi dans le détail pour fournir les bonnes politiques pour améliorer encore plus la situation. D'autant qu'il semble que ce problème touche plus certains territoires que d'autres, cela signifie qu'il y a sans doute moyen d'avoir un progrès important sans pour autant devoir réformer tout le pays et dépenser des milliards en infras et personnels partout.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 4.

    Dit autrement, on a améliorer la prise en charge à 7 mois de grossesse, donc on peut prendre en charge à 6 mois. On ne dégrade donc pas la mortalité infantile avec la progression de la prise en charge. On la déporte plus tôt.

    Sauf que un enfant qui naît à 7 mois ce n'est vraiment pas la même chose que s'il naît à 8 mois. Et cela est d'autant plus vrai plus tôt.

    Cela signifie qu'à bien des égards tout est plus fragile : risques d'infection, problèmes à l'accouchement, organes pas suffisamment robustes, etc. Des situations qui se passent plutôt bien à 8 mois ne se passent vraiment plus aussi bien à 7 mois.

    Et surtout en général si tu accouches à 7 mois, c'est souvent pour une raison particulière (liée à la maman comme au bébé) qui est de fait plus grave que si ça avait eu lieu un mois plus tard.

    Bref, clairement pas, même si on arrive à soigner des situations de plus grand prématurés avant, cela ne signifie pas que le risque de morts post accouchements est constant. Cela peut juste signifier qu'avant on avait 0-5% de taux de survie et qu'on a su l'améliorer pour cette prématurité à 20% (j'invente les chiffres, l'idée est là)

    On peut rajouter, que les maternité, accouchent à la chaîne et donc n'ont pas toujours le temps de bien se préparer, de bien préparer la maman. C'est aussi du vécut : A ben non, la vous arrivé pas au bon moment, on a un autre accouchement en cours. Ou inverssement, on accélère le processus, pour se débarrasser d'un accouchement (au mépris du confort de la maman), et du coup avec un peu plus de risques de complications (léger, mais certains).

    Je ne suis pas convaincu que ce soit le principal problème concernant la mortalité infantile pour la coup. Non pas que ça ne mérite pas une attention particulière mais c'est un autre sujet.

    Non, le réel problème, c'est que l'on a fermé des maternités. Beaucoup de maman ont plus d'une heure de route pour se rendre à la maternité, ce qui rends les examens pré-accouchements beaucoup plus difficile et les risques lié à une grossesse sur le bord de la route beaucoup plus important. J'ai connu ça. On va à la maternité, on nous dit. Fausse alerte, rentrez chez vous. Arrivé à la maison, 1 ou 2 jours plus tard on se dit, on va attendre, c'est peut-être une fausse alerte, on ne va pas faire 2h de route et 2h sur place pour rien…

    La réalité est plus nuancée aussi. Les maternités qui ferment ce sont aussi des maternités qui faisaient peu d'accouchements, souvent en zone rurale avec peu d'habitants.

    Alors oui, c'est un frein pour l'accès au soin. Mais cela signifie aussi que le personnel a moins d'entrainements, croise moins de cas différents ce qui peut aussi être un problème pour la prise en charge de certaines grossesses.

    Ce n'est donc pas tout noir ou tout blanc sur ce point non plus, après améliorer la prise en charge médicale en zone rurale me semble pour le coup en effet important et cela ne passe pas forcément par plein d'hôpitaux de proximité, cela peut revêtir d'autres formes également.

  • [^] # Re: Inédit pour les métiers qualifiés

    Posté par  (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 6. Dernière modification le 11 août 2025 à 22:06.

    Donc tu enlève l'équipe que tu remplace par du LLM. Tu ne garde que l'architecte. Ça me fait peur, mais ça marche.

    Il y a aussi pas mal de limitations que j'ai mentionné, qui peuvent potentiellement être résolus mais tout cela reste malgré tout de l'ordre du conditionnel.

    Reste le problème de comment tu obtiens cet architecte si il n'est pas passé par l'étape précédente. Pour l'instant ça va, mais dans 5-10 ans…

    Oui, il y a évidemment la question de la transmission du savoir aux générations suivantes qui se posent.

    Mais pas que d'ailleurs.

    Par exemple concernant la productivité, en lisant certains, oui ils peuvent travailler plus vite sur le moment. Très bien. Mais faut aussi analyser sur le long terme.

    Est-ce que les moments de code ou les pauses intellectuelles qu'on peut prendre ne sont pas nécessaires pour tenir dans la durée et avoir des idées nouvelles ou en tout cas meilleures ? Un petit peu comme ceux qui bossent 80h / semaine, oui sur le court terme tu gagnes potentiellement du temps mais si c'est ton rythme de croisière tu vas finir en burn out et boom.

    Personnellement j'aime bien apprendre ce que je touche. Je ne suis pas très fan de l'approche "je bricole un peu au hasard". Dans mon boulot plusieurs fois j'ai du toucher à des projets dans des langages que je ne connaissais pas vraiment, des projets pour lesquels j'ai besoin de changer une ligne de code pour résoudre mon soucis, etc. Cas typique où certains utilisent par ailleurs des LLM car ce serait du code "jetable". Sauf que plus tard finalement ces langages ou projets je les ai retrouvé ailleurs ou le fait de bosser dessus m'a ouvert d'autres perspectives en terme de conception et possibilités pour d'autres projets. Ou en lisant la doc de l'API d'une bibliothèque j'ai découvert une fonctionnalité qui pourrait faire encore mieux que ce que j'envisageais de faire à l'origine quitte à retravailler un peu mon plan initial. Je serais sans doute passé totalement à côté de tout cela si j'avais confié cela à un LLM pour résoudre vite fait mon soucis.

    Cela ne veut pas dire qu'il ne faut pas s'en servir ni même que ce sera un réel problème à long terme, mais je trouve que pas mal de retours d'expérience manquent de recul de longs termes avec ces pratiques. Certains commencent à dire les retours négatifs qu'ils perçoivent et que personne ne voyait au départ, nul doute que d'autres effets peuvent apparaître.

  • [^] # Re: Inédit pour les métiers qualifiés

    Posté par  (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4.

    La difficulté, c'est de définir ce qu'est un raisonnement créatif pur. Il n'y a pas de définition formelle universelle. Mais je pense que pour l'usage couramment accepté de ce terme, que l'IA générative pourra se rapprocher suffisament de la créativité qu'il sera impossible de la distinguer de la créativité d'un humain, c'est même probablement déja le cas dans certains domaines. Croire que la créativité pourra être préservée est à mon avis une illusion.

    Un exercice intéressant ce serait de mettre un système dans l'état des connaissances pré 1905 et voir si avec les données et connaissances de l'époque la machine peut retrouver ou imaginer des systèmes physiques qui ont été prédites grâce à la relativité restreinte, générale et mécanique quantique.

    Pour cela il a fallu créer de nouveaux objets et concepts pour rendre compte des incohérences observées et qui ont été assez robustes pour prédire de nouvelles choses non mesurées à l'époque.

    Pas évident, mais là on serait devant une preuve de créativité scientifique reproductible et claire. Il ne semble clairement pas possible à ce jour de faire ce genre de choses avec des LLMs. Peut être un jour. Et clairement si cela est effectué, ce serait un gap.

    Après on peut utiliser n'importe quel cas analogue où la solution au problème n'est pas trivial et demande d'inventer plein de choses novatrices avec les connaissances sous la main. Que ce soit en physique, maths ou autre discipline.

    Pas encore… Mais quand on voit les avancés obtenus avec les processus itératifs (ce qui est nommé « raisonnement »), et la conjonction avec des systèmes formels de preuves,

    Je trouve que les processus itératifs tels qu'ils sont appliqués montrent justement rapidement leurs limites. C'est pas mal mais difficile de conclure si ça permettra d'aller aussi loin.

    Je me demande si on n'est pas devant un phénomène de loi de Pareto : on obtient 80% d'un résultat spectaculaire avec 20% d'efforts, mais résoudre les difficultés résiduelles qu'on voit sera peut être très difficile, long et coûteux. Peut être pas, mais on a eu pas mal d'exemples dans le passé de technos ou prouesse qui semblait révolutionnaire et que la généralisation était qu'une question de mois et finalement pas du tout.

    C'est difficile de prédire l'avenir sur ces questions en fait.

    Alors quand je vois ce qu'elle est capable de faire avec des trucs plutôt réservés aux experts (genre faire du monkey patching pour aller modifier un objet d'une classe tierces et lui transformer ses descripteurs (des setters dans l'exemple)), je me dis qu'on est pas loin.

    Est-ce vraiment ça de l'expertise Python ? J'ai vu des exemples plus probants, mais vu aussi des cas triviaux où ça ne fonctionnait pas par ailleurs. La résilience ce n'est pas encore ça.

    Après, avec le fonctionnement actuel on aura a minima besoin d'experts pour la guider et la contrôler, mais à part ce cas d'usage, pour ma part

    Ce n'est pas rien ni un détail.
    De nombreux experts en fait font déjà plus ou moins ce travail. Ils ne passent pas leur temps à coder mais à diriger techniquement une équipe, à architecture la solution, à arbitrer entre coûts, fonctionnement, maintenance, faisabilité technique, à arbitrer entre des besoins ou désirs contradictoires, etc.

    Et pour cela il faut comprendre le système, connaître les limitations techniques, les difficultés, avoir un minimum de bagage technique parfois dans différents domaines.

    Alors peut être qu'un jour les LLMs feront ça sans soucis à partir des desirata d'un utilisateur ou d'un CEO mais ce n'est pas encore le cas en particulier pour des besoins et des systèmes complexes.

    Moi mon problème c'est sur la formation de ces experts, qui le sont devenus en faisant les choses eux-mêmes, au cours du temps. Ce que j'ai peur, c'est que le vivier d'experts se tarisse, et qu'on n'arrive plus à renouveller la population d'experts, justement à cause de l'IA générative.

    C'est un risque que je partage, il y a également le risque de la monoculture. Avoir plusieurs personnes qui participent à un projet, avec des expertises, des horizons, des cultures, des origines, des besoins, etc. d'origines différentes cela permet aussi de donner des points de vue et des reculs différents. Cela permet de discuter des fonctionnalités (est-ce vraiment pertinent ? On ne peut pas faire mieux que ça ?), de prendre en compte des critères qu'on n'avait pas pensé à la base, ou de proposer des solutions nouvelles.

    Si tout repose sur un LLM avec un codeur et un manageur, le risque de monoculture devient plus importante et finalement d'avoir des résultats moins bons qu'en impliquant plus de personnes dans la conception.

    D'ailleurs ce problème est par exemple très visible dans des entreprises qui ont une équipe non renouvelée depuis très longtemps et qui ne se maintient pas à jour techniquement. "On a a toujours fait comme ça", "les tests unitaires c'est quoi ?", "les gestionnaires de versions c'est un dépôt FTP avec des archives", etc.

  • [^] # Re: pistes

    Posté par  (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 4.

    Une différence c'est notamment la situation Outre Mer.

    Ce sont des départements avec une natalité élevée : https://www.insee.fr/fr/outil-interactif/5367857/territoires/20_DEM/22_NAI
    Mais aussi avec une mortalité élevée : https://www.insee.fr/fr/statistiques/7627069

    Les autres pays de l'UE n'ont pas un tel Outre Mer, le Royaume-Uni en était un peu plus proche et encore mais depuis le Brexit ils ne sont pas dans le calcul.

    Cela n'explique peut être pas tout mais peut être que la situation là bas plombe aussi les statistiques de la France entière.

    Vue la disparité du taux de mortalité infantile sur le territoire, faudrait regarder les cas où c'est élevé. Est-ce la santé des mères ? Problèmes d'infra ? Manque de personnel médical ? Mélange de tout ça ?

  • [^] # Re: Mon petit retour sur le sujet

    Posté par  (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 3.

    Cela implique un minimum de savoir théoriques de base malgré tout.

    Si toute ta formation repose sur cet outil et que tu ne maitrises rien à minimum, tu ne pourras pas être un bon généraliste.

  • [^] # Re: Mon petit retour sur le sujet

    Posté par  (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4.

    Et les vérifier parce que les hallucinations n'ont pas disparu donc ça va inventer des sources de temps en temps…

    Mais aussi parce que le LLM peut dire qu'il se base sur la source X mais en réalité le contenu n'est pas lié (ou exploite mal la dite source).

    Mais en fait cela dépend, de nombreuses requêtes aux LLM ne passent pas par un accès à Internet et du coup tout repose sur les données d'entrainement, et là son résultat ne repose sur aucune source particulière.

  • [^] # Re: Mon petit retour sur le sujet

    Posté par  (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4.

    Je parlais en terme de société et objectif du système éducatif au sens large.

    Pas des aspirations au niveau individuel.

  • [^] # Re: Mon petit retour sur le sujet

    Posté par  (site web personnel) . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 10.

    Je ne suis pas convaincu que ce soit comparable.

    . Je me souviens d'un prof qui parlait de son vieux prof (oui y'a longtemps) et de l'arrivée des calculatrices. Le vieux prof se plaignait qu'aucun étudiant ne savait calculer, et pire, ne savait donner une grandeur estimée. Et il disait que c'était la ruine de l'existence.

    Savoir calculer rapidement à la main c'est surtout très technique et coûteux en temps. Très souvent tu dois utiliser des astuces pour certains calculs.

    Je pense que cela n'a pas un grand intérêt de se focaliser dessus, il y a plus intéressant à faire en maths / physique / autres. Il vaut mieux enchainer les exercices ou explications qui misent sur la manipulation de concepts et de raisonnements plutôt que de faire du calcul si tu veux mon avis. Et je trouve plus pertinent quelqu'un qui maitrise les raisonnements mais a besoin d'aide pour la partie calculatoire que l'inverse.

    Plus jeune, je me souviens de hordes de prof vomir sur wikipedia en disant que plus aucun jeune ne savait réfléchir ou apprendre, et que toute question c'était clic clic wikipedia réponse et j'ai déjà oublié ce qui était demandé.

    Wikipédia c'est quand même très limité.

    Déjà les copier / coller grossiers cela se voit très vite. Et surtout Wikipédia servait dans ce contexte pour… faire des exposés. Pour d'autres exercices que ce soit collège / lycée c'est vite limité, ça donne des connaissances mais si tu ne comprends pas ce que tu lis tu ne peux pas en tirer grand chose. Comme le sujet est très générique, tu ne peux jamais te contenter de copier / coller la réponse depuis Internet sauf si tu trouves exactement le même exercice. Et là encore, le plagiat grossier se voit vite.

    Dans le supérieur c'est pire, Wikipédia n'a souvent pas assez d'éléments pour permettre de s'en servir comme support de cours ou d'exercice. Tu es obligé de lire et de comprendre des sources pour t'en sortir, je doute que tu puisses avoir un master en te basant uniquement sur Wikipédia et sans rien comprendre à ce que tu fais.

    L'IA en théorie est bien plus puissant à cet égard, réponses très personnelles et pas publiques (donc détecter le plagiat est beaucoup plus difficile), il s'adapte bien mieux au contexte des exercices ou cours demandés et si copier / coller ses réponses suffit pour peux réussir à tout valider sans comprendre ce que tu fais (ou avec une compréhension très limitée).

    Du coup la maitrise des concepts, l'acquisition de l'expérience et la pratique des raisonnements se réduit ce qui ne peut pas avoir un effet bénéfique à priori lors d'une formation. Car au contraire, c'est ce qu'on souhaite obtenir.

    La seule façon où l'IA peut être bénéfique dans ce contexte c'est de s'en servir comme support. Tu n'as pas compris une notion ? Tu demandes des exos ou explications complémentaires. Tu cherches à aller plus loin ? Tu peux demander des infos qui pointent au delà du cours si ça t'intéresse. Mais faire tous les exos ou examens avec n'est pas la même chose alors que c'est ce que font manifestement certains (beaucoup ?) d'élèves.

    Ton propos me fait penser à une conférence de Michel Serres sur les connaissances : https://www.youtube.com/watch?v=4-am8OQjpaU (très passionnant et n'a pas mal vieilli). En gros ce débat n'est pas vieux, dès la Grèce Antique il y avait opposition entre ceux qui valorisaient la transmission du savoir oral et la transmission du savoir par l'écrit. En effet à l'époque les grecs étaient capables de retenir des textes longs et complets entièrement dans leur tête. Mais l'écriture, l'imprimerie et Internet ont chamboulé le savoir.

    Il n'était plus nécessaire de savoir par coeur ces textes ou résultat, à mesure que l'information était stockée et accessible à proximité (dans un cahier chez soit, dans la bibliothèque ou sur Internet), il devenait important de surtout savoir l'existence de concepts et de pouvoir retrouver l'information précise dont on avait besoin au moment dont on avait besoin. En libérant le cerveau de la contrainte de la mémorisation par coeur on a pu favoriser le développement des raisonnements et surtout on peut manipuler plus de concepts que si on devait avoir tout par coeur en tête.

    Et c'est pourquoi l'écriture et l'imprimerie ont participé à la progression des connaissances scientifiques à l'époque, cela n'aurait probablement pas été permis aussi vite sans ces outils. Mais la clé est en effet de libérer le cerveau pour pouvoir faire autre chose avec. Ici avec l'IA si tu files tout pour résoudre les exercices à l'IA, qu'est-ce que tu gagnes ? Qu'est-ce que tu peux maitriser en plus que tu ne pourrais pas faire sans ? Je ne vois pas d'exemples probants. Sauf si tu t'en sers comme d'un "prof particulier" additionnel mais qui ne fait pas tout à ta place.

  • [^] # Re: Système impérial

    Posté par  (site web personnel) . En réponse à la dépêche La convention du mètre et l’ODF 150 et 20 ans d’ouverture. Évalué à 3.

    Si on regarde Wikipédia concernant le gallon :

    Le gallon US (symbole gal US) est défini comme mesurant 231 pouces cubes du système américain d'unités, exactement 3,785 411 784 litres ; il est divisé en 128 onces liquides US.
    

    […]
    le gallon de vin, dont la valeur était de 231 pouces cubes.
    le gallon de bière de 282 pouces cubes.

    Il y a bien un rapport.

    L'unité ne change pas la relation intrinsèque entre un volume et une longueur, juste la manière de la représenter.

  • [^] # Re: Système impérial

    Posté par  (site web personnel) . En réponse à la dépêche La convention du mètre et l’ODF 150 et 20 ans d’ouverture. Évalué à 4.

    Ensuite si tu arrive à trouver un rapport entre les unités de volumes et de longueur, bravo!

    Un volume ce n'est que le volume défini par 3 longueurs différentes.

    D'où l'unité en système métrique mètre cube qui se base sur le mètre (une longueur).

    La même logique s'applique dans le système impérial.

  • [^] # Re: ni l'un, ni l'autre

    Posté par  (site web personnel) . En réponse à la dépêche La convention du mètre et l’ODF 150 et 20 ans d’ouverture. Évalué à 6.

    il faut surtout immédiatement utiliser un format de données qui intègre l'unité (*) et qui sait additionner des mètres et des yards.

    Dans le logiciel que je gère au boulot, et je pense que c'est le mieux à faire, l'unité fait partie du système de type. Tu essayes d'additionner une pression à une température ? Le compilateur va te cracher dessus. Tu essayes d'obtenir une énergie à partir d'un courant électrique et du temps ? Le compilateur va te dire que ce n'est pas possible non plus.

    Pour un type donnée, tu as une unité standard de base pour représenter la donnée (il faut choisir l'unité la plus adéquate, surtout s'il y a volontés d'éviter de gérer des flottants).

    La gestion des conversions doit se faire en entrée et sortie du système ainsi le logiciel en lui même fait tous ses calculs à partir de la même unité et n'utilise les conversions que pour gérer le monde extérieur qui a besoin d'une représentation différente.

  • [^] # Re: Réponse de Perplexity

    Posté par  (site web personnel) . En réponse au lien Perplexity is using stealth, undeclared crawlers to evade website no-crawl directives - CloudFlare. Évalué à 4.

    Le soucis c'est que tous les autres LLM proposant la possibilité de rechercher sur le Net ont une dualité entrainement / parcourir pour fournir les dernières infos basée sur la requête précise de l'utilisateur. Perplexity n'est pas seul sur ce créneau avec cette méthodologie.

    D'ailleurs est-ce que les éditeurs permettent de distinguer le rôle de chaque visite dans le détail ? Entre entrainement, BDD du moteur interne et recherche dynamique ? Je crois que Google et OpenAI ne permettent pas le distingo exprès pour éviter le filtrage.

    Du coup transparence tout ça comme souvent avec ces solutions finalement manque cruellement.

  • [^] # Re: Réponse de Perplexity

    Posté par  (site web personnel) . En réponse au lien Perplexity is using stealth, undeclared crawlers to evade website no-crawl directives - CloudFlare. Évalué à 6.

    Pour moi ils noient le poisson dans leur explication. La question n'est pas de savoir l'objectif final de leur robots qui parcourent le web, mais celui de leur impact sur les sites visités.

    Car non, ce n'est pas comme avant ou comme si un visiteur visitait ces sites à la main car sinon les sites ne verraient pas une telle surcharge de travail de la part de ces outils.

    En fait le soucis c'est que chaque requête d'un utilisateur va générer des visites plus ou moins utiles à d'autres sites.

    Avant c'était :

    Utilisateur -> Google -> lecture des résultats de Google avec résumé pertinent généré par Google sans visites en plus -> on clique sur les liens qui nous intéresse à la main avec lecture manuelle (opération lente)

    Avec Perplexity le résultat est :

    Utilisateur -> Perplexity -> Probablement un moteur de recherche interne pour le préfiltrage -> consulte et lit probablement des dizaines de pages et peut être sous pages en un temps record. Potentiellement certains liens ne seront pas exploités pour la réponse finale, et il n'est pas impossible qu'ils ne comptent pas pour l'établissement des revenus publicitaires des sites visités.

    Donc un utilisateur qui multiplie les requêtes génèrera des clics "cachés" plus élevés et plus vite que s'il avait cherché à la main. À multiplier cela par le nombre d'utilisateurs. Le tout sans financer une partie du trafic généré.

  • [^] # Re: ni l'un, ni l'autre

    Posté par  (site web personnel) . En réponse à la dépêche La convention du mètre et l’ODF 150 et 20 ans d’ouverture. Évalué à 5.

    un astronome ou astrophysicien utilisera plutôt l'année lumière que le mètre pour les distances

    Pour communiquer et visualiser le résultat oui car c'est plus lisible que le résultat en mètre, mais dans les calculs tout est en mètres.

    les physiciens des atomes et particules ou cristallographie préfèrent souvent l'angström (même après sa re-définition comme multiple du nanomètre…)
    les paysans ont des tailles de champs en hectares (bon, en Bretagne c'était parfois en ares :p)

    C'est du SI techniquement, juste en utilisant une subdivision des valeurs métriques. Cela rend les conversions très simples de même que les représentations. Et cela permet de préserver les valeurs pour les calculs car ce sont juste des puissances des unités attendues dans les formules sans les pièges du système impérial par exemple.

  • [^] # Re: Etrange...

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de juillet 2025. Évalué à 5.

    De manière intéressante, la chaîne de pensée n’offre aucune indication de discrimination.

    Cela n'a d'ailleurs pas une grande signification car il semble bien que la chaine de pensées n'offre clairement pas une transparence parfaite concernant le raisonnement effectué par un LLM pour une question donnée : https://arxiv.org/pdf/2503.08679

    En gros il n'est pas impossible qu'un raisonnement dans la chaine de pensées soit exempte de tout biais observable mais qu'en réalité la réponse fournie le soit totalement car cette première n'a pas été l'unique support pour établir la réponse finale. Et qu'elle peut même être presque ignorée finalement.

  • [^] # Re: Mouai...

    Posté par  (site web personnel) . En réponse au lien Trump est-il tombé dans le piège européen? . Évalué à 9.

    Si, l'Etat peut "obliger" à acheter américain, surtout dans certains domaines:

    Déjà il y a un problème : la Commission Européenne ce n'est pas la France.

    Et la Commission Européenne n'a pas le pouvoir direct d'obliger les fournisseurs de gaz et de pétrole à acheter du pétrole américain.

    Il est actionnaire majoritaire de grosses entreprises notamment dans l'énergie, il peut donc très bien la contraindre.

    La France n'est actionnaire majoritaire que d'EDF. Total et Engie qui sont deux gros poids lourds n'ont pas une participation majoritaire de l'État. Pourtant ce sont ces deux derniers qui auraient un tel impact, EDF achète peu de combustible pour ses activités.

    Il peut faire passer des lois favorable pour l'un ou à l'inverse défavorable pour les autres. Notamment en taxant le pétrole et gaz Russe. Je pense que la guerre en Ukraine rends en partie ceci inévitable accord ou pas.

    Et si tu as suivi le processus concernant la Russie, tu verrais que c'est plus complexe que cela.

    Ce n'est pas la Commission qui a imposé l'embargo du gaz et du pétrole russe (et encore, que partiellement) aux États de manière unilatérale, ce sont les États qui ont approuvé les sanctions dans le cadre européen à l’unanimité. Et cela a déjà été difficile d'avoir tout le monde d'accord pour le cas russe.

    Autre complication, il y a des contrats en cours. D'ailleurs on l'a vu dans le cas russe aussi que certains achats devaient se poursuivre pour éviter une rupture anticipée et que la fin de l'acheminement a eu lieu pour certains à l’expiration des dits contrats.

    L'UE et les pays européens ne peuvent pas du jour au lendemain casser tous ces contrats pour acheter américain. Ce serait trop cher et poserait des tas de problèmes.

    En plus les montants sont tels que cela signifierait que les USA et l'UE devraient investir massivement pour permettre ces redirections de flux énergétiques, que les USA devraient renoncer à exporter à d'autres pays avec qui cela permet de maintenir des liens économiques. Le tout dans un contexte de demande déclinante en UE pour les énergies fossiles : https://www.connaissancedesenergies.org/afp/accord-ue-etats-unis-acheter-750-milliards-de-dollars-denergie-americaine-un-objectif-irrealiste-dans-les-conditions-actuelles-250730

    Bref, ce n'est pas si simple. Ce n'est même pas forcément réaliste même avec de la bonne volonté.

    Il peut tout simplement acheter aux USA pour ses administrations public voir même revendre à pertes. Quand on voit le poids de l'économie public en France, cela peut peser très lourd.

    Et tu crois que l'État français se fourni comment ?

    Il y a des appels d'offres, des contrats avec des fournisseurs existants, etc. Et après ils se débrouillent de leur côté pour se fournir là où c'est possible. Ce n'est pas Macron qui signe le bon de commande auprès d'un fournisseur français le jour X puis le fournisseur américain le jour Y avec la traçabilité du carburant de bout en bout. C'est bien plus compliqué et indirect que cela et imposer une telle redirection de flux ne s'improvise pas et n'est pas sans conséquences que ce soit pour les USA comme l'UE.

  • [^] # Re: Mouai...

    Posté par  (site web personnel) . En réponse au lien Trump est-il tombé dans le piège européen? . Évalué à 10.

    L'autre possibilité aussi est que Donald Trump et son équipe en sont parfaitement conscients mais qu'ils peuvent vendre cela au peuple américain, et à son électorat, comme une victoire même si concrètement pas mal de dispositifs n'auront pas l'impact vendu.

    Cela permet de garder la face à moindre frais pour tout le monde.

  • [^] # Re: Une solution simple, sans risque, et légale

    Posté par  (site web personnel) . En réponse au lien Pour étudier aux Etats-Unis, il faut désormais rendre tous vos profils en ligne publics. Évalué à 4.

    C'est comme tout, il y a une question d'environnement mais pas que.

    Jobs même s'il vient d'un milieu pas spécialement favorable d'un point de vue familial, il est né dans la Silicon Valley au bon moment pour démarrer une entreprise alors que l'industrie électronique localement était en train de percer notamment grâce à l'industrie d'armement américaine qui était dans la région aussi.