Posté par Nicolas (site web personnel) .
Évalué à 0 (+1/-1).
Dernière modification le 29 décembre 2025 à 13:35.
En vrac : définition de l'intelligence en terme d'adaptation assez inepte (d'idéologie néolibérale), là où la psychométrie travaille avec plusieurs processus : capacité de raisonnement logique, mémoire de court terme, long terme, raisonnements par analogie, raisonnement visuo-spatial, etc. là où l'éthologie va tester des capacités précises : résoudre un problème en plusieurs étapes (projection d'un objectif dans le futur et planification en vue de l'atteindre - fonctions exécutives chez l'humain), individuation (personnalité des animaux et reconnaissance de soi et des autres individus), communication (existence d'une proto-grammaire, complexité des relations sociales, niveau de coopération), capacité à manipuler des outils, à les façonner, jugement esthétique. Tout ceci existe dans le règne animal.
L'adaptation n'est pas l'innovation (tous les animaux sont adaptés…). L'art, les comportements symboliques ne sont pas des processus (directement) adaptatifs. D'ailleurs le texte se contredit car il parle ensuite de la différence syntaxe/sémantique sans rapport, et qui à mon sens n'est pas une critique pertinente.
Pareil, apprendre à nager c'est typiquement un processus d'apprentissage de la coordination neuro-musculaire : globalement il y a des neurones responsables de l'activation des fibres musculaires, qui doivent se coordonner pour activer ensemble les fibres musculaire, avec la bonne tension, et de manière coordonnées (pour les fibres d'un même muscle, par relâchement partiel de la tension du muscle antagoniste, puis pour des mouvements plus complexe par gestion complète et différentié des groupes musculaires), ceci en fonction des retours sensoriels (visuel, vestibulaire, proprioceptif, etc.). Une IA ne sait pas faire ça et cela réclame un système nerveux important (rien que la force pure est une capacité bien plus nerveuse que musculaire). C'est le moment de signaler une des grosses différences avec les IA : le cerveau est toujours en train d'apprendre. Le processus d'apprentissage est très complexe et passe par un système de "récompense" qui est un système motivationel aux sources multiples : sécurité/survie, sexualité/reproduction, pour les fondamentaux qui surdéterminent le reste : autonomie, empathie, reconnaissance sociale, liens sociaux, coopération et compétition, etc. C'est à travers les neuro-transmetteurs et les émotions, que se jouent les affects et donc la finalité de nos comportements. Beaucoup de choses qui se jouent en terme de relations sociales par ailleurs, et le fait social est aussi une réalité qui mobilise la majeure partie du cerveau humain.
Notre connaissance du monde, le modèle qui nous permet de le comprendre et d'agir dessus ne sont que des informations, de la donnée (transmise par des récepteurs aux neurones, puis des neurones aux muscles et/ou glandes hormonales). Ce n'est pas un bon angle d'attaque, car rien n'interdit d'en faire de même avec une IA. Par contre il est loin d'être acquis que les IAs aient la capacité à gérer des flux d'informations aussi complexes ET ensuite seulement en penser l'abstraction.
L'humanité en tant qu'espèce se caractérise par un très haut niveau de coopération et d'innovation. Deux fondamentaux qui n'entrent pas dans la définition rabougrie de l'intelligence, et encore moins dans les capacités de l'IA (pure imitation langagière).
De manière générale ceux qui réfléchissent à l'IA n'ont aucune formation sérieuse pour véritablement en dire des choses pertinentes : ils font de l'anthropomorphisme, d'autant plus facilement que l'accès au langage est associé chez l'être humain à l'intelligence (à tort).
Un des gros problème est de penser l'intelligence par le seul prisme du raisonnement conscient, de la pensée abstraite, de la logique. En ignorant tout ce qui rend pertinent de manière souvent inconsciente ces fonctions supérieures de la cognition, vulgairement la "pensée".
« De manière générale ceux qui réfléchissent à l'IA n'ont aucune formation sérieuse pour véritablement en dire des choses pertinentes : ils font de l'anthropomorphisme, d'autant plus facilement que l'accès au langage est associé chez l'être humain à l'intelligence (à tort). »
Le reste de votre texte paraît on ne peut plus censé (pour un béotien comme moi en tout cas). Mais ce paragraphe… une généralisation un peu abusive qui vous aura échappé probablement ? Peut-être faudrait-il rajouter « une grande proportion de » après de manière générale ? Sachant que beaucoup d'équipes qui se penchent sur le sujet son pluridisciplinaires justement pour éviter de turbiner à vide façon LLM ou marqueteux.
Ce qui est le plus problématique c'est (outre le biais anti-IA) le caractère daté des informations.
Par exemple l'article écrit :
"test redoutable, le ARC-AGI, composé de puzzles logiques visuels qu’un enfant peut résoudre, mais que les IA les plus puissantes échouent massivement. Pourquoi ? Parce que ces puzzles ne sont pas dans leurs données d’entraînement. L’IA ne sait pas improviser. Elle est totalement démunie face à une situation qui lui est totalement étrangère."
L'IA est tellement démunie que, fin 2024, le test ARC-AGI a été cassé par le modèle o3 d'OpenAI (88% des puzzles résolus).
François Chollet, auteur du test ARC-AGI, dit à ce sujet :
"Il ne s'agit pas d'une simple amélioration marginale, mais d'une véritable rupture, qui marque un changement qualitatif dans les capacités de l'IA par rapport aux limites antérieures des LLM".
Tout ceci est parfaitement et clairement expliqué dans le livre de Thibaut Giraud "La parole aux machines".
Intéressant, mais est-ce qu'on sait si le test ARC-AGI a été résolu (cassé ?) du fait que ces puzzles sont maintenant dans les données d'entrainement, ou parce que l'IA o3 d'OpenAI n'est plus démuni fasse aux situations totalement étrangères ?
# texte problématique
Posté par Nicolas (site web personnel) . Évalué à 0 (+1/-1). Dernière modification le 29 décembre 2025 à 13:35.
En vrac : définition de l'intelligence en terme d'adaptation assez inepte (d'idéologie néolibérale), là où la psychométrie travaille avec plusieurs processus : capacité de raisonnement logique, mémoire de court terme, long terme, raisonnements par analogie, raisonnement visuo-spatial, etc. là où l'éthologie va tester des capacités précises : résoudre un problème en plusieurs étapes (projection d'un objectif dans le futur et planification en vue de l'atteindre - fonctions exécutives chez l'humain), individuation (personnalité des animaux et reconnaissance de soi et des autres individus), communication (existence d'une proto-grammaire, complexité des relations sociales, niveau de coopération), capacité à manipuler des outils, à les façonner, jugement esthétique. Tout ceci existe dans le règne animal.
L'adaptation n'est pas l'innovation (tous les animaux sont adaptés…). L'art, les comportements symboliques ne sont pas des processus (directement) adaptatifs. D'ailleurs le texte se contredit car il parle ensuite de la différence syntaxe/sémantique sans rapport, et qui à mon sens n'est pas une critique pertinente.
Pareil, apprendre à nager c'est typiquement un processus d'apprentissage de la coordination neuro-musculaire : globalement il y a des neurones responsables de l'activation des fibres musculaires, qui doivent se coordonner pour activer ensemble les fibres musculaire, avec la bonne tension, et de manière coordonnées (pour les fibres d'un même muscle, par relâchement partiel de la tension du muscle antagoniste, puis pour des mouvements plus complexe par gestion complète et différentié des groupes musculaires), ceci en fonction des retours sensoriels (visuel, vestibulaire, proprioceptif, etc.). Une IA ne sait pas faire ça et cela réclame un système nerveux important (rien que la force pure est une capacité bien plus nerveuse que musculaire). C'est le moment de signaler une des grosses différences avec les IA : le cerveau est toujours en train d'apprendre. Le processus d'apprentissage est très complexe et passe par un système de "récompense" qui est un système motivationel aux sources multiples : sécurité/survie, sexualité/reproduction, pour les fondamentaux qui surdéterminent le reste : autonomie, empathie, reconnaissance sociale, liens sociaux, coopération et compétition, etc. C'est à travers les neuro-transmetteurs et les émotions, que se jouent les affects et donc la finalité de nos comportements. Beaucoup de choses qui se jouent en terme de relations sociales par ailleurs, et le fait social est aussi une réalité qui mobilise la majeure partie du cerveau humain.
Notre connaissance du monde, le modèle qui nous permet de le comprendre et d'agir dessus ne sont que des informations, de la donnée (transmise par des récepteurs aux neurones, puis des neurones aux muscles et/ou glandes hormonales). Ce n'est pas un bon angle d'attaque, car rien n'interdit d'en faire de même avec une IA. Par contre il est loin d'être acquis que les IAs aient la capacité à gérer des flux d'informations aussi complexes ET ensuite seulement en penser l'abstraction.
L'humanité en tant qu'espèce se caractérise par un très haut niveau de coopération et d'innovation. Deux fondamentaux qui n'entrent pas dans la définition rabougrie de l'intelligence, et encore moins dans les capacités de l'IA (pure imitation langagière).
De manière générale ceux qui réfléchissent à l'IA n'ont aucune formation sérieuse pour véritablement en dire des choses pertinentes : ils font de l'anthropomorphisme, d'autant plus facilement que l'accès au langage est associé chez l'être humain à l'intelligence (à tort).
Un des gros problème est de penser l'intelligence par le seul prisme du raisonnement conscient, de la pensée abstraite, de la logique. En ignorant tout ce qui rend pertinent de manière souvent inconsciente ces fonctions supérieures de la cognition, vulgairement la "pensée".
[^] # Re: texte problématique
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 2 (+0/-0).
Le reste de votre texte paraît on ne peut plus censé (pour un béotien comme moi en tout cas). Mais ce paragraphe… une généralisation un peu abusive qui vous aura échappé probablement ? Peut-être faudrait-il rajouter « une grande proportion de » après de manière générale ? Sachant que beaucoup d'équipes qui se penchent sur le sujet son pluridisciplinaires justement pour éviter de turbiner à vide façon LLM ou marqueteux.
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: texte problématique
Posté par patrick_g (site web personnel) . Évalué à 2 (+0/-1).
Ce qui est le plus problématique c'est (outre le biais anti-IA) le caractère daté des informations.
Par exemple l'article écrit :
"test redoutable, le ARC-AGI, composé de puzzles logiques visuels qu’un enfant peut résoudre, mais que les IA les plus puissantes échouent massivement. Pourquoi ? Parce que ces puzzles ne sont pas dans leurs données d’entraînement. L’IA ne sait pas improviser. Elle est totalement démunie face à une situation qui lui est totalement étrangère."
L'IA est tellement démunie que, fin 2024, le test ARC-AGI a été cassé par le modèle o3 d'OpenAI (88% des puzzles résolus).
François Chollet, auteur du test ARC-AGI, dit à ce sujet :
"Il ne s'agit pas d'une simple amélioration marginale, mais d'une véritable rupture, qui marque un changement qualitatif dans les capacités de l'IA par rapport aux limites antérieures des LLM".
Tout ceci est parfaitement et clairement expliqué dans le livre de Thibaut Giraud "La parole aux machines".
[^] # Re: texte problématique
Posté par lejocelyn (site web personnel) . Évalué à 2 (+0/-0).
Intéressant, mais est-ce qu'on sait si le test ARC-AGI a été résolu (cassé ?) du fait que ces puzzles sont maintenant dans les données d'entrainement, ou parce que l'IA o3 d'OpenAI n'est plus démuni fasse aux situations totalement étrangères ?
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.