Non. Oui. Oui. Oui. Effectivement tu n'es pas juriste. Cela relève de la loi dans tout état de droit (sont interdits injure, diffamation, haine envers un groupe, sans compter le droit de la presse qui n'est pas celui du particulier). Et rien n'empêche Linuxfr d'établir ses propres règles (et je sais à quoi m'en tenir s'agissant de la modo ! Toujours égale à elle-même).
Au passage il n'y a pas la moindre foutue logique dans la pensée fasciste : des suprémacistes, c'est-à-dire des gens qui se croient supérieurement intelligents, forts, civilisés, seraient finalement de petits êtres faibles et sans défense. Appliquer aux gens l'idéologie qu'ils prônent eux-mêmes, en l'occurrence la loi du plus fort, la violence comme moyen politique, c'est la forme la plus aboutie de la tolérance. Un paradoxe bien souvent confronté par le sarcasme chez ceux qui combattent le fascisme. (En réalité, beaucoup de fascistes souffrent d'un trouble de la personnalité narcissique : ils pensent sincèrement qu'ils ont des droits supérieurs aux autres et ne savent pas ce qu'est la réciprocité. Trouble qui se complète bien avec les autoritaires qui inversement trouvent normal d'être assujetti/asservi au pouvoir. Aussi la conclusion précède le raisonnement. La projection. Etc.)
« femmes se dévaloriseraient. » Est-ce bien avéré ?
Moi aussi j'ai tiqué, mais pas surpris. C'est bien sûr une manière de faire retomber la responsabilité sur les femmes, de ne surtout pas interroger les comportements misogynes, ou dire la réalité factuelle de la société. Au final ça dit en creux que c'est un peu de leur faute puisqu'elles l'ont intériorisé (et c'est du coup un grand classique de phénomène sexiste que de réattribuer la responsabilité).
C'est pas ici - sur Linuxfr - que tu auras une réponse sérieuse à ta question étant donné l'ambiance qui y règne et j'inclus les féministes en carton-pâtes qui versent plus dans la police des mœurs que dans la lutte effective des droits des femmes.
A fortiori celles qui restent n'ont pas d'autres choix que de ne pas faire trop de vagues. Et les mécanismes peuvent passer pour non sexistes : le système de notation par une communauté composée à 99% d'hommes et le 《 karma 》 s'est déjà chargé de faire le tri parmi des féministes un peu plus… sérieuses… disons.
Pour te donner un exemple de petit signaux misogyne, c'est le folklore local de la "Mme Michu"… Ce genre d'images c'est un exemple, c'est constant, et les ±jeunes filles comprennent très bien tous ces signaux qui ont pour unique but des les dissuader d'exercer tel ou tel métier. Si ce n'est pas suffisant elles subiront harcèlement voire agression sexuelles durant leur carrière. En passant par tout ce qui vol/récupération du travail de la collègue par un homme. Certaines finiront par abandonner, d'autres comprendront qu'ils faudra pas trop en demander.
Bref il y a des stratégies actives, conscientes ou pas on s'en tape (tout le monde est adulte et responsable de ses actes, "not all men" est un autre classique de la déresponsabilisation).
Pour ce qui est de l'école, par exemple, il y a des travaux BEAUCOUP plus sérieux que des sondages bidons sur le "ressenti" d'élèves. Ce que j'ai lu ne concernait les femmes qu'à la marge (c'était principalement sur les (petits-)enfants d'immigrés). Mais globalement ça va être l'attitude des parents (d'abord), des profs, des garçons dans les classes. Le degré d'attention porté par les adultes, les temps de parole accordés en classe (et en-dehors) : un exemple de phénomène parfaitement mesurable et objectivable. Collège-lycée c'est aussi une période où on va commencer à exiger des jeunes filles des tâches domestiques par exemple (donc moins de temps et de cerveau disponible pour les devoirs). Un autre exemple est le manque de modèle dans l'entourage PROCHE (les bios sur des femmes-génies genre Marie-Curie comme tarte à la crème, ça marche bien parce que contre-productif - ça ne ferait que souligner l'exceptionnalité du destin).
Et pour les technologies du futur qu'on attend partout ailleurs (et le pourquoi que le mainframe n'est pas remplacé malgré qu'IBM et d'autres du secteur se gavent)
- analyse des requêtes SQL à la compilation (aucune injection possible, optimisation de la stratégie, séparation stricte de la donnée et du code).
- description portable, simple, très performante et orientée métier des données.
- rétro-compatibilité+++ (faut que ça tourne dans 50 ans) c'est pas du code vieux qu'on manipule, mais du code pérenne (avec effectivement ce problème du sachant et de la doc qui se perdent)
- type décimal natif avec calcul exact sans arrondis.
- aucun soucis d'adressage mémoire.
- t'as aussi des trucs autour de DB2 (et ptet même Cobol), qui peut exposer des services HTTP.
- la notion de partition et toute la gestion matérielle et des droits pour concevoir les environnements prod/hors-prod et gérer les, milliers, d'utilisateurs
- accès bien contrôlé des ressources fichiers/db
- Services Unix (c'est… spécial… on n'est pas sur du Linux), y'a un serveur SSH et même un client git.
- système batch ET temps réel
C'est aussi un savoir-faire : faire un tri puis une rupture ou une jointure sans taper dans une base de donnée SQL pour un oui ou un non, une bonne part des cobolistes savent faire. Produire un MPD qui tienne à peu prêt la route. Savoir écrire du code modulaire (pas le choix en Cobol!). Écrire et maintenir du code sur plusieurs décennies, c'est pas un problème de langage mais d'interface chaise-clavier. Ce sont des attendus de base de toute personne du métier et expérimentée mais qui ne sont pas si bien acquises (voire parfois les soit-disantes bonnes pratiques de l'informatique sont des anti-patterns). Raison pour laquelle tant et tant de projets de migration se cassent la gueule. Y'a aussi l'architecture qui est déjà bien assez compliquée et serait un vrai casse-tête à s'arracher les cheveux sur système distribué.
Au passage c'est un peu se tirer une balle dans le pieds. Parser du JSON ou du XML (par exemple) ça coûte bien cher (en volume et en temps) par rapport à une bon vieux record format fixe. Dans le même genre IBM a bien fait de la merde avec leur usine à gaz qui est supposé remplacer Pacbase (j'attendais le moment où on me parlerait de l'IA pour gé(né)rer du Cobol, voilà qui est chose faite avec l'article du lien…)
Et la grande joie de mon métier c'est quand même de voir la tête en décomposition des informaticiens qui ne jurent que par la techno MODERNE lorsque je leur annonce la volumétrie qui passera dans les tuyaux.
Mais, mais… comment trouver du boulot si on ne peut pas récrire nos programmes tous les 6 mois parce que (choix multiples possibles)
□ optimisation du code (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ sécurisation du code (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ nouvelle fonctionnalité du code qui nécessite une nouvelle architecture (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ nouveau langage à la mode qui permet d'avoir la même mais en mieux (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ code non maintenable (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ code non documenté (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ le concurrent le fait (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ tu peux pas cap' c'est nous les experts (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
Le problème du Cobol c'est qu'il faut redoubler d'efforts pour se trouver des excuses. Heureusement avec un peu de bouteille nous y arrivons aussi. D'autant plus que les pratiquants ne sont pas souvent informaticiens de métier mais ce sont retrouvés là-dedans par nécessité (ce qui soit dit en passant signifie que c'est pas trop dans les mœurs de vouloir recoder juste pour la beauté du geste).
Ce qui est paradoxal étant donné la nature du langage et l'écosystème dans lequel il est utilisé on est un peu obligé de savoir un minimum coder et architecturer (c'est-à-dire pas juste compter sur un gestionnaire de librairie et une base de code bullet-proof qu'on se contenter de télécharger/appeler, mais écrire de vrais algos avec nos petites mains - heureusement 99% du temps c'est assez trivial).
Au passage, quelques chiffres pour donner des ordres de grandeur, la consommation énergétique (par rapport au métabolisme de base ?) du cerveau c’est ~20% pour un adulte, jusqu’à ~60% pour un enfant. Pas sûr que notre civilisation industrielle soit prête à ça…
Pour étayer l’importance sensori-motrice sur les fonctions cognitives : les biologistes utilisent très souvent un quotient d’encéphalisation, car la première corrélation qui vient avec la taille du cerveau, c’est la masse corporelle.
En vrac : définition de l'intelligence en terme d'adaptation assez inepte (d'idéologie néolibérale), là où la psychométrie travaille avec plusieurs processus : capacité de raisonnement logique, mémoire de court terme, long terme, raisonnements par analogie, raisonnement visuo-spatial, etc. là où l'éthologie va tester des capacités précises : résoudre un problème en plusieurs étapes (projection d'un objectif dans le futur et planification en vue de l'atteindre - fonctions exécutives chez l'humain), individuation (personnalité des animaux et reconnaissance de soi et des autres individus), communication (existence d'une proto-grammaire, complexité des relations sociales, niveau de coopération), capacité à manipuler des outils, à les façonner, jugement esthétique. Tout ceci existe dans le règne animal.
L'adaptation n'est pas l'innovation (tous les animaux sont adaptés…). L'art, les comportements symboliques ne sont pas des processus (directement) adaptatifs. D'ailleurs le texte se contredit car il parle ensuite de la différence syntaxe/sémantique sans rapport, et qui à mon sens n'est pas une critique pertinente.
Pareil, apprendre à nager c'est typiquement un processus d'apprentissage de la coordination neuro-musculaire : globalement il y a des neurones responsables de l'activation des fibres musculaires, qui doivent se coordonner pour activer ensemble les fibres musculaire, avec la bonne tension, et de manière coordonnées (pour les fibres d'un même muscle, par relâchement partiel de la tension du muscle antagoniste, puis pour des mouvements plus complexe par gestion complète et différentié des groupes musculaires), ceci en fonction des retours sensoriels (visuel, vestibulaire, proprioceptif, etc.). Une IA ne sait pas faire ça et cela réclame un système nerveux important (rien que la force pure est une capacité bien plus nerveuse que musculaire). C'est le moment de signaler une des grosses différences avec les IA : le cerveau est toujours en train d'apprendre. Le processus d'apprentissage est très complexe et passe par un système de "récompense" qui est un système motivationel aux sources multiples : sécurité/survie, sexualité/reproduction, pour les fondamentaux qui surdéterminent le reste : autonomie, empathie, reconnaissance sociale, liens sociaux, coopération et compétition, etc. C'est à travers les neuro-transmetteurs et les émotions, que se jouent les affects et donc la finalité de nos comportements. Beaucoup de choses qui se jouent en terme de relations sociales par ailleurs, et le fait social est aussi une réalité qui mobilise la majeure partie du cerveau humain.
Notre connaissance du monde, le modèle qui nous permet de le comprendre et d'agir dessus ne sont que des informations, de la donnée (transmise par des récepteurs aux neurones, puis des neurones aux muscles et/ou glandes hormonales). Ce n'est pas un bon angle d'attaque, car rien n'interdit d'en faire de même avec une IA. Par contre il est loin d'être acquis que les IAs aient la capacité à gérer des flux d'informations aussi complexes ET ensuite seulement en penser l'abstraction.
L'humanité en tant qu'espèce se caractérise par un très haut niveau de coopération et d'innovation. Deux fondamentaux qui n'entrent pas dans la définition rabougrie de l'intelligence, et encore moins dans les capacités de l'IA (pure imitation langagière).
De manière générale ceux qui réfléchissent à l'IA n'ont aucune formation sérieuse pour véritablement en dire des choses pertinentes : ils font de l'anthropomorphisme, d'autant plus facilement que l'accès au langage est associé chez l'être humain à l'intelligence (à tort).
Un des gros problème est de penser l'intelligence par le seul prisme du raisonnement conscient, de la pensée abstraite, de la logique. En ignorant tout ce qui rend pertinent de manière souvent inconsciente ces fonctions supérieures de la cognition, vulgairement la "pensée".
J’ai vu une conférence d’une dév (j’ai plus la source désolé, du coup j’sais pas si c’est encore d’actualité) qui expliquait que l’objectif à terme était de réduire au maximum, voir supprimer, l’écart avec le noyau Linux mainstream.
C’est crédible. Ils ont su construire un éco-système suffisament fermé et verrouillé par ailleurs ; ça leur coûte cher de maintenir leur propre branche de dév, avec un risque de dérapage qui rendrait difficile le merge avec les développements mainstream. Le Libre c’est surtout un moyen de réduire les coûts de production dans le monde professionnel.
En faisant semblant de mettre de côté l'IA et de se placer du côté de la philo pure.
La position de Phi est celle d'un mécanisme (philosophie)réductionniste. Du moins dans les premières minutes, car après il se contredit parce qu'il parle d'émergence ; mais passons.
Ma position s'apparente à celle d'un réalisme (philosophie)matérialiste. Position jusqu'au-boutiste : notre esprit est une superposition d'états quantiques (très massivement amoindrie pas la décohérence quantique, bel exemple d'émergence appliquée à la physique pure), d'où ma petite digression pas si innocente sur le libre arbitre, quand bien même l'état des connaissances actuelles nous oblige à ne rien décider là-dessus. C'est une position qui au passage résout pas mal de problèmes autour de la question de l'observateur en physique quantique (c'est-à-dire sans faire appel à des considérations métaphysiques comme c'est regrettablement le cas trop souvent)…
Et je tiens surtout une position profondément épistémologique, donc je rejette en fait toute position philosophique à priori, et même je considère une immense part de la philo comme du discours oisif qui ne vaut pas mieux que la psychanalyse. Autrement dit je tiens cette position car c'est la plus plausible selon les théories scientifiques en vigueur (qui ne sont pas réductionnistes, j'ai donné l'exemple de la sélection naturelle mais cela vaut à des degrés divers pour toutes). Cette position épistémologique n'est pour autant pas scientiste : j'admets que la science n'a et ne peut avoir réponse à tout, qu'il y a d'autres sources de connaissances que la science, que la pensée spéculative (que je récupère de la démarche philosophique) a un rôle à jouer dans la recherche, etc.
Au passage et pour revenir aux sujet de la cognition humaine, les médias grand public font actuellement la part belle aux neurosciences dans une approche réductionniste. Mais ils vont ignorer, par exemple, la théorie de l'attachement, qui n'est pas réductionniste mais son exact opposé : c'est un système plus global — l'évolution des espèces — qui explique le fonctionnement d'une partie — la psychologie de l'individu. À fortiori le débat sur l'IA est truqué dès le départ dans un tel bain culturel.
C'est une position dualiste. Un vrai matérialiste se demande comment diable d'une machine aussi différente que le cerveau puisse émerger une pensée similaire.
Et ce sans confondre des algorithmes qui suivent un modèle, très grossier, de neurones avec le fonctionnement réel du cerveau. C'est du biomimétisme très classique en ingénierie et il faut toute l'arrogance de l'informaticien et la mégalomanie d'un Musk pour oser en prétendre plus.
Le problème est plus général, parce qu'à ma connaissance personne de vraiment sérieux au monde ne peut dire comment la "pensée" émerge du cerveau, ni même définir ce qu'est la pensée. Dire cela, ce n'est pas une position dualiste ; c'est une position d'ignorance et de modestie sur nos connaissances actuelles.
Inversement les notions de causalité et de déterminisme ont été pas mal remis en cause par la physique moderne. On ne peut exclure, à priori et en l'état des connaissances actuelles, un impact sur la pensée, et ce qu'on appellerait improprement le libre-arbitre. Comme le sujet est plus que délicat à traiter : j'insiste qu'il s'agit là encore d'une position d'ignorance épistémologique.
Et on pourrait encore développer, dans la nature l'apparition de l'intelligence a été progressive avec une grande continuité des processus cognitifs au cours de l'évolution et entre les espèces. Avec un phénomène d'évolution parallèle dans le cas des oiseaux. En informatique par contre on aurait une rupture inexplicable et on accèderait directement à la cognition humaine (et qui plus est ses fonctions supérieures).
Mr Phi adresse-t-il tous ces problèmes dans son livre ? Parce qu'en soi c'est passionnant. Par contre mettre tout ça sous le tapis en jouant sur un populisme de bas étage qui consiste à taper sur des figure médiatiques, c'est juste un no go en l'état.
Je préfère juste signaler que depuis Descartes il y a eu quand même une masse de connaissances acquises, absolument passionnantes, aussi bien en éthologie, anthropologie, psychologie ou sociologie, avec des allers-retours entre ces disciplines pour mieux comprendre ce que sont la cognition et le langage, animal et humain.
Non seulement ça fait belle lurette qu’on ne réduit plus la pensée et l’intelligence au langage, mais c’est une prénotion qui fait encore beaucoup de mal aux sourd-muets et aux autistes non-verbaux. C’est juste proprement infect en 2025 de continuer à propager ce genre d’ineptie.
De plus absolument rien, mais alors rien, ne permet d’affirmer qu’un ordinateur, et qui plus est les algorithmes « d'IA » actuels soient en mesure de simuler ou même reproduire ne serait-ce que de très loin la cognition humaine. Tout ce qu’on sait, à minima, c’est que le fonctionnement du cerveau n’a absolument rien à voir avec les algos mis en œuvre dans les « IA » génératives. Phi n’apporte aucun argument dessus et s’en tire en affichant des têtes de turcs (bon moyen de faire monter la sauce sur les réeaux sociaux) et en faisant un homme de paille : il prête une position dualiste à tous ces adversaires (ce qui est grotesque : c’est au contraire la vision la plus abruptement matérialiste qui permet d’affirmer qu’un ordinateur n’est pas un cerveau et donc de différentier à coup sûr une IA d’un être humain : suffit de voir comment que c’est construit à l’intérieur…).
[^] # Re: ???
Posté par Nicolas (site web personnel) . En réponse au lien Une hacktiviste supprime en direct des sites web suprémacistes blancs [trad. de l'allemand]. Évalué à 2 (+3/-1).
Non. Oui. Oui. Oui. Effectivement tu n'es pas juriste. Cela relève de la loi dans tout état de droit (sont interdits injure, diffamation, haine envers un groupe, sans compter le droit de la presse qui n'est pas celui du particulier). Et rien n'empêche Linuxfr d'établir ses propres règles (et je sais à quoi m'en tenir s'agissant de la modo ! Toujours égale à elle-même).
Au passage il n'y a pas la moindre foutue logique dans la pensée fasciste : des suprémacistes, c'est-à-dire des gens qui se croient supérieurement intelligents, forts, civilisés, seraient finalement de petits êtres faibles et sans défense. Appliquer aux gens l'idéologie qu'ils prônent eux-mêmes, en l'occurrence la loi du plus fort, la violence comme moyen politique, c'est la forme la plus aboutie de la tolérance. Un paradoxe bien souvent confronté par le sarcasme chez ceux qui combattent le fascisme. (En réalité, beaucoup de fascistes souffrent d'un trouble de la personnalité narcissique : ils pensent sincèrement qu'ils ont des droits supérieurs aux autres et ne savent pas ce qu'est la réciprocité. Trouble qui se complète bien avec les autoritaires qui inversement trouvent normal d'être assujetti/asservi au pouvoir. Aussi la conclusion précède le raisonnement. La projection. Etc.)
[^] # Re: Contre information
Posté par Nicolas (site web personnel) . En réponse au lien Plus de filles en filières scientifiques: "Non, les maths, ce n'est pas que pour les garçons" . Évalué à 0 (+2/-2).
Moi aussi j'ai tiqué, mais pas surpris. C'est bien sûr une manière de faire retomber la responsabilité sur les femmes, de ne surtout pas interroger les comportements misogynes, ou dire la réalité factuelle de la société. Au final ça dit en creux que c'est un peu de leur faute puisqu'elles l'ont intériorisé (et c'est du coup un grand classique de phénomène sexiste que de réattribuer la responsabilité).
C'est pas ici - sur Linuxfr - que tu auras une réponse sérieuse à ta question étant donné l'ambiance qui y règne et j'inclus les féministes en carton-pâtes qui versent plus dans la police des mœurs que dans la lutte effective des droits des femmes.
A fortiori celles qui restent n'ont pas d'autres choix que de ne pas faire trop de vagues. Et les mécanismes peuvent passer pour non sexistes : le système de notation par une communauté composée à 99% d'hommes et le 《 karma 》 s'est déjà chargé de faire le tri parmi des féministes un peu plus… sérieuses… disons.
Pour te donner un exemple de petit signaux misogyne, c'est le folklore local de la "Mme Michu"… Ce genre d'images c'est un exemple, c'est constant, et les ±jeunes filles comprennent très bien tous ces signaux qui ont pour unique but des les dissuader d'exercer tel ou tel métier. Si ce n'est pas suffisant elles subiront harcèlement voire agression sexuelles durant leur carrière. En passant par tout ce qui vol/récupération du travail de la collègue par un homme. Certaines finiront par abandonner, d'autres comprendront qu'ils faudra pas trop en demander.
Bref il y a des stratégies actives, conscientes ou pas on s'en tape (tout le monde est adulte et responsable de ses actes, "not all men" est un autre classique de la déresponsabilisation).
Pour ce qui est de l'école, par exemple, il y a des travaux BEAUCOUP plus sérieux que des sondages bidons sur le "ressenti" d'élèves. Ce que j'ai lu ne concernait les femmes qu'à la marge (c'était principalement sur les (petits-)enfants d'immigrés). Mais globalement ça va être l'attitude des parents (d'abord), des profs, des garçons dans les classes. Le degré d'attention porté par les adultes, les temps de parole accordés en classe (et en-dehors) : un exemple de phénomène parfaitement mesurable et objectivable. Collège-lycée c'est aussi une période où on va commencer à exiger des jeunes filles des tâches domestiques par exemple (donc moins de temps et de cerveau disponible pour les devoirs). Un autre exemple est le manque de modèle dans l'entourage PROCHE (les bios sur des femmes-génies genre Marie-Curie comme tarte à la crème, ça marche bien parce que contre-productif - ça ne ferait que souligner l'exceptionnalité du destin).
[^] # Re: Pourquoi casser ce qui fonctionne
Posté par Nicolas (site web personnel) . En réponse au lien Faut-il se débarrasser des systèmes COBOL ? Entre dédain et transmission des savoirs. Évalué à 5 (+5/-0).
Support unicode aussi.
Et pour les technologies du futur qu'on attend partout ailleurs (et le pourquoi que le mainframe n'est pas remplacé malgré qu'IBM et d'autres du secteur se gavent)
- analyse des requêtes SQL à la compilation (aucune injection possible, optimisation de la stratégie, séparation stricte de la donnée et du code).
- description portable, simple, très performante et orientée métier des données.
- rétro-compatibilité+++ (faut que ça tourne dans 50 ans) c'est pas du code vieux qu'on manipule, mais du code pérenne (avec effectivement ce problème du sachant et de la doc qui se perdent)
- type décimal natif avec calcul exact sans arrondis.
- aucun soucis d'adressage mémoire.
- t'as aussi des trucs autour de DB2 (et ptet même Cobol), qui peut exposer des services HTTP.
- la notion de partition et toute la gestion matérielle et des droits pour concevoir les environnements prod/hors-prod et gérer les, milliers, d'utilisateurs
- accès bien contrôlé des ressources fichiers/db
- Services Unix (c'est… spécial… on n'est pas sur du Linux), y'a un serveur SSH et même un client git.
- système batch ET temps réel
C'est aussi un savoir-faire : faire un tri puis une rupture ou une jointure sans taper dans une base de donnée SQL pour un oui ou un non, une bonne part des cobolistes savent faire. Produire un MPD qui tienne à peu prêt la route. Savoir écrire du code modulaire (pas le choix en Cobol!). Écrire et maintenir du code sur plusieurs décennies, c'est pas un problème de langage mais d'interface chaise-clavier. Ce sont des attendus de base de toute personne du métier et expérimentée mais qui ne sont pas si bien acquises (voire parfois les soit-disantes bonnes pratiques de l'informatique sont des anti-patterns). Raison pour laquelle tant et tant de projets de migration se cassent la gueule. Y'a aussi l'architecture qui est déjà bien assez compliquée et serait un vrai casse-tête à s'arracher les cheveux sur système distribué.
[^] # Re: Pourquoi casser ce qui fonctionne
Posté par Nicolas (site web personnel) . En réponse au lien Faut-il se débarrasser des systèmes COBOL ? Entre dédain et transmission des savoirs. Évalué à 8 (+8/-0).
Au passage c'est un peu se tirer une balle dans le pieds. Parser du JSON ou du XML (par exemple) ça coûte bien cher (en volume et en temps) par rapport à une bon vieux record format fixe. Dans le même genre IBM a bien fait de la merde avec leur usine à gaz qui est supposé remplacer Pacbase (j'attendais le moment où on me parlerait de l'IA pour gé(né)rer du Cobol, voilà qui est chose faite avec l'article du lien…)
Et la grande joie de mon métier c'est quand même de voir la tête en décomposition des informaticiens qui ne jurent que par la techno MODERNE lorsque je leur annonce la volumétrie qui passera dans les tuyaux.
[^] # Re: Pourquoi casser ce qui fonctionne
Posté par Nicolas (site web personnel) . En réponse au lien Faut-il se débarrasser des systèmes COBOL ? Entre dédain et transmission des savoirs. Évalué à 2 (+2/-0).
Mais, mais… comment trouver du boulot si on ne peut pas récrire nos programmes tous les 6 mois parce que (choix multiples possibles)
□ optimisation du code (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ sécurisation du code (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ nouvelle fonctionnalité du code qui nécessite une nouvelle architecture (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ nouveau langage à la mode qui permet d'avoir la même mais en mieux (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ code non maintenable (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ code non documenté (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ le concurrent le fait (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
□ tu peux pas cap' c'est nous les experts (parce qu'on a codé comme des pieds mais ça faut pas le dire au client)
Le problème du Cobol c'est qu'il faut redoubler d'efforts pour se trouver des excuses. Heureusement avec un peu de bouteille nous y arrivons aussi. D'autant plus que les pratiquants ne sont pas souvent informaticiens de métier mais ce sont retrouvés là-dedans par nécessité (ce qui soit dit en passant signifie que c'est pas trop dans les mœurs de vouloir recoder juste pour la beauté du geste).
Ce qui est paradoxal étant donné la nature du langage et l'écosystème dans lequel il est utilisé on est un peu obligé de savoir un minimum coder et architecturer (c'est-à-dire pas juste compter sur un gestionnaire de librairie et une base de code bullet-proof qu'on se contenter de télécharger/appeler, mais écrire de vrais algos avec nos petites mains - heureusement 99% du temps c'est assez trivial).
[^] # Re: texte problématique
Posté par Nicolas (site web personnel) . En réponse au lien Pourquoi l’intelligence artificielle générale n’existera (sans doute) jamais. Évalué à 3 (+3/-0).
Au passage, quelques chiffres pour donner des ordres de grandeur, la consommation énergétique (par rapport au métabolisme de base ?) du cerveau c’est ~20% pour un adulte, jusqu’à ~60% pour un enfant. Pas sûr que notre civilisation industrielle soit prête à ça…
Pour étayer l’importance sensori-motrice sur les fonctions cognitives : les biologistes utilisent très souvent un quotient d’encéphalisation, car la première corrélation qui vient avec la taille du cerveau, c’est la masse corporelle.
# texte problématique
Posté par Nicolas (site web personnel) . En réponse au lien Pourquoi l’intelligence artificielle générale n’existera (sans doute) jamais. Évalué à 6 (+7/-1). Dernière modification le 29 décembre 2025 à 13:35.
En vrac : définition de l'intelligence en terme d'adaptation assez inepte (d'idéologie néolibérale), là où la psychométrie travaille avec plusieurs processus : capacité de raisonnement logique, mémoire de court terme, long terme, raisonnements par analogie, raisonnement visuo-spatial, etc. là où l'éthologie va tester des capacités précises : résoudre un problème en plusieurs étapes (projection d'un objectif dans le futur et planification en vue de l'atteindre - fonctions exécutives chez l'humain), individuation (personnalité des animaux et reconnaissance de soi et des autres individus), communication (existence d'une proto-grammaire, complexité des relations sociales, niveau de coopération), capacité à manipuler des outils, à les façonner, jugement esthétique. Tout ceci existe dans le règne animal.
L'adaptation n'est pas l'innovation (tous les animaux sont adaptés…). L'art, les comportements symboliques ne sont pas des processus (directement) adaptatifs. D'ailleurs le texte se contredit car il parle ensuite de la différence syntaxe/sémantique sans rapport, et qui à mon sens n'est pas une critique pertinente.
Pareil, apprendre à nager c'est typiquement un processus d'apprentissage de la coordination neuro-musculaire : globalement il y a des neurones responsables de l'activation des fibres musculaires, qui doivent se coordonner pour activer ensemble les fibres musculaire, avec la bonne tension, et de manière coordonnées (pour les fibres d'un même muscle, par relâchement partiel de la tension du muscle antagoniste, puis pour des mouvements plus complexe par gestion complète et différentié des groupes musculaires), ceci en fonction des retours sensoriels (visuel, vestibulaire, proprioceptif, etc.). Une IA ne sait pas faire ça et cela réclame un système nerveux important (rien que la force pure est une capacité bien plus nerveuse que musculaire). C'est le moment de signaler une des grosses différences avec les IA : le cerveau est toujours en train d'apprendre. Le processus d'apprentissage est très complexe et passe par un système de "récompense" qui est un système motivationel aux sources multiples : sécurité/survie, sexualité/reproduction, pour les fondamentaux qui surdéterminent le reste : autonomie, empathie, reconnaissance sociale, liens sociaux, coopération et compétition, etc. C'est à travers les neuro-transmetteurs et les émotions, que se jouent les affects et donc la finalité de nos comportements. Beaucoup de choses qui se jouent en terme de relations sociales par ailleurs, et le fait social est aussi une réalité qui mobilise la majeure partie du cerveau humain.
Notre connaissance du monde, le modèle qui nous permet de le comprendre et d'agir dessus ne sont que des informations, de la donnée (transmise par des récepteurs aux neurones, puis des neurones aux muscles et/ou glandes hormonales). Ce n'est pas un bon angle d'attaque, car rien n'interdit d'en faire de même avec une IA. Par contre il est loin d'être acquis que les IAs aient la capacité à gérer des flux d'informations aussi complexes ET ensuite seulement en penser l'abstraction.
L'humanité en tant qu'espèce se caractérise par un très haut niveau de coopération et d'innovation. Deux fondamentaux qui n'entrent pas dans la définition rabougrie de l'intelligence, et encore moins dans les capacités de l'IA (pure imitation langagière).
De manière générale ceux qui réfléchissent à l'IA n'ont aucune formation sérieuse pour véritablement en dire des choses pertinentes : ils font de l'anthropomorphisme, d'autant plus facilement que l'accès au langage est associé chez l'être humain à l'intelligence (à tort).
Un des gros problème est de penser l'intelligence par le seul prisme du raisonnement conscient, de la pensée abstraite, de la logique. En ignorant tout ce qui rend pertinent de manière souvent inconsciente ces fonctions supérieures de la cognition, vulgairement la "pensée".
# Le libre c'était mieux avant
Posté par Nicolas (site web personnel) . En réponse au lien Pourquoi les logiciels libres ont besoin des "jardiniers" et non pas des influenceurs. Évalué à 1 (+1/-0).
Maintenant c'est une ligne sur le CV en montant des projets factices sur Github.
[^] # Re: Livre
Posté par Nicolas (site web personnel) . En réponse au lien Suis-je une machine qui pense ?. Évalué à -1 (+0/-1).
https://m.youtube.com/watch?v=o_swEgbBhMU&t=1303s&pp=2AGXCpACAQ%3D%3D
# Sur la stratégie Google
Posté par Nicolas (site web personnel) . En réponse au journal Un Linux dans la poche : où en est-on ?. Évalué à 2 (+2/-0).
J’ai vu une conférence d’une dév (j’ai plus la source désolé, du coup j’sais pas si c’est encore d’actualité) qui expliquait que l’objectif à terme était de réduire au maximum, voir supprimer, l’écart avec le noyau Linux mainstream.
C’est crédible. Ils ont su construire un éco-système suffisament fermé et verrouillé par ailleurs ; ça leur coûte cher de maintenir leur propre branche de dév, avec un risque de dérapage qui rendrait difficile le merge avec les développements mainstream. Le Libre c’est surtout un moyen de réduire les coûts de production dans le monde professionnel.
[^] # Re: Livre
Posté par Nicolas (site web personnel) . En réponse au lien Suis-je une machine qui pense ?. Évalué à 0 (+2/-2).
En faisant semblant de mettre de côté l'IA et de se placer du côté de la philo pure.
La position de Phi est celle d'un mécanisme (philosophie) réductionniste. Du moins dans les premières minutes, car après il se contredit parce qu'il parle d'émergence ; mais passons.
Ma position s'apparente à celle d'un réalisme (philosophie) matérialiste. Position jusqu'au-boutiste : notre esprit est une superposition d'états quantiques (très massivement amoindrie pas la décohérence quantique, bel exemple d'émergence appliquée à la physique pure), d'où ma petite digression pas si innocente sur le libre arbitre, quand bien même l'état des connaissances actuelles nous oblige à ne rien décider là-dessus. C'est une position qui au passage résout pas mal de problèmes autour de la question de l'observateur en physique quantique (c'est-à-dire sans faire appel à des considérations métaphysiques comme c'est regrettablement le cas trop souvent)…
Et je tiens surtout une position profondément épistémologique, donc je rejette en fait toute position philosophique à priori, et même je considère une immense part de la philo comme du discours oisif qui ne vaut pas mieux que la psychanalyse. Autrement dit je tiens cette position car c'est la plus plausible selon les théories scientifiques en vigueur (qui ne sont pas réductionnistes, j'ai donné l'exemple de la sélection naturelle mais cela vaut à des degrés divers pour toutes). Cette position épistémologique n'est pour autant pas scientiste : j'admets que la science n'a et ne peut avoir réponse à tout, qu'il y a d'autres sources de connaissances que la science, que la pensée spéculative (que je récupère de la démarche philosophique) a un rôle à jouer dans la recherche, etc.
Au passage et pour revenir aux sujet de la cognition humaine, les médias grand public font actuellement la part belle aux neurosciences dans une approche réductionniste. Mais ils vont ignorer, par exemple, la théorie de l'attachement, qui n'est pas réductionniste mais son exact opposé : c'est un système plus global — l'évolution des espèces — qui explique le fonctionnement d'une partie — la psychologie de l'individu. À fortiori le débat sur l'IA est truqué dès le départ dans un tel bain culturel.
[^] # Re: Livre
Posté par Nicolas (site web personnel) . En réponse au lien Suis-je une machine qui pense ?. Évalué à 1 (+2/-1).
C'est une position dualiste. Un vrai matérialiste se demande comment diable d'une machine aussi différente que le cerveau puisse émerger une pensée similaire.
Et ce sans confondre des algorithmes qui suivent un modèle, très grossier, de neurones avec le fonctionnement réel du cerveau. C'est du biomimétisme très classique en ingénierie et il faut toute l'arrogance de l'informaticien et la mégalomanie d'un Musk pour oser en prétendre plus.
Le problème est plus général, parce qu'à ma connaissance personne de vraiment sérieux au monde ne peut dire comment la "pensée" émerge du cerveau, ni même définir ce qu'est la pensée. Dire cela, ce n'est pas une position dualiste ; c'est une position d'ignorance et de modestie sur nos connaissances actuelles.
Inversement les notions de causalité et de déterminisme ont été pas mal remis en cause par la physique moderne. On ne peut exclure, à priori et en l'état des connaissances actuelles, un impact sur la pensée, et ce qu'on appellerait improprement le libre-arbitre. Comme le sujet est plus que délicat à traiter : j'insiste qu'il s'agit là encore d'une position d'ignorance épistémologique.
Et on pourrait encore développer, dans la nature l'apparition de l'intelligence a été progressive avec une grande continuité des processus cognitifs au cours de l'évolution et entre les espèces. Avec un phénomène d'évolution parallèle dans le cas des oiseaux. En informatique par contre on aurait une rupture inexplicable et on accèderait directement à la cognition humaine (et qui plus est ses fonctions supérieures).
Mr Phi adresse-t-il tous ces problèmes dans son livre ? Parce qu'en soi c'est passionnant. Par contre mettre tout ça sous le tapis en jouant sur un populisme de bas étage qui consiste à taper sur des figure médiatiques, c'est juste un no go en l'état.
[^] # Re: Livre
Posté par Nicolas (site web personnel) . En réponse au lien Suis-je une machine qui pense ?. Évalué à 2 (+4/-2).
Je préfère juste signaler que depuis Descartes il y a eu quand même une masse de connaissances acquises, absolument passionnantes, aussi bien en éthologie, anthropologie, psychologie ou sociologie, avec des allers-retours entre ces disciplines pour mieux comprendre ce que sont la cognition et le langage, animal et humain.
Non seulement ça fait belle lurette qu’on ne réduit plus la pensée et l’intelligence au langage, mais c’est une prénotion qui fait encore beaucoup de mal aux sourd-muets et aux autistes non-verbaux. C’est juste proprement infect en 2025 de continuer à propager ce genre d’ineptie.
De plus absolument rien, mais alors rien, ne permet d’affirmer qu’un ordinateur, et qui plus est les algorithmes « d'IA » actuels soient en mesure de simuler ou même reproduire ne serait-ce que de très loin la cognition humaine. Tout ce qu’on sait, à minima, c’est que le fonctionnement du cerveau n’a absolument rien à voir avec les algos mis en œuvre dans les « IA » génératives. Phi n’apporte aucun argument dessus et s’en tire en affichant des têtes de turcs (bon moyen de faire monter la sauce sur les réeaux sociaux) et en faisant un homme de paille : il prête une position dualiste à tous ces adversaires (ce qui est grotesque : c’est au contraire la vision la plus abruptement matérialiste qui permet d’affirmer qu’un ordinateur n’est pas un cerveau et donc de différentier à coup sûr une IA d’un être humain : suffit de voir comment que c’est construit à l’intérieur…).
[^] # Re: Livre
Posté par Nicolas (site web personnel) . En réponse au lien Suis-je une machine qui pense ?. Évalué à -1 (+0/-1).
C'est dans la même veine que la vidéo ?