Non, l'avocat du diable dira "dans l'avenir l'IA consommera une partie hyper importante de l'électricité parce qu'on consommera carrément moins d'énergie grace à l'IA qui aura résolu tous les problèmes dont le bonheur humain et optimisera activement la totalité des activité énergétivores dont elle même ! Alors vous les réfractaires, vous êtes des plaies à éliminer vous voulez le malheur de l'humanité, bande de bougies !"
On ne hiérarchise pas les enjeux de la même manière, c'est tout. En quoi est-ce donc important tant que ça que l'IA tourne sous linux, argumente un peu. Si l'enjeu c'est un contrôle éthique de l'IA, avoir une IA libre et auditable et transparente sur ses corpus et tout son fonctionnement est clairement plus important que l'OS.
Si l'enjeu est l'avenir des graphistes libre ou pas ça joue peu. Si l'enjeu est la conso énergétique on peut tout à fait surutiliser une IA libre et construire trop de datacenter sous linux.
Je vais te laisser à ta condescendance, merci. En tout cas je vois pas comment tu peux déduire que je fais appel à la neutralité de la technique en mettant en avant des enjeux politique, la neutralité technique ce serait "c'est de l'IA, c'est Linux, on aime la technique neutre marrions les deux <3<3<3 et ne réfléchissons pas" comme tu le fais. Or je parle d'enjeux politiques pour dire "ne marrions pas les deux sans réfléchir".
Tout à fait, la passion du logiciel libre c'est de produire des vidéos de propagandes de la meilleure qualité possible pour endoctriner les foules avec un super roman !
Non. Le mouvement du logiciel libre n'est pas exempt d'orientations politiques (diverses) qui ne sont pas forcément spécialement compatibles avec ce à quoi on peut appliquer ou les diverses espérances qu'on peut projeter sur l'IA.
De ce point de vue, si techniquement oui on peut faire de l'IA avec Linux (mais ça ou autre chose, on s'en fiche, les vrais impacts sont sociaux, socio-environnementaux avec l'utilisation d'énergie qui est manifestement vouée à devenir très impactantes à grande échelle avec tout ce que ça implique, et en plus les plus gros modèles ne sont certainement pas libres.
Donc que ça tourne sous Linux … ben on s'en fiche.
Il y a des choses un peu plus sophistiquées que juste générer une suite plausible au prompt. Le "chain of thought" permet d'élaborer une réponse pas à pas en générant du contenu intermédiaire et en résumant, et en ajoutant des étapes méthodiques pour générer du contenu pertinent au final.
Maintenant les agents font aussi des recherches documentaires en allant chercher des documents ailleurs sur le web, en extrayant du contenu pertinent pour générer la réponse, et en citant les doc utilisés. C'est pas parfait mais on sort largement de la simple auto complétion, ça permet de limiter le contenu largement à côté de la plaque.
In analyzing both public and proprietary data about data centers as a whole, as well as the specific needs of AI, the researchers came to a clear conclusion. Data centers in the US used somewhere around 200 terawatt-hours of electricity in 2024, roughly what it takes to power Thailand for a year. AI-specific servers in these data centers are estimated to have used between 53 and 76 terawatt-hours of electricity. On the high end, this is enough to power more than 7.2 million US homes for a year.
Estimation pour les USA d'une consommation équivalente à celle de 7,2 millions de foyers américains.
Apparemment ils ont quand même des résultats étonnants dans les recherches sur les manipulation des IAs.
L'idée c'est que le "pré-prompt" sert un peu de "lois de la robotiques" du robot, et que parfois certaines règles peuvent rentrer en conflit. Il est possible d'étudier dans certains cas si, par exemple, dans le cadre des "chain of thoughts" ou toutes les étapes de la génération ne sont pas montrées, il choisit "délibérément" de cacher certaines infos ou de "mentir" pour respecter son pre-prompt, voir par exemple la vidéo de Mr. Phi sur le sujet :
C'est une vision particulièrement large du conflit d'intérêt. Qui dépasse même la notion de lien d'intérêt, utilisé par exemple en médecine, https://notre-recherche-clinique.fr/definition/lien-dinteret/ alors que le conflit d'intérêt est plus restreint dans sa définition.
Simplement militer n'est pas vraiment constitutif de conflit d'intérêt. Être payé par un lobby quelconque peut être une toute autre histoire. Tu ne connais pas vraiment les idées politiques des chercheurs qui font les études, pourtant il en ont tous, la neutralité absolue est un peu un doux rêve. Le reste est plutôt du ressort du débat scientifique : un seul article ou un seul chercheur ne suffit pas à évaluer l'intérêt des privatisations, et tu peux être sûr que les faiblesses seront pointées et discutées par la communauté, et d'autres études critiques seront publiées …
Après si tu veux de la recherche militante flagrante tu peux prendre les chiffres directement auprès de L'IFRAP. Ils s'embêtent probablement pas à publier chez les économistes et en plus ils ont leur rond de serviette en plateau télé.
Il y a un certain nombre de chercheurs ouvertement engagés au RN, liste non exhaustive connue de Wikidata par exemple : https://w.wiki/EKfJ
Peut être que ça a nuit à leur carrière, c'est pas impossible (quoi que ça dépend des facs) mais je sais pas si leur candidature a été censurée pour raison d'état …
Le relativisme, comme il y a des conflits dont on parle moins mediatiquement (je te laisse sur les estimations du nombre de morts sorties de nulle part) on devrait aussi ne pas parler ou faire ce qu'on peut dur d'autres conflits.
C'est une honte aussi que la communauté internationale n'aie pas plus de pouvoir pour éviter et peser sur les autres conflits. Et c'est parce qu'on arrive pas à créer des institutions internationales qui aient plus de poids politique que l'individualisme des nations et les rapports de force sont si preignants. C'est l'inverse du nationalisme qu'il faut pousser. Pas s'en servir comme excuse, s'en servir comme moteur pour faire avancer les choses. On voit bien avec la crise climatique que c'est essentiel au bien de tous.
"Je préfère ma femme à mon cousin, mon voisin à …, et finalement les étrangers loins ils peuvent crever c'est pas mon problème"
C'est bien du Jean-Marie Le Pen dans le texte, aucun doute possible. Mettre un problème de pays riche et développé (la désindustrialisation) sur le même plan que des guerres ou les civils meurent en masse, c'est tout simplement stupide.
Par ailleurs c'est tout aussi stupide de penser que parler de ce qui se passe à Gaza implique de ne pas réfléchir à ce qui se passe au niveau industriel ou du système économique et écologique. Par exemple il se pourrait que les problématiques environnementales ou écologiques peuvent parfaitement être reliées à des conflits armés …
Et puis si tu pousses le raisonnement, irais-tu jusqu'à justifier "si ça profite à notre économie, soutenons des conflits lointains" ?
La preuve que la charité à l'américaine fonctionne, l'état n'est pas capable d'assurer ces missions, il faut les laisser au privé philanthrope ça n'a rien à voir.
Quand c'est pas le public qui s'en occupe, c'est le privé qui reprend l'affaire, le monde est bien fait et la balance se fait dans la force. Ah, non ?
Fil-C is currently 1.5x slower than normal C in good cases, and about 4x slower in the worst cases. I'm actively working on performance optimizations for Fil-C, so that 4x number will go down.
En une ligne : Compilations avec des vérifications à l'exécution. Pour ça des informations sont rajoutées aux pointeurs, et un garbage collector. Ça compile à code source égal y compris sur de gros projets genre MariaDb. Le tout au prix évidemment de perte de performance (4 fois plus lent à l'exec dans le pire des cas).
C'est une curieuse manière de voir les choses. Si tout ce gras est vraiment inutile, ça paraît un pis aller de le remplir quand même en cramant de l'énergie. Si il est utile mais rempli de creux il devra être rendu substanciel à un moment et pourra soit te nuire si il est baclé soit te revenir a la figure a boulot à faire plus tard.
Car si on veut mettre de côté des œuvres, faudrait encore pouvoir parler sur un plan objectif de qualité non?
Si les gouts et les couleurs ça ne se discute pas, je propose que dans l'algorithme on rentre aussi la biographie, une prise de sang et un scan IRM du cerveau du lecteur pour avoir un score objectif de qualité d'une œuvre personnalisée par lecteur !
je préfère être un loser de codeur qu'être un écrivain que j'assume pas être.
C'est improbable mais imagine tes textes un jour étudiés en cours de littérature à la fac (si les facs de littératures existent encore évidemment, par les temps qui courent c'est pas gagné) et qu'un être venu du futur venait te l'apprendre, tu réagirais comment ?
Pour ce qui est de l'IA en tant que "résolution de problèmes bien formulés", genre avec une spécification mathématique du problème, avec un algorithme qui joue aux échecs on reste dans un une classe de problème assez limitée, en terme de richesse d'expression algorithmique, en tout cas. Et on a probablement toujours eu tendance en informatique théorique à faire la dichotomie "algorithme bête" genre brute-force ou il n'y a pas besoin de se casser la tête, et algorithme "intelligent" qui nécessite de mettre des techniques plus complexes en place pour résoudre le problème, et en tout cas là où les techniques bêtes étaient vouées à l'échec.
Là où ça devient intéressant c'est que les algorithmes "polyvalents" vont être ceux qui vont mettre en œuvre des techniques de représentation du problème pour s'adapter à ses nécessités propres (l'apprentissage de clauses dans SAT par exemple) qui leur fournissent un espace de travail évolutif en fonction du problème. De ce point de vue un solveur SAT ou SMT ont une richesse de représentation d'une très large classe de problèmes mathématiques. Les LLM ont leur espace neuronal qui peut être structuré de manière complexe, et aussi leur contexte de générations antérieur. Pour des résultats pas toujours top sur des chaînes de raisonnement complexes, a l'heure actuelle. Les LLMs ne sont pas nécessairement très intelligents dans le sens "résolution d'une vaste classe de problèmes mathématiquement définis complexes" qui est un des sens d'IA qui preexistait, donc. (Contrairement aux solveurs say, leur "recherche arborescente" qui permet d'être exhaustif est pauvre ou inexistante).
Je ne vois pas vraiment comment tu écartes à partir de tout ça l'idée qu'une machine puisse … avoir des perceptions. Certes, à l'heure actuelle, pas de la même manière que nous, mais elle reçoit des informations sur des fragments d'univers (le plus proche de nous serait un robot sensible avec des capteurs capable de réagir en temps réel).
Recevoir une image en entrée n'est pas si différent que de recevoir de la lumière sur une rétine, et la percevoir ou la traiter n'est pas forcément si différent de la décomposer avec nos neurones.
Si l'on voit partout de l'espace et du temps dans l'expérience, c'est parce qu'on les y met nous-mêmes (ils sont les formes a priori de notre sensibilité).
Et donc pourquoi donc une machine ne pourrait pas, pour en faire sens "mettre de l'espace et du temps", pour faire ce qu'on lui demande de faire ? Si c'est indispensable à notre sensibilité et à nos perception du monde, si on demande à une machine de retrouver des catégories par apprentissage qui correspondent à nos manières de voir les choses, l'espace et le temps ne peuvent pas en être exclu. Et si c'est une émergence due à nos existence, il n'y a pas forcément de raison de penser que ça ne puisse pas émerger dans une machine …
En étant un peu taquin on peut discuter du fait que nos perceptions sont aussi … des reflets de la réalité. Est-ce que l'image qu'on perçoit d'une (vraie) pipe est plus une pipe que cette image de pipe ?
[^] # Re: ok
Posté par thoasm . En réponse au lien Sam Altman veut qu’une « fraction significative » de l’énergie produite sur Terre soit dédiée à l’IA. Évalué à 4.
Non, l'avocat du diable dira "dans l'avenir l'IA consommera une partie hyper importante de l'électricité parce qu'on consommera carrément moins d'énergie grace à l'IA qui aura résolu tous les problèmes dont le bonheur humain et optimisera activement la totalité des activité énergétivores dont elle même ! Alors vous les réfractaires, vous êtes des plaies à éliminer vous voulez le malheur de l'humanité, bande de bougies !"
[^] # Re: un peu de conjugaison du verbe haïr
Posté par thoasm . En réponse au lien Sam Altman veut qu’une « fraction significative » de l’énergie produite sur Terre soit dédiée à l’IA. Évalué à 7.
On ne hiérarchise pas les enjeux de la même manière, c'est tout. En quoi est-ce donc important tant que ça que l'IA tourne sous linux, argumente un peu. Si l'enjeu c'est un contrôle éthique de l'IA, avoir une IA libre et auditable et transparente sur ses corpus et tout son fonctionnement est clairement plus important que l'OS.
Si l'enjeu est l'avenir des graphistes libre ou pas ça joue peu. Si l'enjeu est la conso énergétique on peut tout à fait surutiliser une IA libre et construire trop de datacenter sous linux.
[^] # Re: un peu de conjugaison du verbe haïr
Posté par thoasm . En réponse au lien Sam Altman veut qu’une « fraction significative » de l’énergie produite sur Terre soit dédiée à l’IA. Évalué à 8.
Je vais te laisser à ta condescendance, merci. En tout cas je vois pas comment tu peux déduire que je fais appel à la neutralité de la technique en mettant en avant des enjeux politique, la neutralité technique ce serait "c'est de l'IA, c'est Linux, on aime la technique neutre marrions les deux <3<3<3 et ne réfléchissons pas" comme tu le fais. Or je parle d'enjeux politiques pour dire "ne marrions pas les deux sans réfléchir".
[^] # Re: un peu de conjugaison du verbe haïr
Posté par thoasm . En réponse au lien Sam Altman veut qu’une « fraction significative » de l’énergie produite sur Terre soit dédiée à l’IA. Évalué à 3.
C'est confus, j'ai pas tout compris, mais j'ai clairement l'impression de m'être fait sermonner, ironiquement.
[^] # Re: un peu de conjugaison du verbe haïr
Posté par thoasm . En réponse au lien Sam Altman veut qu’une « fraction significative » de l’énergie produite sur Terre soit dédiée à l’IA. Évalué à 5.
Tout à fait, la passion du logiciel libre c'est de produire des vidéos de propagandes de la meilleure qualité possible pour endoctriner les foules avec un super roman !
Non. Le mouvement du logiciel libre n'est pas exempt d'orientations politiques (diverses) qui ne sont pas forcément spécialement compatibles avec ce à quoi on peut appliquer ou les diverses espérances qu'on peut projeter sur l'IA.
De ce point de vue, si techniquement oui on peut faire de l'IA avec Linux (mais ça ou autre chose, on s'en fiche, les vrais impacts sont sociaux, socio-environnementaux avec l'utilisation d'énergie qui est manifestement vouée à devenir très impactantes à grande échelle avec tout ce que ça implique, et en plus les plus gros modèles ne sont certainement pas libres.
Donc que ça tourne sous Linux … ben on s'en fiche.
[^] # Re: bof
Posté par thoasm . En réponse au journal [HS] La comédie Grok versus Musk/MAGA. Évalué à 6.
Il y a des choses un peu plus sophistiquées que juste générer une suite plausible au prompt. Le "chain of thought" permet d'élaborer une réponse pas à pas en générant du contenu intermédiaire et en résumant, et en ajoutant des étapes méthodiques pour générer du contenu pertinent au final.
Maintenant les agents font aussi des recherches documentaires en allant chercher des documents ailleurs sur le web, en extrayant du contenu pertinent pour générer la réponse, et en citant les doc utilisés. C'est pas parfait mais on sort largement de la simple auto complétion, ça permet de limiter le contenu largement à côté de la plaque.
# Ça consomme déjà pas mal
Posté par thoasm . En réponse au lien Sam Altman veut qu’une « fraction significative » de l’énergie produite sur Terre soit dédiée à l’IA. Évalué à 10.
L'occasion de mettre à nouveau en avant ce lien : https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/
Estimation pour les USA d'une consommation équivalente à celle de 7,2 millions de foyers américains.
[^] # Re: Bof
Posté par thoasm . En réponse au journal [HS] La comédie Grok versus Musk/MAGA. Évalué à 5.
Apparemment ils ont quand même des résultats étonnants dans les recherches sur les manipulation des IAs.
L'idée c'est que le "pré-prompt" sert un peu de "lois de la robotiques" du robot, et que parfois certaines règles peuvent rentrer en conflit. Il est possible d'étudier dans certains cas si, par exemple, dans le cadre des "chain of thoughts" ou toutes les étapes de la génération ne sont pas montrées, il choisit "délibérément" de cacher certaines infos ou de "mentir" pour respecter son pre-prompt, voir par exemple la vidéo de Mr. Phi sur le sujet :
https://www.youtube.com/watch?v=cw9wcNKDOtQ
[^] # Re: LaBRI
Posté par thoasm . En réponse au lien Une chercheuse en intelligence artificielle interdite de laboratoire par le ministère. Évalué à 10.
C'est une vision particulièrement large du conflit d'intérêt. Qui dépasse même la notion de lien d'intérêt, utilisé par exemple en médecine, https://notre-recherche-clinique.fr/definition/lien-dinteret/ alors que le conflit d'intérêt est plus restreint dans sa définition.
Simplement militer n'est pas vraiment constitutif de conflit d'intérêt. Être payé par un lobby quelconque peut être une toute autre histoire. Tu ne connais pas vraiment les idées politiques des chercheurs qui font les études, pourtant il en ont tous, la neutralité absolue est un peu un doux rêve. Le reste est plutôt du ressort du débat scientifique : un seul article ou un seul chercheur ne suffit pas à évaluer l'intérêt des privatisations, et tu peux être sûr que les faiblesses seront pointées et discutées par la communauté, et d'autres études critiques seront publiées …
Après si tu veux de la recherche militante flagrante tu peux prendre les chiffres directement auprès de L'IFRAP. Ils s'embêtent probablement pas à publier chez les économistes et en plus ils ont leur rond de serviette en plateau télé.
[^] # Re: LaBRI
Posté par thoasm . En réponse au lien Une chercheuse en intelligence artificielle interdite de laboratoire par le ministère. Évalué à 4.
Il y a un certain nombre de chercheurs ouvertement engagés au RN, liste non exhaustive connue de Wikidata par exemple : https://w.wiki/EKfJ
Peut être que ça a nuit à leur carrière, c'est pas impossible (quoi que ça dépend des facs) mais je sais pas si leur candidature a été censurée pour raison d'état …
[^] # Re: La différence entre démocratie et totalitarisme
Posté par thoasm . En réponse au lien Microsoft bloque les emails de ses employés contenant les mots « Palestine », « Gaza », « génocide ». Évalué à 6.
Le relativisme, comme il y a des conflits dont on parle moins mediatiquement (je te laisse sur les estimations du nombre de morts sorties de nulle part) on devrait aussi ne pas parler ou faire ce qu'on peut dur d'autres conflits.
C'est une honte aussi que la communauté internationale n'aie pas plus de pouvoir pour éviter et peser sur les autres conflits. Et c'est parce qu'on arrive pas à créer des institutions internationales qui aient plus de poids politique que l'individualisme des nations et les rapports de force sont si preignants. C'est l'inverse du nationalisme qu'il faut pousser. Pas s'en servir comme excuse, s'en servir comme moteur pour faire avancer les choses. On voit bien avec la crise climatique que c'est essentiel au bien de tous.
[^] # Re: La différence entre démocratie et totalitarisme
Posté par thoasm . En réponse au lien Microsoft bloque les emails de ses employés contenant les mots « Palestine », « Gaza », « génocide ». Évalué à 10.
"Je préfère ma femme à mon cousin, mon voisin à …, et finalement les étrangers loins ils peuvent crever c'est pas mon problème"
C'est bien du Jean-Marie Le Pen dans le texte, aucun doute possible. Mettre un problème de pays riche et développé (la désindustrialisation) sur le même plan que des guerres ou les civils meurent en masse, c'est tout simplement stupide.
Par ailleurs c'est tout aussi stupide de penser que parler de ce qui se passe à Gaza implique de ne pas réfléchir à ce qui se passe au niveau industriel ou du système économique et écologique. Par exemple il se pourrait que les problématiques environnementales ou écologiques peuvent parfaitement être reliées à des conflits armés …
Et puis si tu pousses le raisonnement, irais-tu jusqu'à justifier "si ça profite à notre économie, soutenons des conflits lointains" ?
[^] # Re: Trop woke ?
Posté par thoasm . En réponse au lien Mark Zuckerberg ferme son école pour enfants défavorisés. Évalué à 10.
La preuve que la charité à l'américaine fonctionne, l'état n'est pas capable d'assurer ces missions, il faut les laisser au privé philanthrope ça n'a rien à voir.
Quand c'est pas le public qui s'en occupe, c'est le privé qui reprend l'affaire, le monde est bien fait et la balance se fait dans la force. Ah, non ?
[^] # Re: et le Conseil d’État dans tout ça ?
Posté par thoasm . En réponse au lien Microsoft ferme le compte e-mail du procureur de la cour pénale Internationale . Évalué à 6.
Exemple au hasard, en revendant les données a un assureur ?
[^] # Re:Et aussi
Posté par thoasm . En réponse au lien Manipulation par le prompt des IAs. Évalué à 10.
Si quelqu'un avait encore un doute sur les dénégations de Musk, aussi dans l'actualité X : Une chanson de Kayne West intitulée "Heil Hitler" et interdite ailleurs reçoit des millions de vues sur X
[^] # Re: précisions
Posté par thoasm . En réponse au lien Manipulation par le prompt des IAs. Évalué à 8.
C'est largement couvert pourtant :
* le monde https://www.lemonde.fr/pixels/article/2025/05/15/grok-l-ia-d-elon-musk-obsedee-par-un-pretendu-genocide-blanc_6606208_4408996.html
* BFMTV : https://www.bfmtv.com/tech/intelligence-artificielle/x-ai-attribue-l-obsession-de-grok-pour-le-genocide-blanc-a-une-modification-non-autorisee_AV-202505160474.html (Musk attribue le problème a une modif non autorisée)
* The guardian en anglais : https://www.theguardian.com/technology/2025/may/14/elon-musk-grok-white-genocide
* CNN : https://edition.cnn.com/2025/05/16/business/a-rogue-employee-was-behind-groks-unprompted-white-genocide-mentions dans lequel Elon Musk semble faire porter le blâme à un de ses employés hors de contrôle
* …
[^] # Re: ch'tite dépêche ?
Posté par thoasm . En réponse au lien Fil-C : un C sûr de sa mémoire. Évalué à 8.
C'est dans le Manifesto Manifesto :
Ils pensent optimiser dans les futures versions
[^] # Re: ch'tite dépêche ?
Posté par thoasm . En réponse au lien Fil-C : un C sûr de sa mémoire. Évalué à 8.
En une ligne : Compilations avec des vérifications à l'exécution. Pour ça des informations sont rajoutées aux pointeurs, et un garbage collector. Ça compile à code source égal y compris sur de gros projets genre MariaDb. Le tout au prix évidemment de perte de performance (4 fois plus lent à l'exec dans le pire des cas).
[^] # Re: Vers un internet plein de vide ?
Posté par thoasm . En réponse au lien Vers un internet plein de vide ?. Évalué à 10.
C'est une curieuse manière de voir les choses. Si tout ce gras est vraiment inutile, ça paraît un pis aller de le remplir quand même en cramant de l'énergie. Si il est utile mais rempli de creux il devra être rendu substanciel à un moment et pourra soit te nuire si il est baclé soit te revenir a la figure a boulot à faire plus tard.
[^] # Re: Protéger les auteurs
Posté par thoasm . En réponse au lien Non aux faux livres IA : l’appel des écrivains et éditeurs européens. Évalué à 6.
Si les gouts et les couleurs ça ne se discute pas, je propose que dans l'algorithme on rentre aussi la biographie, une prise de sang et un scan IRM du cerveau du lecteur pour avoir un score objectif de qualité d'une œuvre personnalisée par lecteur !
# Plus de détails dans un article en anglais
Posté par thoasm . En réponse au lien L’administration Trump semble à présent s’en prendre à Wikipédia. Évalué à 6.
Exclusive: Trump’s D.C. Prosecutor Threatens Wikipedia’s Tax-Exempt Status, publié sur le média The Free Press
[^] # Re: épilogue (un)
Posté par thoasm . En réponse au journal loser du libre. Évalué à 3.
C'est improbable mais imagine tes textes un jour étudiés en cours de littérature à la fac (si les facs de littératures existent encore évidemment, par les temps qui courent c'est pas gagné) et qu'un être venu du futur venait te l'apprendre, tu réagirais comment ?
[^] # Re: Excellent, merci.
Posté par thoasm . En réponse au lien France culture: Intelligence artificielle et imitation. Évalué à 2.
Pour ce qui est de l'IA en tant que "résolution de problèmes bien formulés", genre avec une spécification mathématique du problème, avec un algorithme qui joue aux échecs on reste dans un une classe de problème assez limitée, en terme de richesse d'expression algorithmique, en tout cas. Et on a probablement toujours eu tendance en informatique théorique à faire la dichotomie "algorithme bête" genre brute-force ou il n'y a pas besoin de se casser la tête, et algorithme "intelligent" qui nécessite de mettre des techniques plus complexes en place pour résoudre le problème, et en tout cas là où les techniques bêtes étaient vouées à l'échec.
Là où ça devient intéressant c'est que les algorithmes "polyvalents" vont être ceux qui vont mettre en œuvre des techniques de représentation du problème pour s'adapter à ses nécessités propres (l'apprentissage de clauses dans SAT par exemple) qui leur fournissent un espace de travail évolutif en fonction du problème. De ce point de vue un solveur SAT ou SMT ont une richesse de représentation d'une très large classe de problèmes mathématiques. Les LLM ont leur espace neuronal qui peut être structuré de manière complexe, et aussi leur contexte de générations antérieur. Pour des résultats pas toujours top sur des chaînes de raisonnement complexes, a l'heure actuelle. Les LLMs ne sont pas nécessairement très intelligents dans le sens "résolution d'une vaste classe de problèmes mathématiquement définis complexes" qui est un des sens d'IA qui preexistait, donc. (Contrairement aux solveurs say, leur "recherche arborescente" qui permet d'être exhaustif est pauvre ou inexistante).
Et là on voit
[^] # Re: ia = intelligence
Posté par thoasm . En réponse au journal IA : Imitation Artificielle. Évalué à 2.
Je ne vois pas vraiment comment tu écartes à partir de tout ça l'idée qu'une machine puisse … avoir des perceptions. Certes, à l'heure actuelle, pas de la même manière que nous, mais elle reçoit des informations sur des fragments d'univers (le plus proche de nous serait un robot sensible avec des capteurs capable de réagir en temps réel).
Recevoir une image en entrée n'est pas si différent que de recevoir de la lumière sur une rétine, et la percevoir ou la traiter n'est pas forcément si différent de la décomposer avec nos neurones.
Et donc pourquoi donc une machine ne pourrait pas, pour en faire sens "mettre de l'espace et du temps", pour faire ce qu'on lui demande de faire ? Si c'est indispensable à notre sensibilité et à nos perception du monde, si on demande à une machine de retrouver des catégories par apprentissage qui correspondent à nos manières de voir les choses, l'espace et le temps ne peuvent pas en être exclu. Et si c'est une émergence due à nos existence, il n'y a pas forcément de raison de penser que ça ne puisse pas émerger dans une machine …
[^] # Re: ia = intelligence
Posté par thoasm . En réponse au journal IA : Imitation Artificielle. Évalué à 2.
En étant un peu taquin on peut discuter du fait que nos perceptions sont aussi … des reflets de la réalité. Est-ce que l'image qu'on perçoit d'une (vraie) pipe est plus une pipe que cette image de pipe ?