Bien sûr mais les industries en question seront bien les premières à potentiellement faire du double discours. Par exemple Unilever est un très gros producteur de plastique qui incite évidemment à acheter ses produits en masse par la pub et d'un autre côté est tenté de gérer les dégâts … par ce type d'actions : https://www.delhaize.be/fr/better/planet/lionsfootprint/plastic/initiative-15-bis ou il s'agit d'aider un peu des bénévoles à nettoyer les rivières, ce qui coute probablement bien moins cher que de réfléchir aux circuits du plastique ou de réfléchir au recyclage ou de faire du greenwashing (si c'est avéré https://www.rse-magazine.com/Unilever-greenwashing-suspecte_a5610.html )
On ne peut évidemment pas écarter la responsabilité des individus, c'est une évidence, d'un autre côté les injonctions contradictoires … ben ça se règle souvent par des règlementations qui forcent tous les acteurs à adopter un comportement responsable dans un système qui ne rend pas ça très difficile. Et évidemment faire un peu de lobbying contre ces règlements potentiellement emmerdants c'est aussi peu de choses pour des gros acteurs.
Je ne suis pas sûr que l'écran soit tactile. J'ai eu un de leurs appareils entre les mains, ptete bien celui là, offert en cadeau avec un abonnement … Ben c'etait un Android, donc une interface tactile (sic) piloté par … Le touchpad.
Le texte "les individus et les consommateurs sont responsables du changement climatique" est assez clair quand même quand y lit bien le grand absent de la phrase … L'industrie évidemment.
C'est un persona certes mais le T-shirt avec un logo évoqué pour moi ces opérations de com organisées directement par des assos financées par des lobbys où les gens sont invités bénévolement a nettoyer un endroit, avec au passage le TShirt floqué "make our planet …" et en convoquant les journalistes. Il faut dans ce cas plutôt voir l'individuel en question comme une lobbyiste qui vient relayer les messages de l'industrie façon animatrice club Med.
En août 2024, par exemple, s'adressant à des étudiants, il les a invités à ne pas avoir peur de voler les données dont ils ont besoin pour entraîner leurs modèles d'IA. Il a dit aux étudiants qu'une fois qu'ils auront réussi et gagné beaucoup d'argent, ils pourront alors engager une armée d'avocats pour réparer les dégâts.
Les ambitions environnementales ont toujours passé derrières les considérations financière et l’appât du gain. Là on a une techno fantasmatique à la base avec des promesses financières fantasmagorique bien qu'évidemment non démontrées, la machine à techno-fantasme à l'intersection de la SF et de faire sauter la banque du casino tourne à plein. Il prend même pas la peine de faire semblant de greenwasher. Au moins c'est sincère …
On est en plein dans la marche du progrès supposé écraser tout sur son passage. Les protestations des créateurs et auteurs des textes ? C'est peu de chose, vous aurez de l'argent pour payer les avocats, foncez ! Qu'importe les conséquences sur autrui ou sur la planète en fait, c'est l'égoisme qui l'emporte. C'est une bien faible analyse bénéfice risque, carrément un statement à la Elon Musk : les riches s'en sortiront toujours, ils iront se trouver un coin sur Mars pour vivre entre eux au besoin. Et pour le reste on peut cracher et manipuler la plèbe, seul ce résultat compte.
L'héritage c'est un peu passé de mode dans les langages plus récents. On est passé à d'autres choses pour le sous-typage, la composition par exemple, les traits, les "enumérations" de types algébriques … exemple en Rust https://www.thecodedmessage.com/posts/oop-3-inheritance/
Ben dés que tu parles d'école de commerce ou dans le secteur marchand c'est un synonyme de "numérique" effectivement, avec un peu plus la coloration marchande. Ça pique un peu les oreilles mais c'est malheureusement bien installé et ce depuis maintenant pas mal de temps.
Pourtant à l'oral c'est parfaitement identique en prononciation. Si tu veux mettre de la conditionnalité sans ambiguïté, et à moins de vouloir tromper, il y a plus efficace comme formulation que de tout faire reposer sur la présence ou l'absence d'une lettre muette.
Ça n'a pas trop de sens, on faisait pas des programmes d'échec pour les inscrire au championnat du monde. On le faisait/fait parce que c'est un cas ou c'est encore relativement maîtrisé avec des règles claires, sur un "petit monde", avec un résultat clair (victoire/défaite). C'était un cas idéal pour l'informatique, avec les humains comme étalon.
Aujourd'hui le but s'est déplacé ailleurs, et ces programmes servent surtout à entraîner les humains et/ou trouver de nouvelles façons de jouer. On peut tenter d'optimiser à mort leurs performance et minimiser leurs consommation énergétique. C'est un vrai enjeu pour les LLMs d'ailleurs, mais d'une toute autre ampleur puisqu'on veut rouvrir des centrales nucléaires rien que pour leurs beaux yeux (ou beaux dollars).
Rien d'aussi abstrait, je pense, en guise d'approche. Le milieux et certains afficionados fantasme un peu sur une superintelligence, une "agi" capable de résoudre un peu tous les problèmes.
La réalité de la recherche et de l'ingénierie autour, c'est surtout semble-t-il d'essayer de faire des modèles plus performants en utilisants les approches d'hier, d'hybrider les LLM avec des techniques plus classiques de recherche d'information ou de résolution de problème, ou de les utiliser dans le cadre de la planification pour la robotique (semble intéresser Yann le Cun chez facebook dans ses communications sur X) — de ce que j'ai pu voir de ça c'est pour qu'un robot puisse évoluer dans le monde et effectuer des tache il a besoin d'établir un plan d'action, et pour ça il s'aide d'un LLM et de ses connaissance générale comme heuristique pour choisir des étapes (genre trouver un couteau c'est dans un tiroir de la cuisine, il y a de bonne chance, un LLM peut aider pour ce genre de trucs) dans le cadre d'un algorithme de planification plus classique. Ça reste de la recherche.
Le problème actuel semble être essayer de mitiger les hallucinations, en croisant les données avec une vraie base de donnée ou des techniques de recherches d'information plus maîtrisable (retrieval augmented generation), il me semble que microsoft vient de sortir un truc ou tu fournis un corpus de documents jugés fiables pour aider l'ia à croiser l'info de ce qu'il vient de générer, une approche pourrait être de croiser les infos factuelles avec des bases de données d'informations fiabilisées.
Pour le reste le fantasme de superintelligence ça reste du marketting et de la hype, j'ai l'impression.
Ah mais en fait quand dlfp avait des stickers "w3c/html4 (almost) fully compliant" (à la préhistoire) c'était déjà un site de vils suppôts du capitalisme socio-traîtres !
Oui, l'objection n'est pas si nouvelle, en terme d'apprentissage ca me semble être très proche si pas identique au "malédiction de la dimension" (ou fléau de la dimension).
Donc le résultat n'est pas surprenant voire déja bien connu, on a des bornes pour estimer le nombre d'échantillons nécessaires en fonction du nombre de paramètres (voir les cours de Stéphane Malat au collège de France). En fait c'est le problème avec lequel tout le domaine de bat, manifestement avec un certain succès depuis 2010 un peu à la surprise de beaucoup.
Du coup s'interroger sur leurs définitions semble être important, et simuler un être humain particulier sans erreurs me semble être restrictif en plus d'être inévaluable (si on te connait parfaitement prendrais-tu les mêmes décisions que ton double?). Je suis d'accord avec cette observation, je me suis fais la même en y repensant. On peut difficilement faire mieux que "c'est un truc plausible qu'un humain pourrait faire". On peut du coup s'interroger sur une forme de cohérence, est-ce qu'il donne un coup une décision qui serait prise par quelqu'un et un autre il adopte une toute autre personnalité incompatible, si on part sur le côté "simulation humaine". Cela dit c'est des problèmes intéressants pour les sciences cognitives, l'étude du cerveau et du rapport avec la personnalité / comportement, mais ça dépasse le cadre de l'intelligence.
C'est effectivement une question qui ne me semble pas pouvoir être enfermée dans un argument théorique aussi simple et faible, pas si original.
Je suis pas certain que ça joue dans leurs hypothèses, tout est caché dans "un moyen de choisir un échantillon dans la distribution", qui n'est absolument pas spécifié. Donc si je me trompe pas ça offre la possibilité de faire de l'apprentissage par renforcement, c'est à dire de choisir un peu les exemples en fonction de ses prédictions passées.
Mais je peux me tromper, ce qu'ils entendent par "un moyen" est assez flou, si ils le font pas c'est peut être justement comme ils le clament pour laisser vraiment les hypothèses les plus favorables. Mais je suis pas certain sur ce point et faudrait que je relise.
Doctolib a réagit semble-t-il pour démentir, une note est apparue dans l'article :
À la suite de cette chronique, Doctolib souhaite préciser que : « le dialogue entre le médecin et son patient n'est jamais enregistré ni stocké. L'assistant de consultation, activé uniquement avec le consentement du patient, se charge de la prise de notes, assure une transcription en temps réel de la consultation et en réalise une synthèse structurée. Cette synthèse sera toujours soumise à la validation ultime du médecin ».
En lisant rapidement le papier s'interroge sur la faisabilité du problème de l'apprentissage par l'exemple, en prenant l'angle de la complexité algorithmique.
L'apprentissage automatique "IA" est défini comme "à partir d'un certain nombre d'exemples de comportements humains (tiré dans un ensemble plus grand de comportements observés), apprendre un modèle ou un algorithme (d'une certaine taille) qui permette de prédire le comportement/décision humain avec une bonne probabilité"
Le raisonnement est de partir d'un problème algorithmique (perfect versus chance).
On dispose d'un certain nombre de données d'une certaine taille (un nombre de bits donnés), à chacun est associé pile ou face. On dispose d'un moyen d'en choisir au hasard
Le problème est de savoir si il existe un algorithme suffisamment "petit" (avec un certain nombre d'instruction, de taille au max k) qui puisse prédire si une donnée de notre jeu de donnée est pile ou face.
Il y a deux cas possible, soit il existe un tel algorithme de taille au max k, soit aucun des algorithmes possibles ne fait mieux que le hasard. Le problème consiste à savoir dans quel cas on est ! (on peut y voir des similarité avec la notion de complexité de kolmogorov, qui consiste à trouver le plus petit programme possible qui reproduit des données, la meilleure manière possible de compresser des données, mais en plus simple, trouver la complexité de Kolmogorov est un problème indécidable)
Il se trouve que résoudre un tel problème est NP-difficile, c'est à dire que la quantité de calcul augmente en général très rapidement avec la taille des données.
Le papier argumente que si il existait une procédure d'apprentissage automatique qui soit aussi capable de simuler un comportement humain, on pourrait l'appliquer sur un tel jeu de donnée pour voir s'il est "apprenable" avec une telle taille de modèle (cas 1), ou pas (cas 2). En lançant la procédure d'apprentissage efficace "de puissance IA" sur plusieurs jeux d'exemple du jeu de données, les auteurs argumentent qu'on pourrait en choisissant le meilleur d'entre eux décider si on est dans le cas 1 ou 2 et donc résoudre le problème "perfect by chance".
Les conséquences seraient que, comme la procédure d'apprentissage "IA" est supposée efficace et que le problème est lui impossible à résoudre efficacement, une IA est condamnée à ne jamais avoir assez d'exemple en pratique et que le nombre d'erreur doit augmenter exponentiellement. Notamment parce que prédire un comportement humain nécessite d'avoir en entrée beaucoup de données, donc le problème est algorithmiquement très gros et un algorithme exponentiel sur ce type de données c'est condamné à l'échec, donc que les modèles appris en pratique sont condamnés à être lacunaires.
Les auteurs clament avoir été charitables en hypothèses sur la procédure d'apprentissage en prenant le meilleur cas, pour trouver une borne inférieure.
Je ne suis pas certain que ce soit le cas, parce que le problème de départ sur lequel ils s'appuient pour la "réduction" est quand même très peu structuré, et que la classe de modèle sur lesquels ils s'appuient est complètement générique. Or on sait que si on restreint la classe de modèle à des modèles plus spécialisés/appropriés dans certaines taches ça change beaucoup de chose, et que les données sont probablement plus structurées que leur problème aléatoire qui ne fait aucune hypothèse sur la structure des données. Il parait évident de dire que le problème est plus simple sur des distributions avec beaucoup de structures que sur des distributions dont on ne sait rien, et que l'humain non plus ne sait rien faire avec des données aléatoires ou bien bruitées imprédictibles, donc c'est pas sympa. Est-ce bien une borne inférieure, si on rajoute des hypothèses sur la structure en entrée on doit pouvoir trouver de meilleures bornes inférieures.
Ils indiquent ensuite que diviser le problème de l'IA général en sous problèmes et en recombinant ces résultats dans un système plus gros ne change pas grand chose à leur argument, je sais pas trop ce que j'en pense pour l'instant. Et ils partent sur des considérations sur le rapport entre la cognition et l'étude de l'intelligence humaine et l'IA.
Ça coute quand même probablement plus, on compare une requête dans une base de donnée indexée avec faire tourner des modèles avec plusieurs milliers de milliards de paramètres parait-il, qu'on fait tourner 1000 fois pour une requête avec une réponse en 1000 mots … J'imagine que le matos et le logiciel sont optimisés à mort, mais quand même ça fait beaucoup de calculs.
C'est pas une simple corrélation ils ont une explication avec, qui tient la route. Si tu veux réfuter le truc il faut réfuter l'explication aussi. Le cas de Linux est sûrement particulier parce que c'est du code bas niveau qui vient avec son propre gestionnaire de mémoire et qu'il y a beaucoup de systèmes bas niveau à toucher, ce qui prend du temps, c'est les débats actuels, et c'est pourquoi qu'ils ont commencés des expérimentations avec des pilotes qui sont potentiellement moins au cœur du système.
Donc c'est une problématique, qui fait débat certes, un questionnement, mais comme dit le commentaire au dessous c'est probablement plus un problème de transition qu'une réfutation de l'intérêt de la démarche pour la sécurité. Et quand bien même ça le ferait pas pour Linux, c'est potentiellement juste un cas particulier.
Je m'interroge sur la pertinence de l'argument dans le cadre du noyau Linux et de l'introduction de Rust. En gros l'argument est que le vieux code (maintenu) a vu l'essentiel des bugs et vulnérabilités éliminées au cours du temps, et qu'en écrivant le nouveau dans des langage sur on insère pas de vulnérabilité mémoire, donc c'est plutôt gagnant.
Dans le cadre particulier de Linux et Rust par contre il semble que l'introdution de Rust impose de réécrire certaines parties du code en C. On pourrait alors arguer que ce soit à double tranchant : d'un côté c'est pour le meilleur parce que Rust est safe, et que la réécriture impose certaines contraintes de Rust et imposent de meilleures propriétés au code, d'un autre … c'est une réécriture de code potentiellement éprouvé donc qui risque d'introduire de nouveaux problèmes, un peu à rebours des arguments de l'article.
On avait la même avec le bitcoin et la réouverture de centrale au charbon. L'appat du gain détruit toutes les vélléités de faire semblant d'être écoresponsable, en remplaçant tout par des promesses aussi dithyrambiques que floues sur les applications et l'avènement d'une nouvelle utopie, pour le *washing.
[^] # Re: Évolution des excuses pour l'inaction climatique
Posté par thoasm . En réponse au lien Eric Schmidt préconise d'investir en priorité sur l'IA, au détriment des actions pour le climat. Évalué à 4.
Pas de prévision ça se dessine on en parlait plus haut "Haha pw*ned les pauvres fallait pas nous écouter, chacun sa merde."
[^] # Re: Une image vaut mille mots
Posté par thoasm . En réponse au lien discours retardant l'action climatique. Évalué à 5. Dernière modification le 10 octobre 2024 à 12:30.
Bien sûr mais les industries en question seront bien les premières à potentiellement faire du double discours. Par exemple Unilever est un très gros producteur de plastique qui incite évidemment à acheter ses produits en masse par la pub et d'un autre côté est tenté de gérer les dégâts … par ce type d'actions : https://www.delhaize.be/fr/better/planet/lionsfootprint/plastic/initiative-15-bis ou il s'agit d'aider un peu des bénévoles à nettoyer les rivières, ce qui coute probablement bien moins cher que de réfléchir aux circuits du plastique ou de réfléchir au recyclage ou de faire du greenwashing (si c'est avéré https://www.rse-magazine.com/Unilever-greenwashing-suspecte_a5610.html )
On ne peut évidemment pas écarter la responsabilité des individus, c'est une évidence, d'un autre côté les injonctions contradictoires … ben ça se règle souvent par des règlementations qui forcent tous les acteurs à adopter un comportement responsable dans un système qui ne rend pas ça très difficile. Et évidemment faire un peu de lobbying contre ces règlements potentiellement emmerdants c'est aussi peu de choses pour des gros acteurs.
[^] # Re: caractéristiques limites
Posté par thoasm . En réponse au journal Danew DBook 110 : l'ordinateur des nouilles. Évalué à 2.
Je ne suis pas sûr que l'écran soit tactile. J'ai eu un de leurs appareils entre les mains, ptete bien celui là, offert en cadeau avec un abonnement … Ben c'etait un Android, donc une interface tactile (sic) piloté par … Le touchpad.
[^] # Re: Une image vaut mille mots
Posté par thoasm . En réponse au lien discours retardant l'action climatique. Évalué à 6.
Le texte "les individus et les consommateurs sont responsables du changement climatique" est assez clair quand même quand y lit bien le grand absent de la phrase … L'industrie évidemment.
C'est un persona certes mais le T-shirt avec un logo évoqué pour moi ces opérations de com organisées directement par des assos financées par des lobbys où les gens sont invités bénévolement a nettoyer un endroit, avec au passage le TShirt floqué "make our planet …" et en convoquant les journalistes. Il faut dans ce cas plutôt voir l'individuel en question comme une lobbyiste qui vient relayer les messages de l'industrie façon animatrice club Med.
[^] # Re: Il dit tout haut ce dont on se doute un peu par les actes …
Posté par thoasm . En réponse au lien Eric Schmidt préconise d'investir en priorité sur l'IA, au détriment des actions pour le climat. Évalué à 8.
# Il dit tout haut ce dont on se doute un peu par les actes …
Posté par thoasm . En réponse au lien Eric Schmidt préconise d'investir en priorité sur l'IA, au détriment des actions pour le climat. Évalué à 10.
Les ambitions environnementales ont toujours passé derrières les considérations financière et l’appât du gain. Là on a une techno fantasmatique à la base avec des promesses financières fantasmagorique bien qu'évidemment non démontrées, la machine à techno-fantasme à l'intersection de la SF et de faire sauter la banque du casino tourne à plein. Il prend même pas la peine de faire semblant de greenwasher. Au moins c'est sincère …
On est en plein dans la marche du progrès supposé écraser tout sur son passage. Les protestations des créateurs et auteurs des textes ? C'est peu de chose, vous aurez de l'argent pour payer les avocats, foncez ! Qu'importe les conséquences sur autrui ou sur la planète en fait, c'est l'égoisme qui l'emporte. C'est une bien faible analyse bénéfice risque, carrément un statement à la Elon Musk : les riches s'en sortiront toujours, ils iront se trouver un coin sur Mars pour vivre entre eux au besoin. Et pour le reste on peut cracher et manipuler la plèbe, seul ce résultat compte.
# Autres articles
Posté par thoasm . En réponse au lien Nobel de Physique : J. Hopfield et G. Hinton pour leurs travaux en IA et apprentissage automatique. Évalué à 3.
«Physics Nobel scooped by machine-learning pioneers », sur Nature.com qui cite « Computation by neural networks » de Hinton paru en 2000 dans Nature Neuroscience, ce dernier article qui cite Neural networks and physical systems with emergent collective computational abilities de Hopfield en 1982 dans les comptes-rendus de l'académie des sciences des USA.
[^] # Re: Vrai langage objet
Posté par thoasm . En réponse au journal Utilisation de Perl aujourd'hui.. Évalué à 3.
L'héritage c'est un peu passé de mode dans les langages plus récents. On est passé à d'autres choses pour le sous-typage, la composition par exemple, les traits, les "enumérations" de types algébriques … exemple en Rust https://www.thecodedmessage.com/posts/oop-3-inheritance/
[^] # Re: Correction du titre
Posté par thoasm . En réponse au lien Sortie de Python 3.13.0 — première version avec un mode expérimental supprimant le verrou global !. Évalué à 2.
Ah oui merci, j'ai été radin en point, une histoire de moyenne de la position des deux autres. /o\
[^] # Re: norme de CODAGE des caractères
Posté par thoasm . En réponse à la dépêche Unicode en version 16.0.0, le plein de hiéroglyphes égyptiens et de symboles informatiques. Évalué à 3.
Ben dés que tu parles d'école de commerce ou dans le secteur marchand c'est un synonyme de "numérique" effectivement, avec un peu plus la coloration marchande. Ça pique un peu les oreilles mais c'est malheureusement bien installé et ce depuis maintenant pas mal de temps.
[^] # Re: Enfin!
Posté par thoasm . En réponse à la dépêche Unicode en version 16.0.0, le plein de hiéroglyphes égyptiens et de symboles informatiques. Évalué à 4.
Pourtant à l'oral c'est parfaitement identique en prononciation. Si tu veux mettre de la conditionnalité sans ambiguïté, et à moins de vouloir tromper, il y a plus efficace comme formulation que de tout faire reposer sur la présence ou l'absence d'une lettre muette.
[^] # Re: oui, mais
Posté par thoasm . En réponse au journal Du stockage des tableaux de chaînes de caractère. Évalué à 3. Dernière modification le 04 octobre 2024 à 10:40.
Ça se conjuguerai avec les "initializer expression", tu pourrais avoir une "constexpr initializer expression" ?
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 2. Dernière modification le 02 octobre 2024 à 21:30.
Ça n'a pas trop de sens, on faisait pas des programmes d'échec pour les inscrire au championnat du monde. On le faisait/fait parce que c'est un cas ou c'est encore relativement maîtrisé avec des règles claires, sur un "petit monde", avec un résultat clair (victoire/défaite). C'était un cas idéal pour l'informatique, avec les humains comme étalon.
Aujourd'hui le but s'est déplacé ailleurs, et ces programmes servent surtout à entraîner les humains et/ou trouver de nouvelles façons de jouer. On peut tenter d'optimiser à mort leurs performance et minimiser leurs consommation énergétique. C'est un vrai enjeu pour les LLMs d'ailleurs, mais d'une toute autre ampleur puisqu'on veut rouvrir des centrales nucléaires rien que pour leurs beaux yeux (ou beaux dollars).
[^] # Re: Critique du papier
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 2.
Rien d'aussi abstrait, je pense, en guise d'approche. Le milieux et certains afficionados fantasme un peu sur une superintelligence, une "agi" capable de résoudre un peu tous les problèmes.
La réalité de la recherche et de l'ingénierie autour, c'est surtout semble-t-il d'essayer de faire des modèles plus performants en utilisants les approches d'hier, d'hybrider les LLM avec des techniques plus classiques de recherche d'information ou de résolution de problème, ou de les utiliser dans le cadre de la planification pour la robotique (semble intéresser Yann le Cun chez facebook dans ses communications sur X) — de ce que j'ai pu voir de ça c'est pour qu'un robot puisse évoluer dans le monde et effectuer des tache il a besoin d'établir un plan d'action, et pour ça il s'aide d'un LLM et de ses connaissance générale comme heuristique pour choisir des étapes (genre trouver un couteau c'est dans un tiroir de la cuisine, il y a de bonne chance, un LLM peut aider pour ce genre de trucs) dans le cadre d'un algorithme de planification plus classique. Ça reste de la recherche.
Le problème actuel semble être essayer de mitiger les hallucinations, en croisant les données avec une vraie base de donnée ou des techniques de recherches d'information plus maîtrisable (retrieval augmented generation), il me semble que microsoft vient de sortir un truc ou tu fournis un corpus de documents jugés fiables pour aider l'ia à croiser l'info de ce qu'il vient de générer, une approche pourrait être de croiser les infos factuelles avec des bases de données d'informations fiabilisées.
Pour le reste le fantasme de superintelligence ça reste du marketting et de la hype, j'ai l'impression.
[^] # Re: Toujours pareil
Posté par thoasm . En réponse au lien Doctolib déploie une IA pour capter et analyser les conversations patients-médecins ! . Évalué à 2.
Ah mais en fait quand dlfp avait des stickers "w3c/html4 (almost) fully compliant" (à la préhistoire) c'était déjà un site de vils suppôts du capitalisme socio-traîtres !
[^] # Re: Critique du papier
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 5.
Ça dépend, il fait quoi le hasard, par hasard ?
[^] # Re: Critique du papier
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 3.
Oui, l'objection n'est pas si nouvelle, en terme d'apprentissage ca me semble être très proche si pas identique au "malédiction de la dimension" (ou fléau de la dimension).
Donc le résultat n'est pas surprenant voire déja bien connu, on a des bornes pour estimer le nombre d'échantillons nécessaires en fonction du nombre de paramètres (voir les cours de Stéphane Malat au collège de France). En fait c'est le problème avec lequel tout le domaine de bat, manifestement avec un certain succès depuis 2010 un peu à la surprise de beaucoup.
Du coup s'interroger sur leurs définitions semble être important, et simuler un être humain particulier sans erreurs me semble être restrictif en plus d'être inévaluable (si on te connait parfaitement prendrais-tu les mêmes décisions que ton double?). Je suis d'accord avec cette observation, je me suis fais la même en y repensant. On peut difficilement faire mieux que "c'est un truc plausible qu'un humain pourrait faire". On peut du coup s'interroger sur une forme de cohérence, est-ce qu'il donne un coup une décision qui serait prise par quelqu'un et un autre il adopte une toute autre personnalité incompatible, si on part sur le côté "simulation humaine". Cela dit c'est des problèmes intéressants pour les sciences cognitives, l'étude du cerveau et du rapport avec la personnalité / comportement, mais ça dépasse le cadre de l'intelligence.
C'est effectivement une question qui ne me semble pas pouvoir être enfermée dans un argument théorique aussi simple et faible, pas si original.
[^] # Re: (tentative de) résumé du papier
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 3.
Je suis pas certain que ça joue dans leurs hypothèses, tout est caché dans "un moyen de choisir un échantillon dans la distribution", qui n'est absolument pas spécifié. Donc si je me trompe pas ça offre la possibilité de faire de l'apprentissage par renforcement, c'est à dire de choisir un peu les exemples en fonction de ses prédictions passées.
Mais je peux me tromper, ce qu'ils entendent par "un moyen" est assez flou, si ils le font pas c'est peut être justement comme ils le clament pour laisser vraiment les hypothèses les plus favorables. Mais je suis pas certain sur ce point et faudrait que je relise.
[^] # Re: Toujours pareil
Posté par thoasm . En réponse au lien Doctolib déploie une IA pour capter et analyser les conversations patients-médecins ! . Évalué à 5.
Doctolib a réagit semble-t-il pour démentir, une note est apparue dans l'article :
# (tentative de) résumé du papier
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 10.
En lisant rapidement le papier s'interroge sur la faisabilité du problème de l'apprentissage par l'exemple, en prenant l'angle de la complexité algorithmique.
L'apprentissage automatique "IA" est défini comme "à partir d'un certain nombre d'exemples de comportements humains (tiré dans un ensemble plus grand de comportements observés), apprendre un modèle ou un algorithme (d'une certaine taille) qui permette de prédire le comportement/décision humain avec une bonne probabilité"
Le raisonnement est de partir d'un problème algorithmique (perfect versus chance).
On dispose d'un certain nombre de données d'une certaine taille (un nombre de bits donnés), à chacun est associé pile ou face. On dispose d'un moyen d'en choisir au hasard
Le problème est de savoir si il existe un algorithme suffisamment "petit" (avec un certain nombre d'instruction, de taille au max k) qui puisse prédire si une donnée de notre jeu de donnée est pile ou face.
Il y a deux cas possible, soit il existe un tel algorithme de taille au max k, soit aucun des algorithmes possibles ne fait mieux que le hasard. Le problème consiste à savoir dans quel cas on est ! (on peut y voir des similarité avec la notion de complexité de kolmogorov, qui consiste à trouver le plus petit programme possible qui reproduit des données, la meilleure manière possible de compresser des données, mais en plus simple, trouver la complexité de Kolmogorov est un problème indécidable)
Il se trouve que résoudre un tel problème est NP-difficile, c'est à dire que la quantité de calcul augmente en général très rapidement avec la taille des données.
Le papier argumente que si il existait une procédure d'apprentissage automatique qui soit aussi capable de simuler un comportement humain, on pourrait l'appliquer sur un tel jeu de donnée pour voir s'il est "apprenable" avec une telle taille de modèle (cas 1), ou pas (cas 2). En lançant la procédure d'apprentissage efficace "de puissance IA" sur plusieurs jeux d'exemple du jeu de données, les auteurs argumentent qu'on pourrait en choisissant le meilleur d'entre eux décider si on est dans le cas 1 ou 2 et donc résoudre le problème "perfect by chance".
Les conséquences seraient que, comme la procédure d'apprentissage "IA" est supposée efficace et que le problème est lui impossible à résoudre efficacement, une IA est condamnée à ne jamais avoir assez d'exemple en pratique et que le nombre d'erreur doit augmenter exponentiellement. Notamment parce que prédire un comportement humain nécessite d'avoir en entrée beaucoup de données, donc le problème est algorithmiquement très gros et un algorithme exponentiel sur ce type de données c'est condamné à l'échec, donc que les modèles appris en pratique sont condamnés à être lacunaires.
Les auteurs clament avoir été charitables en hypothèses sur la procédure d'apprentissage en prenant le meilleur cas, pour trouver une borne inférieure.
Je ne suis pas certain que ce soit le cas, parce que le problème de départ sur lequel ils s'appuient pour la "réduction" est quand même très peu structuré, et que la classe de modèle sur lesquels ils s'appuient est complètement générique. Or on sait que si on restreint la classe de modèle à des modèles plus spécialisés/appropriés dans certaines taches ça change beaucoup de chose, et que les données sont probablement plus structurées que leur problème aléatoire qui ne fait aucune hypothèse sur la structure des données. Il parait évident de dire que le problème est plus simple sur des distributions avec beaucoup de structures que sur des distributions dont on ne sait rien, et que l'humain non plus ne sait rien faire avec des données aléatoires ou bien bruitées imprédictibles, donc c'est pas sympa. Est-ce bien une borne inférieure, si on rajoute des hypothèses sur la structure en entrée on doit pouvoir trouver de meilleures bornes inférieures.
Ils indiquent ensuite que diviser le problème de l'IA général en sous problèmes et en recombinant ces résultats dans un système plus gros ne change pas grand chose à leur argument, je sais pas trop ce que j'en pense pour l'instant. Et ils partent sur des considérations sur le rapport entre la cognition et l'étude de l'intelligence humaine et l'IA.
[^] # Re: Deux critiques ! la définition et ChatGPT.
Posté par thoasm . En réponse à la dépêche Y a le Frido 2024 qu'est là. Évalué à 2.
Ça coute quand même probablement plus, on compare une requête dans une base de donnée indexée avec faire tourner des modèles avec plusieurs milliers de milliards de paramètres parait-il, qu'on fait tourner 1000 fois pour une requête avec une réponse en 1000 mots … J'imagine que le matos et le logiciel sont optimisés à mort, mais quand même ça fait beaucoup de calculs.
[^] # Re: Le noyau Linux et cette approche
Posté par thoasm . En réponse au lien De l'intérêt majeur de choisir un langage memory safe pour tout nouveau code d'un projet existant. Évalué à 3.
C'est pas une simple corrélation ils ont une explication avec, qui tient la route. Si tu veux réfuter le truc il faut réfuter l'explication aussi. Le cas de Linux est sûrement particulier parce que c'est du code bas niveau qui vient avec son propre gestionnaire de mémoire et qu'il y a beaucoup de systèmes bas niveau à toucher, ce qui prend du temps, c'est les débats actuels, et c'est pourquoi qu'ils ont commencés des expérimentations avec des pilotes qui sont potentiellement moins au cœur du système.
Donc c'est une problématique, qui fait débat certes, un questionnement, mais comme dit le commentaire au dessous c'est probablement plus un problème de transition qu'une réfutation de l'intérêt de la démarche pour la sécurité. Et quand bien même ça le ferait pas pour Linux, c'est potentiellement juste un cas particulier.
# Le noyau Linux et cette approche
Posté par thoasm . En réponse au lien De l'intérêt majeur de choisir un langage memory safe pour tout nouveau code d'un projet existant. Évalué à 5.
Je m'interroge sur la pertinence de l'argument dans le cadre du noyau Linux et de l'introduction de Rust. En gros l'argument est que le vieux code (maintenu) a vu l'essentiel des bugs et vulnérabilités éliminées au cours du temps, et qu'en écrivant le nouveau dans des langage sur on insère pas de vulnérabilité mémoire, donc c'est plutôt gagnant.
Dans le cadre particulier de Linux et Rust par contre il semble que l'introdution de Rust impose de réécrire certaines parties du code en C. On pourrait alors arguer que ce soit à double tranchant : d'un côté c'est pour le meilleur parce que Rust est safe, et que la réécriture impose certaines contraintes de Rust et imposent de meilleures propriétés au code, d'un autre … c'est une réécriture de code potentiellement éprouvé donc qui risque d'introduire de nouveaux problèmes, un peu à rebours des arguments de l'article.
[^] # Re: Enfin!
Posté par thoasm . En réponse à la dépêche Unicode en version 16.0.0, le plein de hiéroglyphes égyptiens et de symboles informatiques. Évalué à 2.
Si on pouvait se débarrasser des lettres muettes aussi, tant qu'à faire dans le minimalisme, je signe.
[^] # Re: Deux critiques ! la définition et ChatGPT.
Posté par thoasm . En réponse à la dépêche Y a le Frido 2024 qu'est là. Évalué à 2.
Ça se voit "un peu" quand l'énergie est un sujet majeur, quand Google voulait produire sa propre énergie il y a quelques années avec du renouvelable défois (ça s'est pas fait il me semble), et plus récemment quand on parle de rouvrir des centrales nucléaires accidentées, rien que ça, juste pour l'IA : https://linuxfr.org/users/vmagnin/liens/la-centrale-nucleaire-de-three-mile-island-renait-pour-microsoft
On avait la même avec le bitcoin et la réouverture de centrale au charbon. L'appat du gain détruit toutes les vélléités de faire semblant d'être écoresponsable, en remplaçant tout par des promesses aussi dithyrambiques que floues sur les applications et l'avènement d'une nouvelle utopie, pour le *washing.