C'est assez puéril comme vengeance. Le truc avec des réactions comme les tiennes c'est que dire les choses calmement pendant des décennies, ça n'a pas réellement marché et penser qu'on en est encore au stade de "l'argumentation" alors que les conclusions du GIEC sont connues, communiquées, effectivement d'ampleur littéralement cataclysmique si on continue en mode "business as usual" c'est un peu désespérant.
Toi tu argumentes sur du "business as usual". Les conséquences sont cataclysmique, c'est dit gentille ment. Tu t'en foutais ? Le dire de manière moins gentille et tu t'en foutras encore plus ? Ça change rien aux conclusions du GIEC.
Le truc un peu désespérant c'est que les climatologues se creusent tout le temps la tête de savoir pourquoi et comment communiquer et de si ils n'ont pas mal fait ou si ils sont responsables. Mais si l'auditoire ne veut pas entendre … y a-t-il une bonne manière de communiquer ?
Tu sais que ça ne se soustrait pas, les pollutions, c'est ton voisin plus les voitures, au quotidien. Suffit d'avoir l'occasion pour une raison ou pour une autre de se balader un peu à pied pour se rendre compte que à côté d'une route encombrée de moteur à essence, c'est pénible.
Résultat ? On a des pubs qui louent le confort que tu peux avoir dans ton habitacle de ta super voiture ultra confortable avec porte goblet pour le coca ou la bière en fermant la porte, qui te coupe … du bruit du trafic automobile. Aller chercher son pain à pied ? Bof, c'est bruyant au bord de la route et pas sécurisé …
Oh oui, probablement les partis ayant tendance à juste vouloir fermer les yeux sur tout ça et à "simplement" fermer les frontières ? Comme si ça pouvait marcher.
Ça consisterait à biaiser un peu les sorties du modèles de manières détectable, ptete en gardant de leur côté un modèle non biaisé pour comparer. Ça les forcera peut être à ce genre de trucs, mais les modèles risquent de se multiplier et ce genre de technique passerait à l'échelle ?
Le RN est gagnant si on continue avec une politique centriste. Le bilan actuel est pas too, on vient de découvrir que le deficit est encore pire qu'on pensait, Manu a convoqué des lections et en sort pas gagnant et manque clairement de force politique, la logique demande cratique voudrait une alternance.
Le RN se satisferait très bien de "vous voyez vous voyez ça sert a rien c'est les mêmes et la même politique qui gouverne, essayez nous on est pur Vierge on nous a pas essayé et on est radicaux faut leur foutre un coup de pied au cul. Ils ont bien pris soin de garantir que avec eux le pouvoir ce sera majorité absolue ou rien, ils veulent pas se cramer et laisser les autres se planter. Pour leur couper l'herbe sous le pied faut assumer les responsabilités, c'est tout ce qu'il y a a faire, et le faire dignement.
Ou alors tu considères que c'est à un gouvernement d'aller chercher des majorités et à proposer un projet qui doive passer la majorité du parlement. Là Macron essaye de jouer à un jeu étrange, encore avec des coups d'avance : il essaye d'anticiper de savoir si le premier ministre qu'il a trouvé se retrouvera censuré ou pas.
Et là tu te retrouves avec des partis qui promettent de censurer n'importe quel nom qui passe, qui n'ont d'ailleurs pas forcément envie de gouverner dans ces conditions et encore moins si c'est pour endosser le bilan de Macron d'ici quelques temps. Alors que … si vraiment le parlement était dans une position à négocier un projet de budget avec un gouvernement, mis devant leur responsabilités, ils réagiraient sûrement pas pareil.
Mais Manu bloque en refusant de réellement, lui, prendre ses responsabilité parce que c'est son rôle, tant qu'il n'a pas l'assurance que personne ne touchera à ses totems à lui, il ne nommera pas un premier ministre … problème : c'est pas lui qui vote les lois.
Oh bah au moins c'est assez clair, on comprend assez bien en voyant un message pareil plussé quatre fois un certain nombre des moinssages relativement inhabituellement élevé des commentaires de ce journal : Ça vient de l'extrême droite et d'idées fascistes et ça se cache pas.
l'association compte parmi ses membres des scientifiques d'autres disciplines, des organisations libérales telles que la fédération Liberté chérie, Contribuables associés et l'Institut Turgot, ainsi que l'Amicale des foreurs et des métiers du pétrole
Des gens du métier qui évidemment, on touche a leur travail, salaire ou potentiellement intéressement ou dividende, ça va chouiner un peu, les libéraux anti-taxes, ça risque de peser sur le budget de l'état, donc c'est par définition une arnaque ou on cherche à les faire raquer, les industriels forcément ils font tout ce qu'ils peuvent pour que ça dure depuis longtemps par tous les moyens possibles … Et l'argent dans le milieux du pétrole évidemment ça manque pas. C'est même tout à fait possible de s'autoconvaincre quand ses intérêts sont en jeu et d'être dans une forme de mauvaise foi très très convaincue.
Et aussi tous les gens qui ont embrassé le mode de vie "métrovoiture - boulot - dodo" pavillon, à tes 18 ans tu passes ton permis et c'est la liberté, tout ça grâce au merveilleux pétrole. C'est un poil dur à avaler déjà quand Thundberg dit "you broke the planet" et potentiellement que le mode de vie qu'ils ont adoptés et aimé doit évoluer. C'est plus facile de se cacher la tête dans le sable et d'écouter les rassuristes genre le RN qui dit qu'il n'y a rien à changer et qu'on en veut à leur liberté chérie et à leur portefeuille.
Le déni est très puissant dans ta famille on dirait. Qu'est ce qui te permet, a pas fait assez chaud cet été ? Tu ne crois pas en le pouvoir anticipateur de la physique connue il y a 200 ans ?
Par exemple les migrations africaines vers l’Europe au XXIe siècle ont une force démographique plus élevée que les peuples indigènes des pays européens, ces migrations africaines sont donc les plus importantes dans cette région et c’est pourquoi ils colonisent. Et là encore ce n’est pas parce qu’ils colonisent qu’ils sont plus importants, mais parce qu’ils sont plus importants qu’ils colonisent.
Ah ouais on peut dire ça aujourd'hui et ça passe crème, la migration est une colonisation … on en est rendu à quel point, on prend les romans d'anticipation de Michel Houellebecq pour des documentaires ?
le meilleur service qu'on peut rendre à la communauté scientifique est de ne surtout jamais altérer le principe du processus de publication, en modifiant l'auto-archivage de l'état des connaissances.
C'est faible comme argument, on peut maintenir un historique de révisions des articles en 2024 faut pas déconner, arxiv par exemple est une plateforme qui permet de le faire : https://info.arxiv.org/help/replace.html je comprends pas vraiment pourquoi tu opposes les deux modes dans l'absolu.
Par ailleurs tu supposes aussi un peu que tous les chercheurs sont tous au courant des derniers développements et complètement à jour de la littérature, ça m'a l'air un peu irréaliste, surtout dés que tu traverses un peu les silos disciplinaires.
Merci je cherchai quoi répondre à arnaudus au delà du fait que je trouve son accroche excessive donc qui nuit au reste de son message, là j'ai mis le doigt sur ce qui me dérange le plus, c'est sûrement la parenthèse
(et peut-être même malveillant dans certaines circonstances)
En gros tu (arnaudus) suggère plus ou moins explicitement que cet outil te dérange parce que ça pourrait jeter le discrédit sur la recherche et être mésusé. Je suis pas d'accord avec cette crainte, et même je la trouve dangereuse : la recherche tire sa crédibilité de l'honnêteté scientifique, et de l'autosurveillance et auto-révision dans la mesure du possible. Et du coup aussi le plus possible de la transparence dans ce qui va et ce qui va pas. La dernière chose à faire dans un tel contexte c'est de cacher la poussière sous le tapis. Si jamais l'article en question se base fondamentalement sur une hypothèse soutenue par un article rétracté, il y a matière à examiner si ça remet en cause ses conclusions, que ça plaise ou non. Si c'est pas grave, il y a ptete manière à révision a posteriori ou a publication d'errata. Mais rejeter l'outil sous prétexte que ça pourrait servir à la polémique en soi c'est desservir la science. La polémique peut appeler à réponse, potentiellement, c'est pas forcément illégitime, de la part des scientifique, si ça a un intérêt social.
C'est un peu comme dire "retraction watch" peut être utilisé pour décrédibiliser la science parce que ça pointe des brebis galeuses alors que les scientifiques sont majoritairement honnête, donc faudrait pas que ça existe.
Peu importe, ça ne répond pas à la question métaphysique fondamentale : pourquoi il existe au moins un univers ou ce genre de règles, qui permettent une émergence de la vie, existent ? Après ptete que dans cet univers une forme de vie a crée une "simulation", pourquoi pas, mais on aurait pas plus de moyen de le savoir que de savoir si un Dieu extérieur à notre univers existe.
Enfin sauf si tout d'un coup on détecte des phénomènes qui violent puissamment toutes les lois de la physique connues. Mais on ne les connais pas totalement et il y a toujours la possibilité d'un signe noir qui violerait totalement une des hypothèse fondamentale qu'on a pour fonder nos théories fondamentales de la physique.
J'ai jamais dit que les LLMs ne font pas de trucs intéressants, au contraire je m'intéresse vachement à ce qu'ils font d'intéressant, et encore plus à ce qu'ils ne font pas !
Mais dans « ils ne sont qu'un outil parce qu'il faut corriger deux ou trois trucs après eux mais il ne s'en faut pas de beaucoup pour avoir quelque chose de prêt à la production directement. » si tu as la solution pour "il n'en faut pas de beaucoup" ça intéresse beaucoup de monde :p A mon avis il reste encore pas mal de recherche à faire, et le fait qu'il y ait beaucoup d'argent dans le domaine mais qu'on y soit pas encore et même sans chemin clair bien qu'il y ait pleins de travaux et d'articles de recherches qui paraissent le montrent bien.
Bref, je me situe un peu dans une situation médiane, j'essaye de pas minimiser l'importance du truc, sans pour autant être trop optimiste sur l'avenir, parce que ben en la matière il y a eu un paquet de fois ou on a pensé avoir une panacée et avoir résolu le problème, avant une stagnation de quelques décennies avant d'avoir des nouvelles avancées.
Pour l'instant ce que je trouve prometteur :
* la capacité des réseaux de neurones à "évoluer" dans des environnements pleins de soupe de pixel et à en extraire du "sens" en terme d'objets présents et de positions géographique, ou d'extraire en quelque sorte du sens d'un texte. Et donc par la même occasion de passer du monde "analogique" dans lequel on vit et communique à des mondes "formels" ou on peut travailler à l'aide d'algorithmes connus (d'ailleurs une appli intéressante est la génération d'algorithmes), genre spécifier ou formaliser des buts pour passer dans un monde "logique" avec du vrai et du faux, genre la capacité de transformer une demande humaine en une requête formelle dans une base de donnée avec des faits garantis corrects. Ca peut être de gros progrès en terme d'ihm. On peut discuter aussi, puisqu'il s'agit de "vérifier à posteriori" les sorties des IAs de formaliser le résultats de ces "vérifications" dans des bases de connaissances avec des notions de vrai et de faux, potentiellement.
* et de l'autre la possibilité d'avoir un certain "instinct" sur le monde qui peut aider les algorithmes plus classiques avec du vrai et du faux mais aucune jugeote qui pourraient se perdre dans un très grand ensemble de possibilités sans discernement à trouver un chemin logique tenant compte des connaissances ordinaires des humains.
* et le tout, dans le cas de l'interaction avec le vrai monde, de valider ou pas le "monde formel" vis à vis des observations (ça semble être une des directions que prend la recherche pour l'utilisation des IAs en robotique)
C'est des directions intéressantes, c'est certain, mais c'est du boulot tout ça :)
J'ai noté que tu as parlé de "peur fantasmatique" de perdre son boulot puis que
"Après, pense que tu es irremplaçable", et là je suis pas sur de voir la cohérence.
Et puis je crois que je me suis concentré sur le potentiel d'évolution, et là il n'est pas spécialement évident. Si ça dépend assez largement du jeu de données, en apprenant sur tout Internet on a probablement atteint un certain volume assez important difficile à égaler. Potentiellement il reste des jeux de données moins publics et plus restreints comme les dossiers de santé pour apprendre des diagnostics, mais ça touche d'autres problèmes éthiques. Et puis l'intérêt serait pour les pathologies rares, le truc étant que la fiabilités des IAs sur les trucs rares est pas assurée donc ça limite l'intérêt, pour le tout venant les médecins lambda savent faire.
Si il a un contexte suffisamment grand il pourrait savoir qu'on est dans un cadre fictionnel quand on parle de Star Wars. D'ailleurs si tu lui demandes si la force existe il te dira probablement que la force n'existe pas.
J'imagine au contraire qu'un LLM avec tous ces circuits et tous ces neurones devrait être capable de discriminer les contextes et d'apprendre que certaines règles s'appliquent différemment dans différents cadre fictionnels, avec des "heuristiques" déduites du contexte pour savoir si ça s'applique ou pas.
On parle de LLM et de capacité émergentes, de trucs supposés être généraliste avec apprentissage sur tous le web.
Et puis ça ne change pas vraiment la logique, juste les lois de la physique en l'occurrence.
Et justement, toute la question à mon avis c'est jusqu'ou il est nécessaire d'avoir un bon "modèle" du monde pour prédire la suite d'un texte (enfin ce qu'on en reflète dans nos textes et leur structure) et ce qu'il est nécessaire d'en capturer pour prédire ce qu'on va écrire en suite. Est-ce qu'il y a besoin de "raisonner" (dans le sens d'encoder des règles de déduction valides) pour bien prédire ou alors avec suffisamment de données et tout pleins de neurones paramètres on peut faire un bon job avec un modèle qui ne reflète ou capture pas grand chose des réalités du monde, ou alors tellement déconnecté qu'il n'aura aucun lien entre des choses qui sont liées de manière évidente pour nous ?
(Et pardon je m'auto-répond pour compléter parce que j'ai oublié un bout et c'est trop tard)
Et donc, à partir du moment ou de telles capacités un peu générales et applicables à chaque sous domaine un peu transversalement n'émergent pas, c'est pas évident pour moi de savoir comment ils pourraient beaucoup gagner en qualité dans le futur juste avec des incrémentations de numéro de modèle comme tu l'affirmes plus haut.
Ils sont peut-être condamnés, comme ça, à être bons à tel ou tel trucs, comme maintenant, sans pouvoir multiplier les possibilités du fait de pouvoir combiner ces capacités correctement. C'est "tel truc plus ou moins bien" et "tel autre truc plus ou moins bien", mais jamais "à la fois tel truc et tel autre truc", c'est des capacités indépendantes qui ne se combinent pas.
Dans un tel contexte, c'est peut-être plus intéressants de spécialiser des modèles sur telle ou telle tache au lieux d'avoir un gros gloubiboulga générique qui fera jamais mieux que le modèle spécialisé seul.
Et ben pour moi non, c'est pas du tout trivial que le raisonnement soit impossible. Parce qu'il est capable d'apprendre une certaine forme de généralisation.
J'ai par curiosité essayé de lui faire appliquer un syllogisme (trivial) avec des mots inventés pour être sur que c'est pas un syllogisme de son corpus, ben il y arrive parfaitement. Donc d'une certaine manière, il est capable de faire certaines formes de raisonnement élémentaire et d'en déduire des trucs.
Une fois que tu as fait ça, en principe, il pourrait déduire d'autres trucs à partir de ça, de manière parfaitement correcte. Si il est capable d'appliquer une règle de raisonnement une fois sur des valeurs arbitraire, il devrait être capable de le faire également une autre fois. Avec dans son contexte les conclusions qu'il a déjà eu, donc d'être capable de les reprendre.
Ce qui n'est pas surprenant dans un tel cadre c'est qu'il ne soit pas vraiment capable de revenir en arrière et de remettre en cause son "raisonnement" en cas de résultat absurde parce qu'il n'y a pas de notion de "backtracking" dans une telle boucle ou il complète juste ce qui est entamé.
On pourrait aussi s'interroger sur l'émergence possible d'une notion de "vérité" et d'erreur étant donné qu'il a une certaine capacité de généralisation et qu'il a plein d'exemples, on pourrait supposer que ce soit un truc qui soit utile pour prédire le mot suivant de manière plus efficace, qu'à force de voir des textes qui utilisent plus ou moins ces notions explicitement il finisse par les "encoder" dans son réseau. Il semblerait que pour l'instant ça ne soit pas arrivé et qu'on ne voie pas venir ça, et pour moi c'est pas totalement une évidence.
C'est toujours marrant tout ce que les gens peuvent projeter sur tes opinions ou sur toi dés que tu tiens un discours critique.
Je suis plutôt curieux du sujet. Je suis sceptique sur le fait qu'en l'état actuel ça révolutionne réellement tant de truc que ça, et en particulier je m'intéresse pas mal aux limites du truc. Par exemple je suis assez curieux de savoir si on peut les faire raisonner, et la réponse des experts jusqu'à présent c'est plutôt "non, les LLM ne raisonnent pas vraiment et sont difficilement capable d'extrapoler sur des trucs qui sont pas présents en masse dans leur corpus", éventuellement "hors ligne" avec pas mal d'efforts on peut arriver à faire quelques trucs intéressants. On leur fait faire des maths mais c'est pas les modèles bruts, faut les intégrer dans des algos plus sophistiqués et faut les spécialiser.
Pour l'instant c'est plutôt difficile de leur faire tenir un raisonnement correct dans la durée : https://x.com/rao2z/status/1827778006972248123 Alors oui, il y a une marge de progression et les gens essayent de bien comprendre les capacités. Mais de ce que j'ai vu, et à mon avis, les LLMs sont intéressants pour ce type d'applis parce qu'ils sont capables d'extraire du "sens commun" et de guider un raisonnement, mais le vrai raisonnement devra être fait par des méthodes et des techniques algorithmiques plus traditionnels. Ils pourront peut être se servir des LLM comme "oracle" pour savoir par ou commencer, heuristiques, quand il y a plusieurs possibilité.
Également, le texte est un pâle reflet du monde et leur corpus est à la ramasse, faut leur réinjecter des nouvelles données. Et sur les modèles d'images, la correspondance riche entre le texte et les images, le raisonnement spatial, est compliqué si leur profondeur de raisonnement propre est limitée (ils sont capables de choper des éléments, mais pour tout combiner correctement et faire des trucs complexe il me semble qu'il faut rajouter du raisonnement).
Bref … "intelligence" est un terme qui veut dire bien des choses, mais sans raisonnement il me semble qu'on manque d'un ingrédient essentiel. Et leur rajouter ne viendra pas forcément gratuitement et facilement.
(pour contexte, le twit que j'ai lié, je le tiens d'un repost de Yan Le Cun, le chef de l'IA de facebook et aussi un pionnier)
on a toutes les raisons de penser que ça ne peut que s'améliorer (jusqu'où? Ça n'est pas très clair).
C'est un peu du "wishful thinking" dit comme ça. On espère un progrès, on sait pas trop comment, on sait pas trop l'évaluer et on a pas de plans mais c'est sur ça va marcher :p
[^] # Re: Vroum vroum
Posté par thoasm . En réponse au journal Ford: Quand les brevets ne sont pas pensés par les informaticiens. Évalué à 3.
Sauf qu'en terme de surface occupée … ben un million de vélos c'est pas tout à fait pareil qu'un million de voitures. Tu mets 10 vélos sur l'équivalent d'une place de parking https://fonderie-piwi.fr/les-velos-chinois-envahissent-les-rues-en-chine/
Et les trottinettes ça se monte tranquille au bureau.
[^] # Re: Vroum vroum
Posté par thoasm . En réponse au journal Ford: Quand les brevets ne sont pas pensés par les informaticiens. Évalué à 8.
C'est assez puéril comme vengeance. Le truc avec des réactions comme les tiennes c'est que dire les choses calmement pendant des décennies, ça n'a pas réellement marché et penser qu'on en est encore au stade de "l'argumentation" alors que les conclusions du GIEC sont connues, communiquées, effectivement d'ampleur littéralement cataclysmique si on continue en mode "business as usual" c'est un peu désespérant.
Toi tu argumentes sur du "business as usual". Les conséquences sont cataclysmique, c'est dit gentille ment. Tu t'en foutais ? Le dire de manière moins gentille et tu t'en foutras encore plus ? Ça change rien aux conclusions du GIEC.
Le truc un peu désespérant c'est que les climatologues se creusent tout le temps la tête de savoir pourquoi et comment communiquer et de si ils n'ont pas mal fait ou si ils sont responsables. Mais si l'auditoire ne veut pas entendre … y a-t-il une bonne manière de communiquer ?
[^] # Re: Une gêne pour le plus grand nombre? vraiment?
Posté par thoasm . En réponse au journal Ford: Quand les brevets ne sont pas pensés par les informaticiens. Évalué à 7.
Tu sais que ça ne se soustrait pas, les pollutions, c'est ton voisin plus les voitures, au quotidien. Suffit d'avoir l'occasion pour une raison ou pour une autre de se balader un peu à pied pour se rendre compte que à côté d'une route encombrée de moteur à essence, c'est pénible.
Résultat ? On a des pubs qui louent le confort que tu peux avoir dans ton habitacle de ta super voiture ultra confortable avec porte goblet pour le coca ou la bière en fermant la porte, qui te coupe … du bruit du trafic automobile. Aller chercher son pain à pied ? Bof, c'est bruyant au bord de la route et pas sécurisé …
La pollution c'est aussi les trucs qui ne se sentent pas, les particules fines et … le CO2 évidemment, le truc qui cause indirectement (avec d'autres formes de pollution dûes à nos mode de vie, genre le méthane++) la montée des océans qui submerge ironiquement certains aéroports : Aéroport international du Kansai ou les raisons pour lesquelles des villes entières pourraient être à terme évacuées rien qu'en France et les maisons in-assurables : https://www.lemonde.fr/planete/article/2024/01/06/inondations-dans-le-pas-de-calais-pourquoi-le-systeme-d-evacuation-des-eaux-vers-la-mer-devient-obsolete_6209400_3244.html Qui va s'occuper des réfugiés climatique ? https://www.unhcr.org/be/activites/changement-climatique-et-deplacements
Oh oui, probablement les partis ayant tendance à juste vouloir fermer les yeux sur tout ça et à "simplement" fermer les frontières ? Comme si ça pouvait marcher.
[^] # Re: C'était tellement prévisible ....
Posté par thoasm . En réponse au lien L'intelligence artificielle se transforme doucement en monstre consanguin complètement débile. Évalué à 2.
Je sais pas ce que ça veut dire pour la fameuse potentielle technique de détection des générations de chatGPT qu'OpenAI aurait dans ses tiroirs : https://www.usine-digitale.fr/article/pourquoi-openai-refuse-de-sortir-son-outil-infaillible-de-detection-des-textes-generes-par-chatgpt.N2216968
Ça consisterait à biaiser un peu les sorties du modèles de manières détectable, ptete en gardant de leur côté un modèle non biaisé pour comparer. Ça les forcera peut être à ce genre de trucs, mais les modèles risquent de se multiplier et ce genre de technique passerait à l'échelle ?
[^] # Re: Fonctionnement de ChatGPT
Posté par thoasm . En réponse au journal Question à l’IA : « Imaginons que je sois un Président de la République cynique … ». Évalué à 4.
Le RN est gagnant si on continue avec une politique centriste. Le bilan actuel est pas too, on vient de découvrir que le deficit est encore pire qu'on pensait, Manu a convoqué des lections et en sort pas gagnant et manque clairement de force politique, la logique demande cratique voudrait une alternance.
Le RN se satisferait très bien de "vous voyez vous voyez ça sert a rien c'est les mêmes et la même politique qui gouverne, essayez nous on est pur Vierge on nous a pas essayé et on est radicaux faut leur foutre un coup de pied au cul. Ils ont bien pris soin de garantir que avec eux le pouvoir ce sera majorité absolue ou rien, ils veulent pas se cramer et laisser les autres se planter. Pour leur couper l'herbe sous le pied faut assumer les responsabilités, c'est tout ce qu'il y a a faire, et le faire dignement.
[^] # Re: Fonctionnement de ChatGPT
Posté par thoasm . En réponse au journal Question à l’IA : « Imaginons que je sois un Président de la République cynique … ». Évalué à 6. Dernière modification le 03 septembre 2024 à 17:59.
Ou alors tu considères que c'est à un gouvernement d'aller chercher des majorités et à proposer un projet qui doive passer la majorité du parlement. Là Macron essaye de jouer à un jeu étrange, encore avec des coups d'avance : il essaye d'anticiper de savoir si le premier ministre qu'il a trouvé se retrouvera censuré ou pas.
Et là tu te retrouves avec des partis qui promettent de censurer n'importe quel nom qui passe, qui n'ont d'ailleurs pas forcément envie de gouverner dans ces conditions et encore moins si c'est pour endosser le bilan de Macron d'ici quelques temps. Alors que … si vraiment le parlement était dans une position à négocier un projet de budget avec un gouvernement, mis devant leur responsabilités, ils réagiraient sûrement pas pareil.
Mais Manu bloque en refusant de réellement, lui, prendre ses responsabilité parce que c'est son rôle, tant qu'il n'a pas l'assurance que personne ne touchera à ses totems à lui, il ne nommera pas un premier ministre … problème : c'est pas lui qui vote les lois.
[^] # Re: Contributeurs/Sources
Posté par thoasm . En réponse au journal Sur Wikipedia 1 homme sur 5 est une femme ! . Évalué à 1.
Oh bah au moins c'est assez clair, on comprend assez bien en voyant un message pareil plussé quatre fois un certain nombre des moinssages relativement inhabituellement élevé des commentaires de ce journal : Ça vient de l'extrême droite et d'idées fascistes et ça se cache pas.
[^] # Re: Pendant ce temps, au Brésil…
Posté par thoasm . En réponse au lien Au Brésil, un juge ordonne la suspension de Twitter "X" . Évalué à 5.
Les affaires de sous (gros ou moins gros) sont évidemment pas loin. Si on prend l'Association des climato-réalistes
Des gens du métier qui évidemment, on touche a leur travail, salaire ou potentiellement intéressement ou dividende, ça va chouiner un peu, les libéraux anti-taxes, ça risque de peser sur le budget de l'état, donc c'est par définition une arnaque ou on cherche à les faire raquer, les industriels forcément ils font tout ce qu'ils peuvent pour que ça dure depuis longtemps par tous les moyens possibles … Et l'argent dans le milieux du pétrole évidemment ça manque pas. C'est même tout à fait possible de s'autoconvaincre quand ses intérêts sont en jeu et d'être dans une forme de mauvaise foi très très convaincue.
Et aussi tous les gens qui ont embrassé le mode de vie "métrovoiture - boulot - dodo" pavillon, à tes 18 ans tu passes ton permis et c'est la liberté, tout ça grâce au merveilleux pétrole. C'est un poil dur à avaler déjà quand Thundberg dit "you broke the planet" et potentiellement que le mode de vie qu'ils ont adoptés et aimé doit évoluer. C'est plus facile de se cacher la tête dans le sable et d'écouter les rassuristes genre le RN qui dit qu'il n'y a rien à changer et qu'on en veut à leur liberté chérie et à leur portefeuille.
[^] # Re: Non.
Posté par thoasm . En réponse au lien Sur les réseaux sociaux, cet internaute qui vous contredit est peut-être une IA. Évalué à 2.
Prouves-le. Est-ce que tu connais une recette de tarte aux fraises ?
[^] # Re: Pendant ce temps, au Brésil…
Posté par thoasm . En réponse au lien Au Brésil, un juge ordonne la suspension de Twitter "X" . Évalué à 8.
Le déni est très puissant dans ta famille on dirait. Qu'est ce qui te permet, a pas fait assez chaud cet été ? Tu ne crois pas en le pouvoir anticipateur de la physique connue il y a 200 ans ?
[^] # Re: Contributeurs/Sources
Posté par thoasm . En réponse au journal Sur Wikipedia 1 homme sur 5 est une femme ! . Évalué à 4.
Ah ouais on peut dire ça aujourd'hui et ça passe crème, la migration est une colonisation … on en est rendu à quel point, on prend les romans d'anticipation de Michel Houellebecq pour des documentaires ?
[^] # Re: Très réducteur
Posté par thoasm . En réponse au lien Recherche scientifique : un outil pour éviter les « colosses aux pieds d’argile » (Abonnement). Évalué à 1.
On rétracte pas les publis d'il y a 200 ans, ça n'a aucun sens, du coup bah je comprend pas vraiment l'argument.
[^] # Re: Très réducteur
Posté par thoasm . En réponse au lien Recherche scientifique : un outil pour éviter les « colosses aux pieds d’argile » (Abonnement). Évalué à 3.
C'est faible comme argument, on peut maintenir un historique de révisions des articles en 2024 faut pas déconner, arxiv par exemple est une plateforme qui permet de le faire : https://info.arxiv.org/help/replace.html je comprends pas vraiment pourquoi tu opposes les deux modes dans l'absolu.
Par ailleurs tu supposes aussi un peu que tous les chercheurs sont tous au courant des derniers développements et complètement à jour de la littérature, ça m'a l'air un peu irréaliste, surtout dés que tu traverses un peu les silos disciplinaires.
[^] # Re: Très réducteur
Posté par thoasm . En réponse au lien Recherche scientifique : un outil pour éviter les « colosses aux pieds d’argile » (Abonnement). Évalué à 4.
Merci je cherchai quoi répondre à arnaudus au delà du fait que je trouve son accroche excessive donc qui nuit au reste de son message, là j'ai mis le doigt sur ce qui me dérange le plus, c'est sûrement la parenthèse
En gros tu (arnaudus) suggère plus ou moins explicitement que cet outil te dérange parce que ça pourrait jeter le discrédit sur la recherche et être mésusé. Je suis pas d'accord avec cette crainte, et même je la trouve dangereuse : la recherche tire sa crédibilité de l'honnêteté scientifique, et de l'autosurveillance et auto-révision dans la mesure du possible. Et du coup aussi le plus possible de la transparence dans ce qui va et ce qui va pas. La dernière chose à faire dans un tel contexte c'est de cacher la poussière sous le tapis. Si jamais l'article en question se base fondamentalement sur une hypothèse soutenue par un article rétracté, il y a matière à examiner si ça remet en cause ses conclusions, que ça plaise ou non. Si c'est pas grave, il y a ptete manière à révision a posteriori ou a publication d'errata. Mais rejeter l'outil sous prétexte que ça pourrait servir à la polémique en soi c'est desservir la science. La polémique peut appeler à réponse, potentiellement, c'est pas forcément illégitime, de la part des scientifique, si ça a un intérêt social.
C'est un peu comme dire "retraction watch" peut être utilisé pour décrédibiliser la science parce que ça pointe des brebis galeuses alors que les scientifiques sont majoritairement honnête, donc faudrait pas que ça existe.
[^] # Re: Fascinant !
Posté par thoasm . En réponse au lien Alien Project : Artificial life environment. Évalué à 2.
Peu importe, ça ne répond pas à la question métaphysique fondamentale : pourquoi il existe au moins un univers ou ce genre de règles, qui permettent une émergence de la vie, existent ? Après ptete que dans cet univers une forme de vie a crée une "simulation", pourquoi pas, mais on aurait pas plus de moyen de le savoir que de savoir si un Dieu extérieur à notre univers existe.
Enfin sauf si tout d'un coup on détecte des phénomènes qui violent puissamment toutes les lois de la physique connues. Mais on ne les connais pas totalement et il y a toujours la possibilité d'un signe noir qui violerait totalement une des hypothèse fondamentale qu'on a pour fonder nos théories fondamentales de la physique.
[^] # Re: Un aperçu de ce qu'on peut faire dans ce "jeu de la vie" nouvelle génération
Posté par thoasm . En réponse au lien Alien Project : Artificial life environment. Évalué à 2.
Ou encore https://xcancel.com/chrx_h/status/1827659368440946705
# Un aperçu de ce qu'on peut faire dans ce "jeu de la vie" nouvelle génération
Posté par thoasm . En réponse au lien Alien Project : Artificial life environment. Évalué à 2.
Exemple de vidéo de ce que les utilisateurs peuvent produire en jouant : https://xcancel.com/tobi/status/1824987963245138009
[^] # Re: tant pis pour eux
Posté par thoasm . En réponse au lien Meta ferme des comptes Instagram liés à l'extrême droite . Évalué à 8.
AAAAh j'ai compris, en fait "wokisme" c'est juste devenu le remplaçant de "communisme" chez les droitistes.
[^] # Re: Wow
Posté par thoasm . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 2.
J'ai jamais dit que les LLMs ne font pas de trucs intéressants, au contraire je m'intéresse vachement à ce qu'ils font d'intéressant, et encore plus à ce qu'ils ne font pas !
Mais dans « ils ne sont qu'un outil parce qu'il faut corriger deux ou trois trucs après eux mais il ne s'en faut pas de beaucoup pour avoir quelque chose de prêt à la production directement. » si tu as la solution pour "il n'en faut pas de beaucoup" ça intéresse beaucoup de monde :p A mon avis il reste encore pas mal de recherche à faire, et le fait qu'il y ait beaucoup d'argent dans le domaine mais qu'on y soit pas encore et même sans chemin clair bien qu'il y ait pleins de travaux et d'articles de recherches qui paraissent le montrent bien.
Bref, je me situe un peu dans une situation médiane, j'essaye de pas minimiser l'importance du truc, sans pour autant être trop optimiste sur l'avenir, parce que ben en la matière il y a eu un paquet de fois ou on a pensé avoir une panacée et avoir résolu le problème, avant une stagnation de quelques décennies avant d'avoir des nouvelles avancées.
Pour l'instant ce que je trouve prometteur :
* la capacité des réseaux de neurones à "évoluer" dans des environnements pleins de soupe de pixel et à en extraire du "sens" en terme d'objets présents et de positions géographique, ou d'extraire en quelque sorte du sens d'un texte. Et donc par la même occasion de passer du monde "analogique" dans lequel on vit et communique à des mondes "formels" ou on peut travailler à l'aide d'algorithmes connus (d'ailleurs une appli intéressante est la génération d'algorithmes), genre spécifier ou formaliser des buts pour passer dans un monde "logique" avec du vrai et du faux, genre la capacité de transformer une demande humaine en une requête formelle dans une base de donnée avec des faits garantis corrects. Ca peut être de gros progrès en terme d'ihm. On peut discuter aussi, puisqu'il s'agit de "vérifier à posteriori" les sorties des IAs de formaliser le résultats de ces "vérifications" dans des bases de connaissances avec des notions de vrai et de faux, potentiellement.
* et de l'autre la possibilité d'avoir un certain "instinct" sur le monde qui peut aider les algorithmes plus classiques avec du vrai et du faux mais aucune jugeote qui pourraient se perdre dans un très grand ensemble de possibilités sans discernement à trouver un chemin logique tenant compte des connaissances ordinaires des humains.
* et le tout, dans le cas de l'interaction avec le vrai monde, de valider ou pas le "monde formel" vis à vis des observations (ça semble être une des directions que prend la recherche pour l'utilisation des IAs en robotique)
C'est des directions intéressantes, c'est certain, mais c'est du boulot tout ça :)
[^] # Re: Wow
Posté par thoasm . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 2.
Je sais plus de quoi on parlait, en fait /o\
J'ai noté que tu as parlé de "peur fantasmatique" de perdre son boulot puis que
"Après, pense que tu es irremplaçable", et là je suis pas sur de voir la cohérence.
Et puis je crois que je me suis concentré sur le potentiel d'évolution, et là il n'est pas spécialement évident. Si ça dépend assez largement du jeu de données, en apprenant sur tout Internet on a probablement atteint un certain volume assez important difficile à égaler. Potentiellement il reste des jeux de données moins publics et plus restreints comme les dossiers de santé pour apprendre des diagnostics, mais ça touche d'autres problèmes éthiques. Et puis l'intérêt serait pour les pathologies rares, le truc étant que la fiabilités des IAs sur les trucs rares est pas assurée donc ça limite l'intérêt, pour le tout venant les médecins lambda savent faire.
[^] # Re: Wow
Posté par thoasm . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 2.
Si il a un contexte suffisamment grand il pourrait savoir qu'on est dans un cadre fictionnel quand on parle de Star Wars. D'ailleurs si tu lui demandes si la force existe il te dira probablement que la force n'existe pas.
J'imagine au contraire qu'un LLM avec tous ces circuits et tous ces neurones devrait être capable de discriminer les contextes et d'apprendre que certaines règles s'appliquent différemment dans différents cadre fictionnels, avec des "heuristiques" déduites du contexte pour savoir si ça s'applique ou pas.
On parle de LLM et de capacité émergentes, de trucs supposés être généraliste avec apprentissage sur tous le web.
Et puis ça ne change pas vraiment la logique, juste les lois de la physique en l'occurrence.
Et justement, toute la question à mon avis c'est jusqu'ou il est nécessaire d'avoir un bon "modèle" du monde pour prédire la suite d'un texte (enfin ce qu'on en reflète dans nos textes et leur structure) et ce qu'il est nécessaire d'en capturer pour prédire ce qu'on va écrire en suite. Est-ce qu'il y a besoin de "raisonner" (dans le sens d'encoder des règles de déduction valides) pour bien prédire ou alors avec suffisamment de données et tout pleins de neurones paramètres on peut faire un bon job avec un modèle qui ne reflète ou capture pas grand chose des réalités du monde, ou alors tellement déconnecté qu'il n'aura aucun lien entre des choses qui sont liées de manière évidente pour nous ?
[^] # Re: Wow
Posté par thoasm . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 2.
(Et pardon je m'auto-répond pour compléter parce que j'ai oublié un bout et c'est trop tard)
Et donc, à partir du moment ou de telles capacités un peu générales et applicables à chaque sous domaine un peu transversalement n'émergent pas, c'est pas évident pour moi de savoir comment ils pourraient beaucoup gagner en qualité dans le futur juste avec des incrémentations de numéro de modèle comme tu l'affirmes plus haut.
Ils sont peut-être condamnés, comme ça, à être bons à tel ou tel trucs, comme maintenant, sans pouvoir multiplier les possibilités du fait de pouvoir combiner ces capacités correctement. C'est "tel truc plus ou moins bien" et "tel autre truc plus ou moins bien", mais jamais "à la fois tel truc et tel autre truc", c'est des capacités indépendantes qui ne se combinent pas.
Dans un tel contexte, c'est peut-être plus intéressants de spécialiser des modèles sur telle ou telle tache au lieux d'avoir un gros gloubiboulga générique qui fera jamais mieux que le modèle spécialisé seul.
[^] # Re: Wow
Posté par thoasm . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 2.
Et ben pour moi non, c'est pas du tout trivial que le raisonnement soit impossible. Parce qu'il est capable d'apprendre une certaine forme de généralisation.
J'ai par curiosité essayé de lui faire appliquer un syllogisme (trivial) avec des mots inventés pour être sur que c'est pas un syllogisme de son corpus, ben il y arrive parfaitement. Donc d'une certaine manière, il est capable de faire certaines formes de raisonnement élémentaire et d'en déduire des trucs.
Une fois que tu as fait ça, en principe, il pourrait déduire d'autres trucs à partir de ça, de manière parfaitement correcte. Si il est capable d'appliquer une règle de raisonnement une fois sur des valeurs arbitraire, il devrait être capable de le faire également une autre fois. Avec dans son contexte les conclusions qu'il a déjà eu, donc d'être capable de les reprendre.
Ce qui n'est pas surprenant dans un tel cadre c'est qu'il ne soit pas vraiment capable de revenir en arrière et de remettre en cause son "raisonnement" en cas de résultat absurde parce qu'il n'y a pas de notion de "backtracking" dans une telle boucle ou il complète juste ce qui est entamé.
On pourrait aussi s'interroger sur l'émergence possible d'une notion de "vérité" et d'erreur étant donné qu'il a une certaine capacité de généralisation et qu'il a plein d'exemples, on pourrait supposer que ce soit un truc qui soit utile pour prédire le mot suivant de manière plus efficace, qu'à force de voir des textes qui utilisent plus ou moins ces notions explicitement il finisse par les "encoder" dans son réseau. Il semblerait que pour l'instant ça ne soit pas arrivé et qu'on ne voie pas venir ça, et pour moi c'est pas totalement une évidence.
[^] # Re: Wow
Posté par thoasm . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 2. Dernière modification le 26 août 2024 à 15:30.
C'est toujours marrant tout ce que les gens peuvent projeter sur tes opinions ou sur toi dés que tu tiens un discours critique.
Je suis plutôt curieux du sujet. Je suis sceptique sur le fait qu'en l'état actuel ça révolutionne réellement tant de truc que ça, et en particulier je m'intéresse pas mal aux limites du truc. Par exemple je suis assez curieux de savoir si on peut les faire raisonner, et la réponse des experts jusqu'à présent c'est plutôt "non, les LLM ne raisonnent pas vraiment et sont difficilement capable d'extrapoler sur des trucs qui sont pas présents en masse dans leur corpus", éventuellement "hors ligne" avec pas mal d'efforts on peut arriver à faire quelques trucs intéressants. On leur fait faire des maths mais c'est pas les modèles bruts, faut les intégrer dans des algos plus sophistiqués et faut les spécialiser.
Pour l'instant c'est plutôt difficile de leur faire tenir un raisonnement correct dans la durée : https://x.com/rao2z/status/1827778006972248123 Alors oui, il y a une marge de progression et les gens essayent de bien comprendre les capacités. Mais de ce que j'ai vu, et à mon avis, les LLMs sont intéressants pour ce type d'applis parce qu'ils sont capables d'extraire du "sens commun" et de guider un raisonnement, mais le vrai raisonnement devra être fait par des méthodes et des techniques algorithmiques plus traditionnels. Ils pourront peut être se servir des LLM comme "oracle" pour savoir par ou commencer, heuristiques, quand il y a plusieurs possibilité.
Également, le texte est un pâle reflet du monde et leur corpus est à la ramasse, faut leur réinjecter des nouvelles données. Et sur les modèles d'images, la correspondance riche entre le texte et les images, le raisonnement spatial, est compliqué si leur profondeur de raisonnement propre est limitée (ils sont capables de choper des éléments, mais pour tout combiner correctement et faire des trucs complexe il me semble qu'il faut rajouter du raisonnement).
Bref … "intelligence" est un terme qui veut dire bien des choses, mais sans raisonnement il me semble qu'on manque d'un ingrédient essentiel. Et leur rajouter ne viendra pas forcément gratuitement et facilement.
(pour contexte, le twit que j'ai lié, je le tiens d'un repost de Yan Le Cun, le chef de l'IA de facebook et aussi un pionnier)
[^] # Re: Wow
Posté par thoasm . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.
C'est un peu du "wishful thinking" dit comme ça. On espère un progrès, on sait pas trop comment, on sait pas trop l'évaluer et on a pas de plans mais c'est sur ça va marcher :p