L'héritage c'est un peu passé de mode dans les langages plus récents. On est passé à d'autres choses pour le sous-typage, la composition par exemple, les traits, les "enumérations" de types algébriques … exemple en Rust https://www.thecodedmessage.com/posts/oop-3-inheritance/
Ben dés que tu parles d'école de commerce ou dans le secteur marchand c'est un synonyme de "numérique" effectivement, avec un peu plus la coloration marchande. Ça pique un peu les oreilles mais c'est malheureusement bien installé et ce depuis maintenant pas mal de temps.
Pourtant à l'oral c'est parfaitement identique en prononciation. Si tu veux mettre de la conditionnalité sans ambiguïté, et à moins de vouloir tromper, il y a plus efficace comme formulation que de tout faire reposer sur la présence ou l'absence d'une lettre muette.
Ça n'a pas trop de sens, on faisait pas des programmes d'échec pour les inscrire au championnat du monde. On le faisait/fait parce que c'est un cas ou c'est encore relativement maîtrisé avec des règles claires, sur un "petit monde", avec un résultat clair (victoire/défaite). C'était un cas idéal pour l'informatique, avec les humains comme étalon.
Aujourd'hui le but s'est déplacé ailleurs, et ces programmes servent surtout à entraîner les humains et/ou trouver de nouvelles façons de jouer. On peut tenter d'optimiser à mort leurs performance et minimiser leurs consommation énergétique. C'est un vrai enjeu pour les LLMs d'ailleurs, mais d'une toute autre ampleur puisqu'on veut rouvrir des centrales nucléaires rien que pour leurs beaux yeux (ou beaux dollars).
Rien d'aussi abstrait, je pense, en guise d'approche. Le milieux et certains afficionados fantasme un peu sur une superintelligence, une "agi" capable de résoudre un peu tous les problèmes.
La réalité de la recherche et de l'ingénierie autour, c'est surtout semble-t-il d'essayer de faire des modèles plus performants en utilisants les approches d'hier, d'hybrider les LLM avec des techniques plus classiques de recherche d'information ou de résolution de problème, ou de les utiliser dans le cadre de la planification pour la robotique (semble intéresser Yann le Cun chez facebook dans ses communications sur X) — de ce que j'ai pu voir de ça c'est pour qu'un robot puisse évoluer dans le monde et effectuer des tache il a besoin d'établir un plan d'action, et pour ça il s'aide d'un LLM et de ses connaissance générale comme heuristique pour choisir des étapes (genre trouver un couteau c'est dans un tiroir de la cuisine, il y a de bonne chance, un LLM peut aider pour ce genre de trucs) dans le cadre d'un algorithme de planification plus classique. Ça reste de la recherche.
Le problème actuel semble être essayer de mitiger les hallucinations, en croisant les données avec une vraie base de donnée ou des techniques de recherches d'information plus maîtrisable (retrieval augmented generation), il me semble que microsoft vient de sortir un truc ou tu fournis un corpus de documents jugés fiables pour aider l'ia à croiser l'info de ce qu'il vient de générer, une approche pourrait être de croiser les infos factuelles avec des bases de données d'informations fiabilisées.
Pour le reste le fantasme de superintelligence ça reste du marketting et de la hype, j'ai l'impression.
Ah mais en fait quand dlfp avait des stickers "w3c/html4 (almost) fully compliant" (à la préhistoire) c'était déjà un site de vils suppôts du capitalisme socio-traîtres !
Oui, l'objection n'est pas si nouvelle, en terme d'apprentissage ca me semble être très proche si pas identique au "malédiction de la dimension" (ou fléau de la dimension).
Donc le résultat n'est pas surprenant voire déja bien connu, on a des bornes pour estimer le nombre d'échantillons nécessaires en fonction du nombre de paramètres (voir les cours de Stéphane Malat au collège de France). En fait c'est le problème avec lequel tout le domaine de bat, manifestement avec un certain succès depuis 2010 un peu à la surprise de beaucoup.
Du coup s'interroger sur leurs définitions semble être important, et simuler un être humain particulier sans erreurs me semble être restrictif en plus d'être inévaluable (si on te connait parfaitement prendrais-tu les mêmes décisions que ton double?). Je suis d'accord avec cette observation, je me suis fais la même en y repensant. On peut difficilement faire mieux que "c'est un truc plausible qu'un humain pourrait faire". On peut du coup s'interroger sur une forme de cohérence, est-ce qu'il donne un coup une décision qui serait prise par quelqu'un et un autre il adopte une toute autre personnalité incompatible, si on part sur le côté "simulation humaine". Cela dit c'est des problèmes intéressants pour les sciences cognitives, l'étude du cerveau et du rapport avec la personnalité / comportement, mais ça dépasse le cadre de l'intelligence.
C'est effectivement une question qui ne me semble pas pouvoir être enfermée dans un argument théorique aussi simple et faible, pas si original.
Je suis pas certain que ça joue dans leurs hypothèses, tout est caché dans "un moyen de choisir un échantillon dans la distribution", qui n'est absolument pas spécifié. Donc si je me trompe pas ça offre la possibilité de faire de l'apprentissage par renforcement, c'est à dire de choisir un peu les exemples en fonction de ses prédictions passées.
Mais je peux me tromper, ce qu'ils entendent par "un moyen" est assez flou, si ils le font pas c'est peut être justement comme ils le clament pour laisser vraiment les hypothèses les plus favorables. Mais je suis pas certain sur ce point et faudrait que je relise.
Doctolib a réagit semble-t-il pour démentir, une note est apparue dans l'article :
À la suite de cette chronique, Doctolib souhaite préciser que : « le dialogue entre le médecin et son patient n'est jamais enregistré ni stocké. L'assistant de consultation, activé uniquement avec le consentement du patient, se charge de la prise de notes, assure une transcription en temps réel de la consultation et en réalise une synthèse structurée. Cette synthèse sera toujours soumise à la validation ultime du médecin ».
En lisant rapidement le papier s'interroge sur la faisabilité du problème de l'apprentissage par l'exemple, en prenant l'angle de la complexité algorithmique.
L'apprentissage automatique "IA" est défini comme "à partir d'un certain nombre d'exemples de comportements humains (tiré dans un ensemble plus grand de comportements observés), apprendre un modèle ou un algorithme (d'une certaine taille) qui permette de prédire le comportement/décision humain avec une bonne probabilité"
Le raisonnement est de partir d'un problème algorithmique (perfect versus chance).
On dispose d'un certain nombre de données d'une certaine taille (un nombre de bits donnés), à chacun est associé pile ou face. On dispose d'un moyen d'en choisir au hasard
Le problème est de savoir si il existe un algorithme suffisamment "petit" (avec un certain nombre d'instruction, de taille au max k) qui puisse prédire si une donnée de notre jeu de donnée est pile ou face.
Il y a deux cas possible, soit il existe un tel algorithme de taille au max k, soit aucun des algorithmes possibles ne fait mieux que le hasard. Le problème consiste à savoir dans quel cas on est ! (on peut y voir des similarité avec la notion de complexité de kolmogorov, qui consiste à trouver le plus petit programme possible qui reproduit des données, la meilleure manière possible de compresser des données, mais en plus simple, trouver la complexité de Kolmogorov est un problème indécidable)
Il se trouve que résoudre un tel problème est NP-difficile, c'est à dire que la quantité de calcul augmente en général très rapidement avec la taille des données.
Le papier argumente que si il existait une procédure d'apprentissage automatique qui soit aussi capable de simuler un comportement humain, on pourrait l'appliquer sur un tel jeu de donnée pour voir s'il est "apprenable" avec une telle taille de modèle (cas 1), ou pas (cas 2). En lançant la procédure d'apprentissage efficace "de puissance IA" sur plusieurs jeux d'exemple du jeu de données, les auteurs argumentent qu'on pourrait en choisissant le meilleur d'entre eux décider si on est dans le cas 1 ou 2 et donc résoudre le problème "perfect by chance".
Les conséquences seraient que, comme la procédure d'apprentissage "IA" est supposée efficace et que le problème est lui impossible à résoudre efficacement, une IA est condamnée à ne jamais avoir assez d'exemple en pratique et que le nombre d'erreur doit augmenter exponentiellement. Notamment parce que prédire un comportement humain nécessite d'avoir en entrée beaucoup de données, donc le problème est algorithmiquement très gros et un algorithme exponentiel sur ce type de données c'est condamné à l'échec, donc que les modèles appris en pratique sont condamnés à être lacunaires.
Les auteurs clament avoir été charitables en hypothèses sur la procédure d'apprentissage en prenant le meilleur cas, pour trouver une borne inférieure.
Je ne suis pas certain que ce soit le cas, parce que le problème de départ sur lequel ils s'appuient pour la "réduction" est quand même très peu structuré, et que la classe de modèle sur lesquels ils s'appuient est complètement générique. Or on sait que si on restreint la classe de modèle à des modèles plus spécialisés/appropriés dans certaines taches ça change beaucoup de chose, et que les données sont probablement plus structurées que leur problème aléatoire qui ne fait aucune hypothèse sur la structure des données. Il parait évident de dire que le problème est plus simple sur des distributions avec beaucoup de structures que sur des distributions dont on ne sait rien, et que l'humain non plus ne sait rien faire avec des données aléatoires ou bien bruitées imprédictibles, donc c'est pas sympa. Est-ce bien une borne inférieure, si on rajoute des hypothèses sur la structure en entrée on doit pouvoir trouver de meilleures bornes inférieures.
Ils indiquent ensuite que diviser le problème de l'IA général en sous problèmes et en recombinant ces résultats dans un système plus gros ne change pas grand chose à leur argument, je sais pas trop ce que j'en pense pour l'instant. Et ils partent sur des considérations sur le rapport entre la cognition et l'étude de l'intelligence humaine et l'IA.
Ça coute quand même probablement plus, on compare une requête dans une base de donnée indexée avec faire tourner des modèles avec plusieurs milliers de milliards de paramètres parait-il, qu'on fait tourner 1000 fois pour une requête avec une réponse en 1000 mots … J'imagine que le matos et le logiciel sont optimisés à mort, mais quand même ça fait beaucoup de calculs.
C'est pas une simple corrélation ils ont une explication avec, qui tient la route. Si tu veux réfuter le truc il faut réfuter l'explication aussi. Le cas de Linux est sûrement particulier parce que c'est du code bas niveau qui vient avec son propre gestionnaire de mémoire et qu'il y a beaucoup de systèmes bas niveau à toucher, ce qui prend du temps, c'est les débats actuels, et c'est pourquoi qu'ils ont commencés des expérimentations avec des pilotes qui sont potentiellement moins au cœur du système.
Donc c'est une problématique, qui fait débat certes, un questionnement, mais comme dit le commentaire au dessous c'est probablement plus un problème de transition qu'une réfutation de l'intérêt de la démarche pour la sécurité. Et quand bien même ça le ferait pas pour Linux, c'est potentiellement juste un cas particulier.
Je m'interroge sur la pertinence de l'argument dans le cadre du noyau Linux et de l'introduction de Rust. En gros l'argument est que le vieux code (maintenu) a vu l'essentiel des bugs et vulnérabilités éliminées au cours du temps, et qu'en écrivant le nouveau dans des langage sur on insère pas de vulnérabilité mémoire, donc c'est plutôt gagnant.
Dans le cadre particulier de Linux et Rust par contre il semble que l'introdution de Rust impose de réécrire certaines parties du code en C. On pourrait alors arguer que ce soit à double tranchant : d'un côté c'est pour le meilleur parce que Rust est safe, et que la réécriture impose certaines contraintes de Rust et imposent de meilleures propriétés au code, d'un autre … c'est une réécriture de code potentiellement éprouvé donc qui risque d'introduire de nouveaux problèmes, un peu à rebours des arguments de l'article.
On avait la même avec le bitcoin et la réouverture de centrale au charbon. L'appat du gain détruit toutes les vélléités de faire semblant d'être écoresponsable, en remplaçant tout par des promesses aussi dithyrambiques que floues sur les applications et l'avènement d'une nouvelle utopie, pour le *washing.
Pour les emoji les systèmes de chat un peu moderne implémentent des systèmes qui vont au delà des emoji unicode, ou qui le précèdent d'ailleurs, par exemple parmi les précurseurs les totoz de hfr https://forum.hardware.fr/hfr/wiki_smilies-totoz.htm qui permettent d'insérer des petites images (avec un petit nom) dans un post de forum. C'est un système réutilisé sur la tribune de linuxfr au travers du site https://totoz.eu/ également, et extensible librement.
La plupart des systèmes de chat modernes "conviviaux" possèdent ce genre de systèmes. Ça permet de la créativité et une certaine extensibilité. C'est par contre à l'inverse plus de l'ordre de la référence entre amis que des trucs bien standardisés, même si certaines références peuvent se répandre. C'est aussi plus proche des langues de "jeunes" que des organisme de standardisation, avec ce que ça peut avoir d'aussi créatif, original ou incongru, memesque, que potentiellement éphémère, ce qui pose sans doute problème pour la standardisation.
Après si preuve d'utilisation d'ampleur il doit y avoir sur plusieurs chats ça devrait pouvoir compter pour les standardisations.
Ben on a beau voir des drapeaux bretons dans n'importe quelle manifestation publique n'importe ou en france (« il y a toujours un con avec le drapeau breton », c'est même une légende de la chanson française https://www.youtube.com/watch?v=upQMjdj-jz8) … il n'y a toujours pas de drapeau breton dans unicode à ma connaissance.
Une certaine personnalisation, genre seuls les utilisateurs de ce logiciel (rares probablement) voient le canular tandis que les autres voient du contenu "normal", potentiellement.
Des histoires de portée des définitions des variables. Plus haut quand il questionne l'équivalence des fonctions quand les expressions qui les définissent sont similaires à un renommage des variables prêt ! En logique on s'assure que les variables soient renommées si elles ne sont pas des "variables libres" dans les expressions pour garantir la correction des substitutions. Cela étant dit ça ne pose pas de problème particulier de définir une équivalence de fonction à un renommage des variables correct prêt en soi, voir par exemple ce document pour savoir comment on gère les conflits de nom de variable en logique : https://www.lri.fr/~paulin/Logique/html/cours003.html
Mais là il ajoute une problématique différente : les noms, dans un espace donné, servent parfois à nommer des direction dans l'espace ou des axes, l'axe des x pour les abscisses et les ordonnées. Ensuite c'est naturel de nommer x et y les paramètres d'une fonction qui respecte les axes.
Puis quand on dérive partiellement selon un axe ou un vecteur une fonction, on peut utiliser le nom de l'axe ou du vecteur dans l'opérateur de dérivation pour préciser la direction dans laquelle on va dériver. C'est "naturel" d'utiliser les axes bien souvent.
Mais … conflit de nommage potentiel. Si on utilise f(y, x) faut faire quoi ? Donc il préfère numéroter les axes et dériver la fonction selon le premier axe ou le deuxième, ça évite une éventuelle ambiguïté ou un conflit de nommage. Si j'ai bon.
Ça se discute clairement. On exprime pas les prix en bitcoin par exemple, parce que c'est volatil.
Si on suit Wikipédia, l'un des 3 critères c'est d'être une "unité de compte", c'est à dire qu'on peut exprimer les prix de manière naturelle dans cette devise. Et là on y est pas. C'est déflationniste, donc à long terme on a intérêt sur le papier à garder son argent parce qu'on pourra acheter plus plus tard, en tout cas en tant qu'"unité de compte" (ce qui interagi avec la fonction de réserve).
Les monnaies conventionnelles ont plutôt tendance par construction à perdre de la valeur pour que la fonction de réserve ne prenne pas le pas sur les autres et que l'argent circule, et ont des mécanisme pour assurer la relative stabilité des prix à court terme. Pour le bitcoin … ben de toute façon vu qu'il n'est pas "unité de compte" ça n'a pas de sens d'assurer une stabilité des prix, il n'y a pas d'économie qui lui est vraiment liée qui pourrait être relativement autonome. C'est au mieux une "monnaie circulante" dans le sens de l'article (terminologie que je découvre)
Techniquement c'est comme un pari sportif, quand tu perds l'argent (conventionnel) est juste déjà passé avant dans d'autres mains. C'était le tiens, tu l'as perdu, le gagnant est la personne a qui tu as acheté le bitcoin. Un jeu à somme nulle.
De ce point de vue les bitcoins créés n'ont jamais rien spécialement eu de valeur intrinsèque en monnaie conventionnelle. Ce qui aura été réduit à néant ce sera l'énergie nécessaire pour les miner, transformée en CO2, chaleur … Une grosse augmentation d'entropie. C'est pas comme cramer des billets.
[^] # Re: Vrai langage objet
Posté par thoasm . En réponse au journal Utilisation de Perl aujourd'hui.. Évalué à 3.
L'héritage c'est un peu passé de mode dans les langages plus récents. On est passé à d'autres choses pour le sous-typage, la composition par exemple, les traits, les "enumérations" de types algébriques … exemple en Rust https://www.thecodedmessage.com/posts/oop-3-inheritance/
[^] # Re: Correction du titre
Posté par thoasm . En réponse au lien Sortie de Python 3.13.0 — première version avec un mode expérimental supprimant le verrou global !. Évalué à 2.
Ah oui merci, j'ai été radin en point, une histoire de moyenne de la position des deux autres. /o\
[^] # Re: norme de CODAGE des caractères
Posté par thoasm . En réponse à la dépêche Unicode en version 16.0.0, le plein de hiéroglyphes égyptiens et de symboles informatiques. Évalué à 3.
Ben dés que tu parles d'école de commerce ou dans le secteur marchand c'est un synonyme de "numérique" effectivement, avec un peu plus la coloration marchande. Ça pique un peu les oreilles mais c'est malheureusement bien installé et ce depuis maintenant pas mal de temps.
[^] # Re: Enfin!
Posté par thoasm . En réponse à la dépêche Unicode en version 16.0.0, le plein de hiéroglyphes égyptiens et de symboles informatiques. Évalué à 4.
Pourtant à l'oral c'est parfaitement identique en prononciation. Si tu veux mettre de la conditionnalité sans ambiguïté, et à moins de vouloir tromper, il y a plus efficace comme formulation que de tout faire reposer sur la présence ou l'absence d'une lettre muette.
[^] # Re: oui, mais
Posté par thoasm . En réponse au journal Du stockage des tableaux de chaînes de caractère. Évalué à 3. Dernière modification le 04 octobre 2024 à 10:40.
Ça se conjuguerai avec les "initializer expression", tu pourrais avoir une "constexpr initializer expression" ?
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 2. Dernière modification le 02 octobre 2024 à 21:30.
Ça n'a pas trop de sens, on faisait pas des programmes d'échec pour les inscrire au championnat du monde. On le faisait/fait parce que c'est un cas ou c'est encore relativement maîtrisé avec des règles claires, sur un "petit monde", avec un résultat clair (victoire/défaite). C'était un cas idéal pour l'informatique, avec les humains comme étalon.
Aujourd'hui le but s'est déplacé ailleurs, et ces programmes servent surtout à entraîner les humains et/ou trouver de nouvelles façons de jouer. On peut tenter d'optimiser à mort leurs performance et minimiser leurs consommation énergétique. C'est un vrai enjeu pour les LLMs d'ailleurs, mais d'une toute autre ampleur puisqu'on veut rouvrir des centrales nucléaires rien que pour leurs beaux yeux (ou beaux dollars).
[^] # Re: Critique du papier
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 2.
Rien d'aussi abstrait, je pense, en guise d'approche. Le milieux et certains afficionados fantasme un peu sur une superintelligence, une "agi" capable de résoudre un peu tous les problèmes.
La réalité de la recherche et de l'ingénierie autour, c'est surtout semble-t-il d'essayer de faire des modèles plus performants en utilisants les approches d'hier, d'hybrider les LLM avec des techniques plus classiques de recherche d'information ou de résolution de problème, ou de les utiliser dans le cadre de la planification pour la robotique (semble intéresser Yann le Cun chez facebook dans ses communications sur X) — de ce que j'ai pu voir de ça c'est pour qu'un robot puisse évoluer dans le monde et effectuer des tache il a besoin d'établir un plan d'action, et pour ça il s'aide d'un LLM et de ses connaissance générale comme heuristique pour choisir des étapes (genre trouver un couteau c'est dans un tiroir de la cuisine, il y a de bonne chance, un LLM peut aider pour ce genre de trucs) dans le cadre d'un algorithme de planification plus classique. Ça reste de la recherche.
Le problème actuel semble être essayer de mitiger les hallucinations, en croisant les données avec une vraie base de donnée ou des techniques de recherches d'information plus maîtrisable (retrieval augmented generation), il me semble que microsoft vient de sortir un truc ou tu fournis un corpus de documents jugés fiables pour aider l'ia à croiser l'info de ce qu'il vient de générer, une approche pourrait être de croiser les infos factuelles avec des bases de données d'informations fiabilisées.
Pour le reste le fantasme de superintelligence ça reste du marketting et de la hype, j'ai l'impression.
[^] # Re: Toujours pareil
Posté par thoasm . En réponse au lien Doctolib déploie une IA pour capter et analyser les conversations patients-médecins ! . Évalué à 2.
Ah mais en fait quand dlfp avait des stickers "w3c/html4 (almost) fully compliant" (à la préhistoire) c'était déjà un site de vils suppôts du capitalisme socio-traîtres !
[^] # Re: Critique du papier
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 5.
Ça dépend, il fait quoi le hasard, par hasard ?
[^] # Re: Critique du papier
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 3.
Oui, l'objection n'est pas si nouvelle, en terme d'apprentissage ca me semble être très proche si pas identique au "malédiction de la dimension" (ou fléau de la dimension).
Donc le résultat n'est pas surprenant voire déja bien connu, on a des bornes pour estimer le nombre d'échantillons nécessaires en fonction du nombre de paramètres (voir les cours de Stéphane Malat au collège de France). En fait c'est le problème avec lequel tout le domaine de bat, manifestement avec un certain succès depuis 2010 un peu à la surprise de beaucoup.
Du coup s'interroger sur leurs définitions semble être important, et simuler un être humain particulier sans erreurs me semble être restrictif en plus d'être inévaluable (si on te connait parfaitement prendrais-tu les mêmes décisions que ton double?). Je suis d'accord avec cette observation, je me suis fais la même en y repensant. On peut difficilement faire mieux que "c'est un truc plausible qu'un humain pourrait faire". On peut du coup s'interroger sur une forme de cohérence, est-ce qu'il donne un coup une décision qui serait prise par quelqu'un et un autre il adopte une toute autre personnalité incompatible, si on part sur le côté "simulation humaine". Cela dit c'est des problèmes intéressants pour les sciences cognitives, l'étude du cerveau et du rapport avec la personnalité / comportement, mais ça dépasse le cadre de l'intelligence.
C'est effectivement une question qui ne me semble pas pouvoir être enfermée dans un argument théorique aussi simple et faible, pas si original.
[^] # Re: (tentative de) résumé du papier
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 3.
Je suis pas certain que ça joue dans leurs hypothèses, tout est caché dans "un moyen de choisir un échantillon dans la distribution", qui n'est absolument pas spécifié. Donc si je me trompe pas ça offre la possibilité de faire de l'apprentissage par renforcement, c'est à dire de choisir un peu les exemples en fonction de ses prédictions passées.
Mais je peux me tromper, ce qu'ils entendent par "un moyen" est assez flou, si ils le font pas c'est peut être justement comme ils le clament pour laisser vraiment les hypothèses les plus favorables. Mais je suis pas certain sur ce point et faudrait que je relise.
[^] # Re: Toujours pareil
Posté par thoasm . En réponse au lien Doctolib déploie une IA pour capter et analyser les conversations patients-médecins ! . Évalué à 5.
Doctolib a réagit semble-t-il pour démentir, une note est apparue dans l'article :
# (tentative de) résumé du papier
Posté par thoasm . En réponse au lien Team claims human-level AI is impossible — ever. Évalué à 10.
En lisant rapidement le papier s'interroge sur la faisabilité du problème de l'apprentissage par l'exemple, en prenant l'angle de la complexité algorithmique.
L'apprentissage automatique "IA" est défini comme "à partir d'un certain nombre d'exemples de comportements humains (tiré dans un ensemble plus grand de comportements observés), apprendre un modèle ou un algorithme (d'une certaine taille) qui permette de prédire le comportement/décision humain avec une bonne probabilité"
Le raisonnement est de partir d'un problème algorithmique (perfect versus chance).
On dispose d'un certain nombre de données d'une certaine taille (un nombre de bits donnés), à chacun est associé pile ou face. On dispose d'un moyen d'en choisir au hasard
Le problème est de savoir si il existe un algorithme suffisamment "petit" (avec un certain nombre d'instruction, de taille au max k) qui puisse prédire si une donnée de notre jeu de donnée est pile ou face.
Il y a deux cas possible, soit il existe un tel algorithme de taille au max k, soit aucun des algorithmes possibles ne fait mieux que le hasard. Le problème consiste à savoir dans quel cas on est ! (on peut y voir des similarité avec la notion de complexité de kolmogorov, qui consiste à trouver le plus petit programme possible qui reproduit des données, la meilleure manière possible de compresser des données, mais en plus simple, trouver la complexité de Kolmogorov est un problème indécidable)
Il se trouve que résoudre un tel problème est NP-difficile, c'est à dire que la quantité de calcul augmente en général très rapidement avec la taille des données.
Le papier argumente que si il existait une procédure d'apprentissage automatique qui soit aussi capable de simuler un comportement humain, on pourrait l'appliquer sur un tel jeu de donnée pour voir s'il est "apprenable" avec une telle taille de modèle (cas 1), ou pas (cas 2). En lançant la procédure d'apprentissage efficace "de puissance IA" sur plusieurs jeux d'exemple du jeu de données, les auteurs argumentent qu'on pourrait en choisissant le meilleur d'entre eux décider si on est dans le cas 1 ou 2 et donc résoudre le problème "perfect by chance".
Les conséquences seraient que, comme la procédure d'apprentissage "IA" est supposée efficace et que le problème est lui impossible à résoudre efficacement, une IA est condamnée à ne jamais avoir assez d'exemple en pratique et que le nombre d'erreur doit augmenter exponentiellement. Notamment parce que prédire un comportement humain nécessite d'avoir en entrée beaucoup de données, donc le problème est algorithmiquement très gros et un algorithme exponentiel sur ce type de données c'est condamné à l'échec, donc que les modèles appris en pratique sont condamnés à être lacunaires.
Les auteurs clament avoir été charitables en hypothèses sur la procédure d'apprentissage en prenant le meilleur cas, pour trouver une borne inférieure.
Je ne suis pas certain que ce soit le cas, parce que le problème de départ sur lequel ils s'appuient pour la "réduction" est quand même très peu structuré, et que la classe de modèle sur lesquels ils s'appuient est complètement générique. Or on sait que si on restreint la classe de modèle à des modèles plus spécialisés/appropriés dans certaines taches ça change beaucoup de chose, et que les données sont probablement plus structurées que leur problème aléatoire qui ne fait aucune hypothèse sur la structure des données. Il parait évident de dire que le problème est plus simple sur des distributions avec beaucoup de structures que sur des distributions dont on ne sait rien, et que l'humain non plus ne sait rien faire avec des données aléatoires ou bien bruitées imprédictibles, donc c'est pas sympa. Est-ce bien une borne inférieure, si on rajoute des hypothèses sur la structure en entrée on doit pouvoir trouver de meilleures bornes inférieures.
Ils indiquent ensuite que diviser le problème de l'IA général en sous problèmes et en recombinant ces résultats dans un système plus gros ne change pas grand chose à leur argument, je sais pas trop ce que j'en pense pour l'instant. Et ils partent sur des considérations sur le rapport entre la cognition et l'étude de l'intelligence humaine et l'IA.
[^] # Re: Deux critiques ! la définition et ChatGPT.
Posté par thoasm . En réponse à la dépêche Y a le Frido 2024 qu'est là. Évalué à 2.
Ça coute quand même probablement plus, on compare une requête dans une base de donnée indexée avec faire tourner des modèles avec plusieurs milliers de milliards de paramètres parait-il, qu'on fait tourner 1000 fois pour une requête avec une réponse en 1000 mots … J'imagine que le matos et le logiciel sont optimisés à mort, mais quand même ça fait beaucoup de calculs.
[^] # Re: Le noyau Linux et cette approche
Posté par thoasm . En réponse au lien De l'intérêt majeur de choisir un langage memory safe pour tout nouveau code d'un projet existant. Évalué à 3.
C'est pas une simple corrélation ils ont une explication avec, qui tient la route. Si tu veux réfuter le truc il faut réfuter l'explication aussi. Le cas de Linux est sûrement particulier parce que c'est du code bas niveau qui vient avec son propre gestionnaire de mémoire et qu'il y a beaucoup de systèmes bas niveau à toucher, ce qui prend du temps, c'est les débats actuels, et c'est pourquoi qu'ils ont commencés des expérimentations avec des pilotes qui sont potentiellement moins au cœur du système.
Donc c'est une problématique, qui fait débat certes, un questionnement, mais comme dit le commentaire au dessous c'est probablement plus un problème de transition qu'une réfutation de l'intérêt de la démarche pour la sécurité. Et quand bien même ça le ferait pas pour Linux, c'est potentiellement juste un cas particulier.
# Le noyau Linux et cette approche
Posté par thoasm . En réponse au lien De l'intérêt majeur de choisir un langage memory safe pour tout nouveau code d'un projet existant. Évalué à 5.
Je m'interroge sur la pertinence de l'argument dans le cadre du noyau Linux et de l'introduction de Rust. En gros l'argument est que le vieux code (maintenu) a vu l'essentiel des bugs et vulnérabilités éliminées au cours du temps, et qu'en écrivant le nouveau dans des langage sur on insère pas de vulnérabilité mémoire, donc c'est plutôt gagnant.
Dans le cadre particulier de Linux et Rust par contre il semble que l'introdution de Rust impose de réécrire certaines parties du code en C. On pourrait alors arguer que ce soit à double tranchant : d'un côté c'est pour le meilleur parce que Rust est safe, et que la réécriture impose certaines contraintes de Rust et imposent de meilleures propriétés au code, d'un autre … c'est une réécriture de code potentiellement éprouvé donc qui risque d'introduire de nouveaux problèmes, un peu à rebours des arguments de l'article.
[^] # Re: Enfin!
Posté par thoasm . En réponse à la dépêche Unicode en version 16.0.0, le plein de hiéroglyphes égyptiens et de symboles informatiques. Évalué à 2.
Si on pouvait se débarrasser des lettres muettes aussi, tant qu'à faire dans le minimalisme, je signe.
[^] # Re: Deux critiques ! la définition et ChatGPT.
Posté par thoasm . En réponse à la dépêche Y a le Frido 2024 qu'est là. Évalué à 2.
Ça se voit "un peu" quand l'énergie est un sujet majeur, quand Google voulait produire sa propre énergie il y a quelques années avec du renouvelable défois (ça s'est pas fait il me semble), et plus récemment quand on parle de rouvrir des centrales nucléaires accidentées, rien que ça, juste pour l'IA : https://linuxfr.org/users/vmagnin/liens/la-centrale-nucleaire-de-three-mile-island-renait-pour-microsoft
On avait la même avec le bitcoin et la réouverture de centrale au charbon. L'appat du gain détruit toutes les vélléités de faire semblant d'être écoresponsable, en remplaçant tout par des promesses aussi dithyrambiques que floues sur les applications et l'avènement d'une nouvelle utopie, pour le *washing.
[^] # Re: Enfin!
Posté par thoasm . En réponse à la dépêche Unicode en version 16.0.0, le plein de hiéroglyphes égyptiens et de symboles informatiques. Évalué à 4.
Pour les emoji les systèmes de chat un peu moderne implémentent des systèmes qui vont au delà des emoji unicode, ou qui le précèdent d'ailleurs, par exemple parmi les précurseurs les totoz de hfr https://forum.hardware.fr/hfr/wiki_smilies-totoz.htm qui permettent d'insérer des petites images (avec un petit nom) dans un post de forum. C'est un système réutilisé sur la tribune de linuxfr au travers du site https://totoz.eu/ également, et extensible librement.
La plupart des systèmes de chat modernes "conviviaux" possèdent ce genre de systèmes. Ça permet de la créativité et une certaine extensibilité. C'est par contre à l'inverse plus de l'ordre de la référence entre amis que des trucs bien standardisés, même si certaines références peuvent se répandre. C'est aussi plus proche des langues de "jeunes" que des organisme de standardisation, avec ce que ça peut avoir d'aussi créatif, original ou incongru, memesque, que potentiellement éphémère, ce qui pose sans doute problème pour la standardisation.
Après si preuve d'utilisation d'ampleur il doit y avoir sur plusieurs chats ça devrait pouvoir compter pour les standardisations.
[^] # Re: Enfin!
Posté par thoasm . En réponse à la dépêche Unicode en version 16.0.0, le plein de hiéroglyphes égyptiens et de symboles informatiques. Évalué à 4.
C'est vrai qu'à terme, si unicode est utilisé universellement, ça risque d'être difficile de justifier de l'utilisation d'un nouveau symbole si quasi personne ne l'utilise parce qu'il n'est pas dans unicode. Ça rappelle par exemple l'histoire de l'insertion du drapeau breton dans unicode ou il y a eu une expérimentation et des campagnes pour motiver les gens à l'utiliser sur les réseaux sociaux pour démontrer qu'il y avait un besoin https://www.emoji.bzh/ https://www.emoji.bzh/ https://www.bretagne.bzh/presse/communiques-dossiers/emojibzh-a-vos-tweets-pour-soutenir-la-creation-de-lemoji-drapeau-breton/
Ben on a beau voir des drapeaux bretons dans n'importe quelle manifestation publique n'importe ou en france (« il y a toujours un con avec le drapeau breton », c'est même une légende de la chanson française https://www.youtube.com/watch?v=upQMjdj-jz8) … il n'y a toujours pas de drapeau breton dans unicode à ma connaissance.
[^] # Re: Sécurité
Posté par thoasm . En réponse au journal Traduire un flux rss à la volée. Évalué à 2.
Une certaine personnalisation, genre seuls les utilisateurs de ce logiciel (rares probablement) voient le canular tandis que les autres voient du contenu "normal", potentiellement.
[^] # Re: Sécurité
Posté par thoasm . En réponse au journal Traduire un flux rss à la volée. Évalué à 2.
Plutôt la "blague" de l'ami qui veut tester ta crédulité en insérant des fausses infos dans la fil.
[^] # Re: infecte notation ?
Posté par thoasm . En réponse à la dépêche Y a le Frido 2024 qu'est là. Évalué à 8.
Des histoires de portée des définitions des variables. Plus haut quand il questionne l'équivalence des fonctions quand les expressions qui les définissent sont similaires à un renommage des variables prêt ! En logique on s'assure que les variables soient renommées si elles ne sont pas des "variables libres" dans les expressions pour garantir la correction des substitutions. Cela étant dit ça ne pose pas de problème particulier de définir une équivalence de fonction à un renommage des variables correct prêt en soi, voir par exemple ce document pour savoir comment on gère les conflits de nom de variable en logique : https://www.lri.fr/~paulin/Logique/html/cours003.html
Mais là il ajoute une problématique différente : les noms, dans un espace donné, servent parfois à nommer des direction dans l'espace ou des axes, l'axe des x pour les abscisses et les ordonnées. Ensuite c'est naturel de nommer x et y les paramètres d'une fonction qui respecte les axes.
Puis quand on dérive partiellement selon un axe ou un vecteur une fonction, on peut utiliser le nom de l'axe ou du vecteur dans l'opérateur de dérivation pour préciser la direction dans laquelle on va dériver. C'est "naturel" d'utiliser les axes bien souvent.
Mais … conflit de nommage potentiel. Si on utilise f(y, x) faut faire quoi ? Donc il préfère numéroter les axes et dériver la fonction selon le premier axe ou le deuxième, ça évite une éventuelle ambiguïté ou un conflit de nommage. Si j'ai bon.
[^] # Re: pas Ponzi
Posté par thoasm . En réponse au journal Pourquoi le rêve du bitcoin est fini.. Évalué à 4.
Ça se discute clairement. On exprime pas les prix en bitcoin par exemple, parce que c'est volatil.
Si on suit Wikipédia, l'un des 3 critères c'est d'être une "unité de compte", c'est à dire qu'on peut exprimer les prix de manière naturelle dans cette devise. Et là on y est pas. C'est déflationniste, donc à long terme on a intérêt sur le papier à garder son argent parce qu'on pourra acheter plus plus tard, en tout cas en tant qu'"unité de compte" (ce qui interagi avec la fonction de réserve).
Les monnaies conventionnelles ont plutôt tendance par construction à perdre de la valeur pour que la fonction de réserve ne prenne pas le pas sur les autres et que l'argent circule, et ont des mécanisme pour assurer la relative stabilité des prix à court terme. Pour le bitcoin … ben de toute façon vu qu'il n'est pas "unité de compte" ça n'a pas de sens d'assurer une stabilité des prix, il n'y a pas d'économie qui lui est vraiment liée qui pourrait être relativement autonome. C'est au mieux une "monnaie circulante" dans le sens de l'article (terminologie que je découvre)
[^] # Re: pas Ponzi
Posté par thoasm . En réponse au journal Pourquoi le rêve du bitcoin est fini.. Évalué à 10. Dernière modification le 10 septembre 2024 à 20:02.
Techniquement c'est comme un pari sportif, quand tu perds l'argent (conventionnel) est juste déjà passé avant dans d'autres mains. C'était le tiens, tu l'as perdu, le gagnant est la personne a qui tu as acheté le bitcoin. Un jeu à somme nulle.
De ce point de vue les bitcoins créés n'ont jamais rien spécialement eu de valeur intrinsèque en monnaie conventionnelle. Ce qui aura été réduit à néant ce sera l'énergie nécessaire pour les miner, transformée en CO2, chaleur … Une grosse augmentation d'entropie. C'est pas comme cramer des billets.
Ça a payé des maisons à certains chanceux.