Moonz a écrit 3686 commentaires

  • [^] # Re: Pendant ce temps

    Posté par  . En réponse au journal De développeur à orchestrateur, comment l'IA a changé ma vie. Évalué à 5 (+5/-2). Dernière modification le 24 mars 2026 à 14:01.

    Je te trouve bien tranché dans tes opinions, dans un domaine qui évolue très vite, et qui est de base extrêmement flou.

    "Soit l’IA est un outil qui fascine les incompétents, soit l’IA et un outil qui peut aider les compétents" (et je me suis très fortement décidé sur le premier cas).

    "Soit l’IA est un générateur de bullshit convainquant, soit l’IA est réellement capable de faire du travail de fond" (et je me suis très fortement décidé sur le premier cas).

    Comme j’ai dit ailleurs dans le fil, il y a clairement des développeurs dont la compétence n’est pas à mettre en doute qui arrivent à tirer profit de l’IA. Il y a évidemment des développeurs compétents qui ne veulent pas ou n’arrivent pas à tirer profit de l’IA (dont tu sembles faire partie, je nommerai également Drew DeVault). Il y a même des développeurs incompétents qui arrivent à tirer profit de l’IA (c’est plus compliqué, mais c’est possible, il faut juste rester à la hauteur de ses ambitions). Et évidemment beaucoup d’incompétents qui se tirent une balle dans le pied en acceptant aveuglement tout ce que l’IA balance et se retrouvent au mieux avec une solution inmaintenable, au pire avec quelque chose de déployé "dans le cloud" qui coûte trois reins qui a plus de failles de sécurité qu’un Windows ME non patché.

    Je ne comprend réellement pas ce qui justifie ta position "non, l’IA ne fait que fasciner les incompétents".

    Le point générateur de bullshit convainquant vs capable de faire du travail de fond est éclairant. La réponse est clairement "les deux mon capitaine". Rien que dans les liens que je mentionne dans les "nouvelles sur l’IA de mars 2025" :

    Générateur de bullshit :

    Travail de fond :

    Et c’est tout les mois la même chose : The Good, The Bad and The Ugly. Avoir une opinion tranchée dans un sens ou dans l’autre (l’IA ne fait que du bon travail ou l’IA ne fait que du travail médiocre) est clairement, à ce stade, une erreur.

    Maintenant j’aimerai parler un peu de prendre du recul. Ce que j’ai l’impression que personne n’est capable de faire, comme si le passé n’existait pas, qu’on vivait dans un présent perpétuel déraciné, à la 1984.

    Le recul, c’est que si tu dis en 2021, "en 2026 on a des IA assez avancées pour faire du travail de fond en mathématiques, sécurité informatique, programmation, mais avec toutefois des résultats assez inégaux…"

    1. Tu seras pris pour un malade, un fou furieux à enfermer. Par moi le premier.
    2. De manière évidente et très claire tout le monde te dira que l’information choquante, importante dans cette phrase, est la partie avant le "mais", pas la partie après le "mais".

    Je ne comprend pas pourquoi, aujourd’hui, on tient tant à se concentrer sur la partie après le "mais". Je pense que la réponse serait quelque chose comme "je suis fatigué de toute cette hype, on voit bien que l’outil est survendu", et encore une fois, j’ai envie de dire, il faut prendre du recul. Je laisse la parole à Andrej Karpathy :

    The majority of the ruff ruff is people who look at the current point and people who look at the current slope.

    Ce que je mettrai en ces termes : se concentrer sur les limitations actuelles est une erreur :

    • Épistémologique, si on essentialise et éternalise ces limitations, plutôt que de les considérer telles qu’elles sont réellement : les limitations actuelles. Tu es cash sur incompétents vs compétents, ce que j’apprécie, alors permet moi d’être cash. Tu es un être humain. Doué de raison et d’un cerveau. Tu as le droit et en un sens le devoir de les utiliser pour extrapoler au mieux de tes capacités intellectuelles les tendances, de te projeter dans l’avenir. "Oui mais qui formera les juniors de demain" est une très bonne question, mais qui j’ai l’impression sous-tend une certaine présupposition que l’IA n’aura pas évolué dans ses capacités dans 10 ans, ce à quoi je me contenterai de dire "WTF ? Pourquoi ? Sur quoi se base cette croyance ?". As-tu vu, remarqué le rythme d’évolution ?

    • Instrumentale : 1. un outil imparfait aujourd’hui peut quand même être d’une grande aide, et apprendre à travailler avec (et ses imperfections) un gain important et 2. l’outil imparfait d’aujourd’hui permet de se familiariser avec l’outil moins imparfait qui sera là demain

  • [^] # Re: Pendant ce temps

    Posté par  . En réponse au journal De développeur à orchestrateur, comment l'IA a changé ma vie. Évalué à 3 (+2/-1).

    Les deux dernières personnes ont maintenu des logiciels à un niveau d’exigence (de par l’ampleur de leur déploiement) que je pense aucun d’entre nous ne peut prétendre. Je pense que ni toi ni moi n’avons de leçon à leur donner sur le poids de la maintenance applicative. Et Eric Raymond ne fait pas que s’émerveiller, il explique ouvertement que la plupart du code qu’il publie est maintenant écrit par l’IA (sévèrement tenue en laisse, justement parce qu’il considère important de garder des très hautes exigences en termes d’architecture, justement pour ces raisons de maintenabilité).

    Et de fait, à ma connaissance, aucun des deux ne s’est émerveillé par le serverless et les microservices.

  • [^] # Re: Pendant ce temps

    Posté par  . En réponse au journal De développeur à orchestrateur, comment l'IA a changé ma vie. Évalué à 3 (+3/-2). Dernière modification le 23 mars 2026 à 14:08.

    Je vais avoir une position extrêmement agressive : j'ai l'impression que les personnes qui sont le plus fascinées par l'IA sont des mauvais devs

    Non.

    Donald Knuth. Eric Raymond. antirez.

    Pas vraiment des mauvais devs.

  • [^] # Re: Inutile

    Posté par  . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 3 (+1/-0).

    Exemple, avec toutes ces connaissances et cette puissance, les IAs devraient pouvoir générer des schémas d'anatomie élémentaire ?

    Je sous-estime régulièrement des capacités de l’IA à générer des images. Non pas parce qu’elles sont spectaculairement bonnes, mais parce que mon préjugé est justement qu’elles sont, ou devraient être, catastrophiques.

    Les IA aujourd’hui sont principalement entraînées sur du texte. À comprendre du texte, raisonner sur du texte, générer du texte. Avec un petit poil de compréhension d’image pour pouvoir mettre « multimodal ! » sur la plaquette publicitaire.

    Sais-tu ce qu’il se passe quand tu demandes à ChatGPT de générer une image ? Il écrit un prompt à un modèle complètement différent spécialisé dans la génération d’image (type MidJourney, je crois qu’il s’appelle sobrement imagegen chez OpenAI ?). Ce n’est pas ChatGPT lui-même qui génère l’image.

    Ça a longtemps été mon problème « philosophique » avec ARC-AGI 1/2 : ce sont principalement des tâches de raisonnement visuel, avec du mouvement implicite. Rien de surprenant à ce que ce soit extrêmement difficile pour des modèles génératifs de texte. La surprise est que les modèles arrivent à progresser dessus.

    Et ce post sur Bluesky est justement ce que j’essaie de combattre. On prend un domaine sur lequel l’IA est particulièrement faible par construction (de manière connue pour des raisons connues, qui plus est, je peux encore pardonner les 9.11-9.8 quand on ne comprenait pas pourquoi l’IA se plantait systématiquement sur ce genre de problème arithmétique simple) pour se positionner de manière grandiloquente « vous voyez, MOI, je suis capable de voir plus loin que la hype et l’arnaque marketing », et à coup d’emojis "🤡". Le tout sur un ton dégoulinant de suffisance.

    L’équivalent d’un bonobo lisant la page Wikipedia Optical illusion pour triomphalement en conclure « vous voyez ? pas si malin que ça, l’espèce humaine, vous êtes vraiment cons de tomber dans le panneau de la hype ».

  • [^] # Re: Inutile

    Posté par  . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 2 (+0/-0).

    moi je les trouve surtout… décousus

    Disons charitablement que c’est un goût acquis.

    (oui, son style est très décousu, lourd en références et sous-entendus)

    Si tu veux des lectures moins décousues, plus en profondeur sur le sujet de « menaces de l’IA » :

    https://www.thecompendium.ai/summary : reste mon introduction préférée, de loin, au sujet
    https://en.wikipedia.org/wiki/If_Anyone_Builds_It,_Everyone_Dies : je ne l’ai pas lue, mais je suppose que le nom de l’auteur suffit à en faire une référence sur le sujet ?

    Mais pour suivre l’actualité, malheureusement, je ne vois rien de mieux que Zvi.

    Et j'ai l'impression que ce raisonnement fonctionne pour tout un tas de trucs. Peut-être qu'on aurait dû arrêter l'IA dès ELIZA ?

    Note que cet article, écrit en 2017, à l’époque d’un GPT-1 (Google, pas OpenAI, qui n’existait pas) très peu impressionnant, n’argue pas « il faut arrêter le développement de l’IA ». Il argue : « les choses peuvent progresser plus vite que beaucoup ne pensent, il s’agirait de se préparer sérieusement à cette éventualité » (et en 2017, « se préparer », ça signifie travailler sur l’alignement de l’IA, pas penser gouvernance et traités internationaux).

    Concrètement, qu'est-ce que tu entends par "faire pression sur les US pour que eux régulent" ?

    Je ne faisais que répondre à « Je suis convaincu que la démarche de l'UE d'essayer de réguler est la bonne ».

    L’UE régulant l’IA résout certains problèmes de responsabilité vis à vis de la fiabilité (il se passe quoi s’il y a un mort suite à l’IA donnant un mauvais conseil) qui, pour être honnête, ne m’émeut pas vraiment.

    L’UE régulant l’IA ne résout absolument aucun problème quant à la menace existentielle de l’IA. Si l’UE veut attaquer ce problème, la seule voie possible est diplomatique, demander plus ou moins poliment aux US de restreindre la course à l’IA des mastodontes qui sont installés là bas (oui, si ça arrive, il faudra se poser la question de Mistral… je ne pense pas que ce soit le point le plus problématique de la discussion). Comment ? Est-ce crédible ? Ai-je plus de détails en tête ? Pas vraiment, mon opinion personnelle est que l’UE va principalement jouer un rôle de spectateur, en tout cas initialement.

    Et puis il ne faut pas oublier la Chine qui n'a pas l'air de vouloir réguler

    La Chine est entièrement ouverte à la régulation : https://carnegieendowment.org/research/2025/06/how-some-of-chinas-top-ai-thinkers-built-their-own-ai-safety-institute, https://carnegieendowment.org/research/2025/06/how-some-of-chinas-top-ai-thinkers-built-their-own-ai-safety-institute

    Je suis certainement par trop désabusé mais j'ai dans l'idée qu'il va falloir attendre une catastrophe pour que ça arrive

    Je ne serai pas si certain. Le grand public déteste profondément l’IA (parfois pour de mauvaises raisons). La principale barrière politique à une pause, à mon sens, est le phénomène décrit dans l’article dont on a discuté : c’est embarrassant pour un politicien de prendre tout ceci au sérieux. Ceci est sur le point de changer, et commence déjà à changer. Dans la sphère politique aussi, les choses peuvent basculer rapidement.

  • [^] # Re: Présentation inversée

    Posté par  . En réponse au journal Alison Bechdel sur France culture. Évalué à 4 (+3/-1).

    Intérêt romantique.

  • [^] # Re: Inutile

    Posté par  . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 3 (+1/-0). Dernière modification le 08 mars 2026 à 22:59.

    Mais donc si jamais ça partait en sucette, à quel point il serait compliqué d'éteindre des machines et puis faire un revert pour revenir à un état où la machine nous obéissait ?

    Parce que tu t’imagines un scenario à la terminator/matrix où il y a une IA clairement et ouvertement hostile en conflit ouvert avec une humanité unie. Je ne pense pas qu’il y aie la moindre personne qui pense sérieusement qu’un tel scenario soit plausible.

    (si tu veux rester dans la fiction, tu as de meilleures images dans cette courte histoire sur Twitter, ou la version narrée de AI 2027, ou cette histoire de Gwern, qui se rapprochent bien plus d’inquiétudes réelles.)

    J’aimerai te donner une réponse courte et simple mais il n’y en a pas, parce qu’il y a des tonnes de scenario différents, avec des hypothèses différentes, qui répondent différemment à cette question.

    Dans le scenario le plus proche de ce que tu décris implicitement, où une IA devient suffisamment avancée en terme de capacités pour être une menace pour l’humanité, et devient hostile à l’humanité, la réponse est simple : une telle IA est suffisamment intelligente pour ne pas dévoiler son hostilité avant de devenir essentiellement autonome.

    Un autre scenario possible : les choses accélèrent tellement vite que la boucle OODA des institutions humaines n’est pas capable d’être assez rapide pour observer et répondre au problème (termes derrière ce scenario : Intelligence Explosion / Recursive Self-Improvement / Hard takeoff)

    Autre scenario possible, celui décrit par Gradual Disempowerment, où les choses avancent de manière presque imperceptible, à la manière de l’évolution naturelle ; une entreprise qui adopte un peu plus l’IA qui ses concurrents gagne des parts de marché ; un parti politique qui s’appuie un peu plus sur l’IA a plus de succès ; un pays qui intègre un peu plus l’IA dans ses structures de gouvernance obtient plus d’influence, de sorte qu’au bout de 10 ans, la totalité du système économique et politique est sous le contrôle de l’IA, sans qu’on puisse mettre le doigt sur le moment où l’humanité a abandonné le contrôle.

    La réponse simple et courte : ce sera très compliqué d’« éteindre les machines » parce qu’il n’y aura jamais de moment clair où « on peut débrancher et il faut évidemment débrancher », ce qui avait déjà été explicitement expliqué en 2017.

  • [^] # Re: Inutile

    Posté par  . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 3 (+1/-0).

    Mais croissance de quoi ? Un ingé devrait être capable de définir un poil ce qu'il prétend mesurer et la fiabilité du proxy. Encore mieux si il y a consensus sur la mesure et qu'on e connaît bien les critiques et les limites.

    METR publie en détails sa méthodologie ici : https://arxiv.org/abs/2503.14499

  • [^] # Re: Merci

    Posté par  . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 2 (+0/-0).

    Je ne connais pas la littérature scientifique sur les singularités technologiques

    Rien. Historiquement, la question n’a intéressé qu’une poignée de futuristes amateurs, au mieux dans le département de philosophie des universités (on pensera évidemment à Nick Bostrom).

    Ce qui s’en rapproche le plus est AI 2027. Qui a généré un peu de discussions académiques et de retours. Mais à ma connaissance, aucun effort parallèle pour produire un modèle alternatif.

  • [^] # Re: Inutile

    Posté par  . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 2 (+0/-0). Dernière modification le 05 mars 2026 à 16:58.

    Je remets juste en cause le discours de arnaudus qui semble dire que ces questions sont tranchése, que les améliorations des benchmarks ne font que renforcer une seule hypothèse comme si les autres hypothèses n'avaient aucun sens et était une forme de dénie. je rappelle juste qu'il y a encore beaucoup de flous et d'hypothèses sur la table et que la question ne semble pas tranchée et qu'il faudra probablement du temps pour évaluer tout ça et améliorer les protocoles d'évaluation car la question est finalement très récente. D'autant plus que savoir mesurer exactement d'où viennent ces gains et ce que ça implique c'est important et ça a des implications fortes. Le sujet reste réellement complexe.

    Retournons à l’image du COVID.

    En février 2020, il y a toujours des débats de savoir si le COVID est transmis par l’air ou pas. Point de vue simpliste : les gens qui ont le COVID toussent. Le COVID semble une maladie respiratoire. Mettez vos masques. Point de vue complexe : c’est pas parce que les voies respiratoires sont irritées que le patient rejette des particules virales. Plus de recherche est nécessaire.

    À un instant donné, il faut prendre des décisions et se faire une opinion en fonction des données qu’on a, pas des données qu’on aimerait avoir (sauf si tu peux avoir ces données que tu veux facilement et rapidement, évidemment) :

    "Faut-il que je m’achète un masque ?" / "Est-ce qu’il faut commencer à s’inquiéter de ces gens qui disent ouvertement vouloir construire une superintelligence, ou est-ce des paroles en l’air d’escrocs en mal d’argent d’investisseurs ?"

    Sur l’IA, les données qu’on a, c’est essentiellement METR. Les données sont elles parfaites et permettent-elles de répondre à toutes nos interrogations ? non. À la question « ces développement sont-ils inquiétants », ces données vont elles clairement dans un sens ? Oh que oui.

    Je ne pense pas qu’arnaudus dise que toutes les questions sont littéralement tranchées. Je pense qu’arnaudus dit qu’on a assez de données pour avoir une opinion nécessairement provisoire et imparfaite mais tout de même assez informée pour décider d’acheter un masque.

    Je remets juste en cause le discours de arnaudus qui semble dire que ces questions sont tranchése, que les améliorations des benchmarks ne font que renforcer une seule hypothèse comme si les autres hypothèses n'avaient aucun sens et était une forme de dénie

    Je crois que vous n’avez pas la même idée en tête de « ces autres hypothèses ».

    Je pense (je peux me tromper) que dans ta tête ces autres hypothèses sont du genre « il est trop tôt pour décider à quel point les performances généralisent aux domaines sur lesquels l’IA n’est pas entraînée ». C’est possiblement raisonnable. J’aimerai qu’on me montre les évaluations où l’IA ne progresse pas, ceci dit. Il y a des évaluations ésotériques tierces qui testent clairement les modèles dans des domaines où ils ne sont pas entraînés (par exemple « Claude plays Pokemon »). Je n’en connais pas un seul qui ne montre un certain progrès.

    Les "hypothèses" qu’arnaudus a en tête (encore une fois, pas télépathe, je peux me tromper) : « les progrès de l’IA sont un mensonge marketing pour faire vendre ChatGPT ». Et oui : à ce niveau, je le rejoint, on peut clairement appeler ça du déni, pas besoin d’invoquer des subtilités sur les complexités du sujet.

    Je suis convaincu que la démarche de l'UE d'essayer de réguler est la bonne

    Ça va me faire une belle jambe de savoir que mon usage de ChatGPT est régulé en Europe si OpenAI est en train de créer une superintelligence aux US.

    La démarche de l’UE devrait être de faire pression sur les US pour que eux régulent.

    Malheureusement, avec Trump, c’est un poil compliqué.

  • [^] # Re: Inutile

    Posté par  . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 3 (+1/-0).

    Car typiquement il arrive qu'il y ait des raisonnements erronés (mauvais raisonnement -> bon résultat quand même, ou raisonnement correct -> mauvais résultat) ce qui peut être lié à la méthodologie derrière.

    Comme chez les êtres humains tu veux dire ? :)

    Je pense que tu ignores que c'est un sujet très discuté et loin d'être clos, comme la recherche publique et indépendante a toujours un train de retard ce n'est pas évident. Un peu de prudence épistémique ne ferait pas de mal.

    Je met ma casquette activiste Pause IA pour un moment.

    Je suis d’accord.

    Tout comme la question de la transmission aérienne du COVID en février 2020 était un sujet discuté et loin d’être clos.

    Il y a, fondamentalement, deux manières de réagir à une exponentielle : trop tôt ou trop tard. Se réfugier derrière l’incertitude pour justifier l’inaction, ce n’est pas de la prudence, c’est se forcer à l’alternative « trop tard ». Pour le COVID, nous avons choisi l’option « trop tard », pour exactement la même raison que nous sommes en train de choisir l’option « trop tard » pour l’IA. Par peur du ridicule de présenter aussi sérieusement un scénario aussi « étrange, hors de l’ordinaire ». Par mimétisme « personne ne semble inquiet, pourquoi devrais-je l’être ».

    Proposition : Au rythme de progression actuel de l’IA, l’IA sera capable de réaliser rapidement et économiquement toute tâche intellectuelle réalisable par un être humain d’ici 7 ans. Ça inclut : toutes les activités économiques en col blanc, toutes les activités économiques en col bleu réalisables à travers un robot (industriel ou humanoïde), l’organisation d’une campagne politique en démocratie, la planification stratégique au sein d’un état-major d’une puissance mondiale, les débats et prise de décision au sein d’un gouvernement, des décision personnelles telles que « comment éduquer mon enfant », la recherche scientifique.

    C’est l’extrapolation directe et brute (relisez ces deux mots, ils sont importants) de nos meilleures données QUE J’ESSAIE DEPUIS MAINTENANT UN AN DE FAIRE RENTRER DANS VOS CERVEAUX BORDEL DE MERDE (désolé, ça devait sortir). Ça ne signifie évidemment aucune certitude ; nos données peuvent être insuffisantes et ne pas capturer des dimensions nécessaires de l’intelligence ; la tendance peut peut-être s’arrêter brutalement sans raison claire. Dans l’autre sens : la tendance pourrait très bien s’accélérer maintenant que l’IA participe et accélère le développement de l’IA. Un meilleur paradigme peut apparaître à tout moment, et à nouveau accélérer les choses. L’incertitude ne va pas uniquement dans le sens de l’optimisme.

    Mais la perspective de « d’ici 7 ans, l’être humain devient obsolète » mériterait peut être une autre réaction que « je ne sais pas, c’est pas clair, voyons bien ce qui arrive », qui est la stratégie actuelle ?

    Au fond, en réalité, qu’est-ce qui me rend fou ?

    Si vous lisez Zvi en entier et pas mes résumés, il y a quelques détails intéressants (que je met de côté sur mes dépêches, parce que ce sont des détails). Notamment : certains sénateurs aux US sont inquiets de cette perspective, mais n’osent pas élever la voix non pas de la peur des grand méchants lobbystes de l’IA, mais bien par la peur de paraître ridicule de croire à un « tels scénario de science fiction ». « Qu’est-ce que mes électeurs vont penser de moi, si je me ridiculise ainsi ? »

    Autrement dit : chacun d’entre vous qui se moque de « oh, ces inquiétudes de nerds qui ont lu trop de science fiction » contribue activement à supprimer le discours autour de ce point de détail du futur. Chacun d’entre vous qui répète bêtement « perroquets stochastiques ! » vote de fait contre « il faudrait prendre au sérieux cette problématique ». De l’aveu même de ceux qui seraient en position de faire des lois sur ce sujet.

    Je ne vous demande pas de devenir activiste, ou de contribuer à Pause IA.

    J’essaie simplement d’éteindre cette conception fausse et néfaste du progrès de l’IA comme un truc un peu nébuleux au mieux, une arnaque marketing au pire. En espérant que ceux qui me lisent arrêtent de tourner au ridicule ces inquiétudes, sous couvert de « oh, c’est juste des gens qui ont avalé les couleuvres marketing des vendeurs d’IA » ou « soyons prudent, rien n’est certain, les chercheurs du domaine ne pensent qu’il y a que 5% de chances pour que l’IA fasse disparaître l’humanité, pas de quoi s’inquiéter ».

    Vous avez maintenant la version longue de pourquoi j’écris ces dépêches.

    Ce n’est pas grand chose, mais c’est un moins une action décente

    Je ne suis pas convaincu qu'il y ait d'ailleurs un vrai consensus scientifique sur ce genre de questions

    Non, il n’y en a pas. J’en profite pour partager mes bookmarks sur ce sujet, qui est à ma connaissance l’état de l’art sur la question. Qui vont prudemment dans le sens « indices (très) faibles dans le sens les modèles peuvent/sont conscients » :

    https://transformer-circuits.pub/2025/introspection/index.html
    https://arxiv.org/abs/2510.24797

    Une résultat intéressant, plus récent, allant dans l’autre direction (mais évalué sur des LLMs de 2024, en 2026, ça fait un peu tâche, à voir ce qu’ils trouvent avec des LLMs de fin 2025/début 2026) :

    https://arxiv.org/abs/2601.17060

  • [^] # Re: Inutile

    Posté par  . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 4 (+3/-1). Dernière modification le 05 mars 2026 à 14:07.

    Vous êtes sérieux ? C’est des maths niveau terminale…

    Petit cours de rattrapage.

    Une exponentielle, x(t) = exp(a*t), est une fonction qui a une propriété particulière : elle est sa propre dérivée : d/dt exp(a*t) = a*exp(a*t). En langage plus simple : plus tu as de x, plus vite la quantité de `x augmente. Généralement, on dit « la quantité de x double tous les ln2/a ».

    Graphiquement : si sur ton axe des abscisses est "normal", mais que ton axe des ordonnées est en puissances de 10 (0.1 / 1 / 10 / 100 / 1000) (ou toute autre base, mais ne complexifions pas), et que ta courbe est une droite, c'est une exponentielle.

    Exemple dans le monde réel : une colonie de bactéries dans une boîte de petri.

    Une fonction f est négligeable devant une fonction g si lim f(t)/g(t) = 0 (t tendant vers l’infini) ; une super-exponentielle est une fonction devant laquelle toute exponentielle est négligeable (tout comme si une fonction est une exponentielle, alors tout polynôme est négligeable devant elle).

    Exemples sous forme analytique : df/dt = f^2. f(t) = exp(t*ln(t)).

    Graphiquement : si sur les mêmes axes ta courbe ressemble à quelque chose qui « grandit plus vite qu’une droite », tu as une super-exponentielle.

    Dans la vie réelle, en plus du lien plus haut, tu as ceci par exemple.

    Le rapport avec la choucroute ?

    METR, pour tous ses défauts (il en a !) et toutes les critiques qu’on lui adresse (parfois justes !), reste de très loin le meilleur outil pour mesurer les progrès de l’IA. Et il y a débat sur : exponentielle (doublement tous les 7 mois, ou exponentielle par paliers (qui est par définition une super-exponentielle si les temps de doublement raccourcissent à chaque pallier) ? L’argument des pro-pallier : si on ne prend que les modèles post-ChatGPT-o1, qui introduit l’apprentissage par renforcement sur les chaînes de pensées, la tendance dans ce sous-ensemble est un doublement tous les 4-5 mois.

    (il y a débat parce que les données brutes ne sont pas assez précises pour permettre de trancher).

  • [^] # Re: Inutile

    Posté par  . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 5 (+4/-1).

    Ça fait un peu genre les modèles ont "conscience que"

    J’allais m’insurger en disant « même si j’ai écrit "ont conscience que", il faut savoir raison garder, il s’agit d’une image ; quand je dis "j’ai corrigé un bug sur l’application, ça marche", je ne dis pas que l’application a littéralement gagné des jambes et se met à faire les cent pas dans le bureau ».

    Et ensuite j’ai vu que je n’ai pas utilisé ce terme, ce que tu admets toi même.

    Du coup je ne comprend même pas la critique en fait. C’est parce que j’ai utilisé des termes que tu n’aimes pas mais qui n’ont pas d’alternative correcte claire ? Vraiment ?

    Ça fait un peu genre les modèles ont "conscience que". On le lit régulièrement depuis des mois

    Tu te fais des films dans ta tête, et ensuite tu t’insurges sur le comportement d’acteurs sortis de ton imagination.

    J’essaie très fort justement de ne pas aborder ce sujet de "la conscience des modèles". Parce que j’essaie de me consacrer sur ce qui fait raisonnablement consensus. Par exemple : j’ai volontaire omis beaucoup de papiers potentiellement intéressant (dans un sens ou dans l’autre) qui ont fait du bruit, mais avec également beaucoup de critiques et contre-critiques et contre-contre-critiques valides. Parce que couvrir le papier honnêtement demande de couvrir la critique, la contre-critique, la contre-contre-critique, et que la dépêche est suffisamment longue même sans ça.

    Et sur la conscience des modèles, ont est à peu près dans le même cas, sauf que tout le monde s’accorde à dire « on ne sait pas, et on est tellement perdus qu’on a pas la moindre idée de comment déterminer si un modèle est conscient ou pas — ou même de comment aborder la question. On a pas le début d’une piste ». Et au delà de cet accord sur, il y a des débats avec énormément d’opinions différentes, autour de « est-ce même possible, est-ce plausible, est-ce probable ? »

    Si tu as connaissance que les modèles n’ont pas de conscience ? Tu es à des années lumière devant les esprits les plus brillants du domaine qui admettent n’avoir aucune certitude sur le sujet. Tu devrais songer à publier un papier. À noter que tu as contre toi Geoffrey Hinton qui pense (sans en avoir la certitude) que les IA sont déjà conscientes. Mais si tu as connaissance qu’ils n’en ont pas, tu ne devrais avoir aucune difficulté à nous en convaincre ?

    Quant au discours faussement « on me le fait pas à moi, c’est juste une stratégie marketing », je note que tous les acteurs du secteur qui essaient de vendre des choses évitent scrupuleusement le sujet comme si c’était de la kryptonite, à l’exception d’Anthropic qui considère la question comme « sérieuse et importante, méritant considération, mais sans réponse claire » dans ses System Card.

    Parce que, sous couvert de neutralité

    Franchement, ceci continue à me rendre fou.

    1. Je ne prétend pas à la neutralité. J’écris même explicitement le contraire dans le chapeau.

    2. Cette dépêche est effectivement la moins neutre de la série, celle où j’ai considéré plus important de laisser transparaître mes opinions plutôt que d’édulcorer le langage.

    3. Si après avoir lu cette dépêche, tu ne comprends pas que mon biais personnel est « qu’est-ce qu’on attend exactement pour lancer un Jihad butlérien », je ne sais pas ce qu’il faut de plus.

  • [^] # Re: autre input

    Posté par  . En réponse au journal Publication de uback 0.7(.1). Évalué à 2 (+0/-0).

    est-ce que tu gères un S3 comme source

    Non. L’outil n’est qu’un wrapper autour de sources existantes (comme mariabackup) et à ma connaissance S3 n’a pas vraiment son mariabackup.

    Est-ce facile d'ajouter des scripts pour sauver du influxdb par exemple ?

    Si tu es un sysadmin qui fait ses scripts pour gérer ses backups, tu sauras créer une source oui. Par exemple : ré-implémentation de la source tar tar dans les tests unitaires (un poil plus compliquée que nécessaire : pour tar le type de snapshot devrait être bookmark, pas "configurable", j'ai rendu configurable de manière un peu artificielle pour les besoins des tests unitaires)

  • [^] # Re: rclone ?

    Posté par  . En réponse au journal Publication de uback 0.7(.1). Évalué à 3 (+1/-0). Dernière modification le 02 mars 2026 à 11:25.

    L’article montre très bien que mariabackup ne gère pas le chiffrement et la compression par lui même (c’est pas une critique ; ce n’est pas son boulot) : l’auteur utilise deux outils externes (gzip & openssl) wrapppés dans un script shell pour se faire. uback se substitue à ces deux outils & le wrapper, pas à mariabackup.

    Et oui, uback n’est pas capable de créer des sauvegardes incrémentales par lui-même, il se repose sur la source (comme ici mariabackup) pour le faire. Ce que j’entends par "gèrer les sauvegardes incrémentales", c’est la couche de gestion au dessus :

    • Ne pas réaliser de sauvegarde incrémentale si la sauvegarde complète de base (ou une sauvegarde incrémentale intermédiaire) a été perdue sur la destination
    • Même si une sauvegarde incrémentale est possible, forcer une sauvegarde complète tous les x jours
  • [^] # Re: rclone ?

    Posté par  . En réponse au journal Publication de uback 0.7(.1). Évalué à 5 (+3/-0). Dernière modification le 01 mars 2026 à 17:07.

    Le script utilise mariadb-dump pour produire un .sql à partir d’une base physique. Il utilise podman pour lancer une instance de mariadb correspondant à la version qui a généré le backup physique (pour éviter de lancer un mariadb 10 installer sur une sauvegarde physique générée par mariadb 12).

    Pour faire simple, quand tu demandes à uback de restaurer une sauvegarde mariadb, il te donne un dossier physique (l’équivalent de /var/lib/mysql) + ces deux scripts te permettant facilement d’obtenir un .sql à partir du dossier physique. Si ton but est juste de restaurer l’ensemble de la base, un simple mv restored-data/ /var/lib/mysql est suffisant (juste attention à l’owner évidemment) et tu peux ignorer ces scripts.

    C’est pour les collègues qui disent "j’aimerai bien l’état de la table T de la base B il y a un mois". uback restore, puis le script ./sqldump-podman.sh B T > b-t.sql.

    (et uback restore utilise par défaut podman pour utiliser la bonne version de mariadb-backup correspondant au mariadb-backup qui a généré le backup)

  • [^] # Re: rclone ?

    Posté par  . En réponse au journal Publication de uback 0.7(.1). Évalué à 7 (+5/-0). Dernière modification le 01 mars 2026 à 13:19.

    Je n'utilise pas rclone mais apparemment l'option --backup-dir avec sync permet de faire cela.

    Oui, mais ensuite en cas de restauration sur un point précédent, tu dois avoir un système pour revenir au point précédent, que tu vas devoir faire toi même. Exactement comme "garder un ensemble de copies datées" vs "faire une copie", ou gérer la politique de rétention : rclone est certainement une brique te permettant de mettre en place un système de sauvegardes mais une bonne partie de ces tâches autour de la brique restent à ta charge. Et à ce moment, autant se diriger vers une solution de sauvegarde qui prend en charge tout ça.

    Si tu en arrives à là, il vaut mieux un vrai système de sauvegarde. restic, borg (pour système de fichier générique) ou uback (pour sources hétérogènes).

    En quoi n'est-ce pas valide ? Évidemment pour une sauvegarde physique des bases de données il convient d’arrêter au préalable le service.

    Oui, évidemment, c’était sous entendu "sans arrêter mariadb".

    Par ailleurs, il y a un outil dédié : mariadb-backup pour faire des sauvegarde physiques complètes ou incrémentales.

    Tout à fait, et c’est ce que uback utilise : https://github.com/sloonz/uback/blob/main/sources/mariabackup.go. Mais mariabackup ne gère pas la politique de rétention, pas le chiffrement, et ne fait qu’écrire soit sur stdout, soit sur le système de fichier (pas s3, pas ftp…).

    C’est pile poile la problématique à laquelle uback répond : "j’ai mariadbackup qui peut produire des sauvegardes, mais n’a pas tout ces trucs autours que j’attends d’un système complet de sauvegardes" (et : je n’ai pas que mariadb, j’ai aussi des datasets zfs, une instance etcd, quelques instances valkey, des données sur un bon vieux système de fichiers ext4… comment je les fait partager une politique de rétention, des même clés de chiffrement, des même credentials sftp ?)

  • [^] # Re: rclone ?

    Posté par  . En réponse au journal Publication de uback 0.7(.1). Évalué à 7 (+5/-0). Dernière modification le 01 mars 2026 à 11:56.

    La réponse est simple : aucun rapport entre les deux, ce sont des outils complètement différents :)

    Une copie n’est pas une sauvegarde — si un malware chiffre tes données 5 minutes avant que ton script rclone tourne, ça te fait une belle jambe 2 heures plus tard quand tu t’en rends compte que au moins si ton disque dur crash tes données "chiffrées" aient une copie ailleurs.

    Un ensemble de copies datées est une sauvegarde. Mais il faut maintenant gérer "j’en garde combien, pour combien de temps", aka une politique de rétention. Ce que rclone ne fait pas. Et si tu gardes naïvement 30 copies (une copie journalière) de tes données de 100 Go, ça fait 30 To de sauvegardes, souvent avec énormément de redondance entre deux copies, donc tu te dis rapidement "j’aimerai que mes sauvegardes soient incrémentales, et ne prennent en espace disque supplémentaire que ce qui a changé". Là encore on sort du cahier des charges de rclone.

    Et tu ne peux pas sauvegarder (physiquement) une base mariadb avec rclone. rclone /var/lib/mysql /mnt/nfsbackups/mysql/$(date) n’est pas une opération valide. La seule solution est une sauvegarde logique (mariadb-dump), qui a l’inconvénient d’un temps de restauration assez long sur une grosse base (reconstruction des index notamment).

    La comparaison serait plus avec une solution telle que restic ou borg (qui pour le coup ont politique de rétention et sauvegardes incrémentales), et la réponse est simple : restic et borg sont spécialisés dans "sauvegardes d’une hiérarchie de fichiers générique", et sont probablement une meilleure solution si c’est la seule chose que tu veux faire, mais sont incapables également de sauvegarder (physiquement) une base mariadb, ou d’utiliser des snapshots ZFS/btrfs comme mécanisme de sauvegarde incrémentale, préférant la déduplication au moment du stockage.

  • [^] # Re: Rien de nouveau sous le soleil

    Posté par  . En réponse au journal Eric S. Raymond sur la peur (des développeurs) de l'IA. Évalué à 5 (+3/-0).

    Pour le coup vraiment non.

    La différence entre junior et senior ce n’est pas la vitesse à laquelle on tape au clavier. C’est l’expérience permettant de prendre de (bonnes) décisions architecturales (on fait ça comme ci, pas comme ça) voire stratégiques (on fait ci, pas ça).

    Ni les IA actuelles ni les devs junior n’en sont capable (c’est même à ça qu’on définit junior/senior, pas au nombre d’années), et un junior doté d’une IA n’en sera pas plus capable.

    L’IA, au contraire, amplifie cette primauté de l’expérience.

  • [^] # Re: Rien de nouveau sous le soleil

    Posté par  . En réponse au journal Eric S. Raymond sur la peur (des développeurs) de l'IA. Évalué à 4 (+2/-0). Dernière modification le 28 février 2026 à 10:46.

    J'ai pris ma retraite en 2004, durant mes quelque 39 ans de carrière, la phrase "la programmation, c'est fini, elle va être automatisée" sorte de façon récurrente. Et moi, durant tout ce temps, je gagnais très bien ma vie en programmant. Soyons honnête, la partie analyse du problème posé, les méthodes numériques ou les algorithmes à appliquer, occupaient plus de temps que le codage proprement dit.

    C’est aussi l’argument d’ESR.

    Et je ne comprend pas cet argument. Qui, exactement (des noms !) ont dit "la programmation va être automatisée" ? Le seul exemple que j’aie en tête (de ma carrière certes plus courte que ça ma pas toute jeune non plus) c’est la mouvance no-code, que pas grand monde hors sphère pipotrice LinkedIn n’a pris au sérieux.

    L’IA, aujourd’hui, produit du code utilisé dans des vrais projets déployés en production. Oui, on est d’accord que les IA actuelles ne sont pas encore au point d’entièrement remplacer le développeur compétent. Mais commne le dit Karpathy : “The majority of the ruff ruff is people who look at the current point and people who look at the current slope”. La tendance à l’amélioration rapide et significative des capacités de l’IA est claire, et il serait surprenant que ça s’arrête demain comme par hasard.

    Mon expérience : aujourd’hui en tant que dev senior je note qu’il est plus efficace de donner une tâche à Codex (et en le supervisant ensuite) qu’en donnant la même tâche à un dev junior (et en le supervisant ensuite). Pour le dire moins poliment : l’IA est déjà, aujourd’hui, capable d’automatiser la part "programmation" d’un dev ayant 3 ans d’expérience (école de programmation incluse) — ce qui aurait encore été du domaine de la science fiction en 2024. Ça inclut maintenant des « juniors » qui ont 2-3 ans d’expérience sur le projet sur lequel ils bossent. L’IA de février de 2026 est capable de prendre en charge (de manière supervisée toujours) des tâches que je n’aurai déléguées ni à un junior ni à une IA de juin 2025.

    À quel moment je suis censé observer ça et me dire « l’IA ne me remplacera jamais moi » ? En quoi serait-ce une inférence raisonnable ?

  • [^] # Re: Censurer le facho c'est censurer toute opinion.

    Posté par  . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 1 (+0/-1).

    On sait parfaitement ce qu'est le fascisme. C'est une manipulation assez classique d'essayer de faire croire que le concept est mal défini et que tout le monde pourrait être qualifié de fasciste.

    Nicolas Sarkozy ? Manuel Valls ?

  • [^] # Re: Je ne te le fais pas dire…

    Posté par  . En réponse au journal Politique, vélo (et logiciels libre même combat ?).. Évalué à 4 (+2/-0).

    Merci, au moins une personne a compris. J’ai battu mon précédent record de 0, j’en ai les larmes aux yeux !

  • [^] # Re: Je ne te le fais pas dire…

    Posté par  . En réponse au journal Politique, vélo (et logiciels libre même combat ?).. Évalué à 5 (+3/-0).

    Les systèmes de fichiers hiérarchiques étant évidemment d’obédience fasciste.

  • [^] # Re: Je ne te le fais pas dire…

    Posté par  . En réponse au journal Politique, vélo (et logiciels libre même combat ?).. Évalué à 6 (+4/-0).

    "Ce n'est pas politique" n'est pas une formule magique qui efface les relations humaines ! C'est une question de raison sociale et de cadre commun, question qui est éminemment politique.
    J'ai l'impression que tu parles plutôt de quelque chose comme l'objet ou la raison sociale d'un groupe thématique.

    On est globalement d’accord, oui, modulo le fait que c’est un aspect (important) du sujet, mais pas le seul.

    Au delà d’un groupe thématique explicite, il y a des normes culturelles plus floues. Quand le groupe est informel, ou que le sujet n’est pas explicitement dans les règles. « X n’est pas politique » est essentiellement dans un tel contexte une norme culturelle disant « on est là pour parler de X, pas pour parler de sujets politiques vaguement liées à X ». Je considère cette norme comme extrêmement importante. Parce que, encore une fois, la coopération entre être humains, c’est compliqué, et cette norme est un outil précieux pour mettre sous le tapis des conflits qui n’ont aucune raison d’être dans un contexte donné (ce qui ne signifie pas que ces conflits n’ont aucune raison d’être tout court et ne sont pas importants !). Même principe que le groupe thématique, mais le fait qu’un groupe ne soit pas formellement, explicitement un groupe thématique n’autorise pas pour autant à mettre sur le tapis des conflits idéologiques profonds qui ne seront de toute façon pas résolus en une conversation. La norme que j’essaie de pointer, c’est que si Alice dit « je suis pas là pour parler politique » et Bob insiste pour « parler politique », dans la plupart des contextes, par défaut, la bienséance donne raison à Alice. Parce que, encore une fois, si des siècles de gue-guerre gauche/droite n’ont pas résolu le conflit, ce n’est pas en l’introduisant là où il n’était pas que les choses vont avancer, au contraire.

    Un autre aspect, même en dehors de « groupe thématique/règles de bonne conduite », c’est que « tout est politique donc la recette tarte aux poires est politique » est une inférence pour le moins douteuse (pitié, dites moi que je n’ai pas à justifier ça), donc que la réalité est de fait plus compliquée que le slogan simple « tout est politique ». Qu’il y a des gradations, et que s’il y a des gradations, on peut faire des catégories. Il y a une énorme différence entre « l’État français est laïque » que je n’ai aucun souci à résumer (grossièrement) à « la religion n’est pas un sujet politique » (qui est globalement l’objectif de la laïcité, même si effectivement les détails d’implémentation sont inévitablement dans la sphère politique) et « tuez les tous, Dieu reconnaîtra les siens ».

    Mais honnêtement, j’ai l’impression qu’on entre dans trop de détails et de subtilités quand on considère que ce qui a lancé la conversation est le slogan pas du tout détaillé et subtil de « tout est politique ».

    Si tu veux vraiment continuer la conversation, je préférerai te demander plutôt ça :

    Pourquoi ploum peut-il dire « tout est politique », sans nécessité d’écrire des pavés pour se justifier, alors que moi qui dit « non, la recette de la tarte aux poires n’est évidemment pas politique, pas dans le sens commun du terme », je dois me justifier sur des pages et des pages ? (une partie de l’explication est que je ne dis pas que ça, mais je ne pense pas que ce soit la totalité de l’explication)

  • [^] # Re: Je ne te le fais pas dire…

    Posté par  . En réponse au journal Politique, vélo (et logiciels libre même combat ?).. Évalué à 9 (+7/-0).

    Non, mais je dois répondre de cette manière pour désamorcer le piège.

    D’un côté : je suis désolé pour ploum si ce n’est pas son intention consciente, pas une stratégie explicite raisonnée.

    D’un autre côté, non, pas désolé.

    Premièrement, je n’ai jamais dit que c’était son intention conscience (j’aurai pu être plus explicite, il est vrai, mais mes messages ne sont-ils pas déjà trop longs ?). Je ne pense pas que ce soit le cas : ce genre de stratégie se développe et s’affine culturellement, par imitation. ploum voit dans son environnement (je ne sais pas lequel) que « tout est politique » marche bien, est extrêmement simple à communiquer, éminemment défendable (il suffit de ressortir le premier sens !) et permet de faire avancer sa rhétorique sans grande résistance (compte donc le nombre de mots qu’il me faut pour péniblement résister à ces trois mots magiques… la plupart des gens ne font pas l’effort, moi même je ne fait pas l’effort la plupart du temps)). ploum décide donc de répéter « tout est politique », sans même avoir conscience qu’il s’agit d’une arme rhétorique.

    Deuxièmement : que ce ne soit pas son intention ne l’absout pas pour autant de sa responsabilité.