Renault a écrit 7489 commentaires

  • [^] # Re: Explications

    Posté par  (site web personnel) . En réponse au message Utilité d'utiliser un noyau RT ?. Évalué à 6 (+3/-0).

    Il faut d'abord rappelé qu'il faut que les logiciels soient écrits pour être temps réel,

    Pour en tirer pleinement bénéfice, oui.
    Mais les effets d'un noyau temps réels s'appliquent même si tes applications ne sont pas conçues dans cette optique.

    C'est d'ailleurs aussi le problème, activer le temps réel sur un système où ça n'a pas d'intérêt peut réduire les performances globales car tu mets en place des restrictions qui n'ont pas de sens dans ce contexte.

    Cependant il est possible que les moteurs de jeux ou d'autres puissent l'être.

    Non, les OS grands publics tels que Windows ou macOS et même Linux jusqu'à récemment n'étaient pas temps réels durs. Peu d'intérêt de les développer avec cela en tête, surtout que les contraintes du JV sont souvent mou (si ton PC est trop lent, on saute une frame et voilà).

    Typiquement, je ne pense pas que le navigateur soit conçu temps réel, il risque donc de souffrir car il ne préemptera pas or c'est le soft n°1 aujourd'hui.

    Système temps réel n'implique pas préemption collaborative, c'est même jamais le cas sinon tu n'as que peu de moyen de garantir un délai d'exécution bornée.

    D'ailleurs le fait que le noyau ne rendait pas la main dans certains cas (notamment lors des communications sur port séries / terminaux) était une limitation de Linux dans ce domaine et qui faisait qu'il fallait se trimballer le correctif RT pour lever ces obstacles.

    Pour un PC de jeux, c'est peut-être utile pour améliorer la réactivité…

    Mon message explique que globalement c'est faux. Tu donnes des garantie de réactivité minimale, mais souvent au détriment de la réactivité moyenne.

    Puis bon le concept de temps réel alors qu'on implique un composant aussi complexe qu'un GPU à côté qui fait lui même des calculs très sophistiqués, c'est tout un programme. :D

    Mais si tu en a tu peux petut-être gagner des mili-secondes au mouvement de souris

    Non.

    Car dans un JV le pipeline est très spécifique : entrée (souris) -> calculs d'actions -> rendu de l'image -> affichage sur écran en boucle. Le fait de capturer le mouvement de la souris un peu plus tôt n'a pas forcément d'impact si le JV est aux étapes suivantes dans sa suite de calcul. Cela sera toujours pris en compte pour la frame suivante.

    En fait pour le JV ce n'est pas le temps réel qui compte vraiment, c'est l'ordonnancement global. Pour notamment s'assurer que tu n'interromps pas le JV pour d'autres tâches subsidiaires au mauvais moment. Ou que par exemple dans ta pile de threads qui compose ton jeu certains soient réveillés pour rien ou à un moment par propice car ce n'est pas le bon moment selon le statut du pipeline.

    Il y a des démos de setup d'ordonnancements maisons avec sched_ext (en gros pouvoir modifier l'ordonnancement du noyau à la volée de manière sûre) dans le cadre des jeux et les gains étaient largement possibles en jouant dessus. Aucun rapport avec le temps réel cependant.

  • [^] # Re: Explications

    Posté par  (site web personnel) . En réponse au message Utilité d'utiliser un noyau RT ?. Évalué à 10 (+13/-0).

    Le temps réel pour la bureautique n'est pas nécessaire. Ni même pour les jeux vidéo.

    En fait le concept de temps réel pour un système d'exploitation est une notion plutôt industrielle et peu intuitive. L'idée est qu'un système d'exploitation réalise de nombreuses tâches provenant de plein de sources d'entrées (clavier, souris, réseau, autres) et doit aussi permettre d'exécuter des processus divers.

    Sauf que dans de nombreux cas, on souhaite avoir la garantie que les entrées et que certains processus soient exécutés au plus tard dans (par exemple) 10 millisecondes. Dans le milieu industriel les cas d'exemple sont légions, on peut penser à un système pour lequel on souhaite que des vérifications ou procédures d'arrêt puissent s'exécuter dans tous les cas à une vitesse assez vite.

    C'est le cas aussi dans certains protocoles avec des timings très précis, par exemple dans un projet industriel sur lequel je travaille, il faut être capable de renvoyer sur le port série une réponse 6 millisecondes au plus tard (et 3 millisecondes au plus tôt) après une requête. Sans temps réel, il est facile pour Linux de manquer ces objectifs et donc la communication va avoir beaucoup de rater selon l'état du système. Avec le temps réel on peut dire au noyau "ce processus a des contraintes temps réels" et le noyau fera en sorte que les réponses sortent à la bonne cadence pour respecter le protocole.

    Cependant cette garantie de temps de réaction se fait souvent de manière contre intuitive au détriment de la performance brute. En fait on essaye de borner la latence maximale dans le pire cas du système mais pour cela on augmente en général la latence moyenne. L'utilisateur bureautique souhaite en général qu'en moyenne cela soit le plus rapide possible, et de temps en temps si le système a une latence un peu plus longue au niveau du système cela n'a aucune importance. D'autant plus que dans la majorité des cas, le soucis n'est pas au niveau de l'OS mais est au niveau applicatif.

    Pour la MAO cela a du sens car la moindre latence en dehors de la limite acceptable dans le traitement du son peut se répercuter dans le rendu final. Mais c'est de moins en moins vrai avec l'amélioration des performances globales de la machine qui font que les situations où on est hors des clous pour ce cas d'usage sont de plus en plus rare même sans temps réel dur.

  • # Merci linuxfr.org

    Posté par  (site web personnel) . En réponse à la dépêche 20 ans de Fedora-fr : dernier entretien avec Aurélien membre de l'équipe infrastructure de Fedora. Évalué à 8 (+5/-0).

    Merci à l'équipe de m'avoir autorisé de publier cette série d'entretiens ici, j'espère que ça a intéressé du monde et que cela n'a pas trop été vécu comme du spam.

  • [^] # Re: C’est bien, mais !

    Posté par  (site web personnel) . En réponse au lien Finalement Systemd c'est une bonne techno (avec 12 ans de recul). Évalué à 6 (+3/-0).

    Tu ne peux pas partir sur le nombre de paquets pour définir la modularité d'un logiciel.

    Par exemple le noyau Linux est monolithique d'un point de vue architecture du noyau, mais tu peux avoir des milliers de modules et techniquement on peut les fournir individuellement dans un paquet à part même si personne ne le fait car le ratio effort / utilité est faible.

    Pour systemd c'est pareil, quand tu fais ton firmware avec tu as le moyen de compiler ce dont tu as besoin et tu as des paquets plus fins que ce que ArchLinux propose. Sans doute parce que pour ArchLinux c'est plus simple de faire ainsi.

    Chaque distro et mainteneur a ses spécificités à cet égard.

  • [^] # Re: Où placer la subversion ?

    Posté par  (site web personnel) . En réponse au journal Libre est Queer. Évalué à 6 (+3/-0).

    Ça ne marche pas comme ça. Cortex ne se lève tous les matins pour conquérir le monde.

    Quand tu construits un robot qui remplace une tâche effectuée par un humain, c'est évident que tu vises à remplacer des jobs. Non pas que c'est mal dans l'absolu, on a de bonnes raisons de le faire, mais on en a pleinement conscience.

    Quand tu développes un jeux vidéo ce qui est de l'informatique, bah de près comme de loin je ne vois pas en quoi ça peut effleurer l'esprit de quiconque, ni même que ça ait du sens. Ça automatise quoi un développeur de JV ?

    C'est un cas particulier les cas de 1 pour 1 que tu recherche.

    Pas du tout, suffit de voir dans son ensemble, assez peu de métiers ont disparu à cause de l'informatique. Beaucoup ont par contre beaucoup évolué dans leur pratique c'est indéniable. Et c'est ce qui a permis aussi de changer des choses dans la société.

    Il faut imaginer une croissance infinie dans un monde fini pour envisager que passer son temps à automatiser n'a pas d'impact

    Mais j'ai cité des tas de développeurs qui n'automatisent dans l'absolu aucun job, ou seulement certaines parties très délimitées. Ils automatisent au mieux leur environnement de travail pour la plupart, avec quelques limites. On est très loin jusqu'ici du grand remplacement des travailleurs avec l'informatique. L'IA changera peut être ça, ce n'est pas anodin et c'est plutôt nouveau comme phénomène en terme d'ampleur et par le côté systémique.

  • [^] # Re: Où placer la subversion ?

    Posté par  (site web personnel) . En réponse au journal Libre est Queer. Évalué à 7 (+4/-0).

    Non, effectivement, mais tout ceux qui cherchent à automatiser et faciliter des procédures ne peuvent ignorer que la partie la charge de travail fait nouvellement par la machine var induire fatalement, comment dit on… une réorientation ? Ou a minima, moins de remplacement.

    Ce que je soulève c'est que de nombreux métiers informatiques ne sont pas de cet ordre là. Donc faire la généralisation informatique = automatisation = remplacement de jobs semble faux jusqu'à aujourd'hui.

    La c'est différent parce que c'est nos propres jobs qui sont touchés?

    pas plus que la mécanisation de l'agriculture ou de l'industrie, on a dégagé du temps pour d'autre jobs, dont le divertissement, la communication, ou la course à l'espace.

    Il y a un soucis d'échelle et de possibilités.

    On a pu migrer les travailleurs de l'agriculture vers l'industrie, puis de l'industrie vers les services. D'ailleurs le développement industriel et des services n'aurait pas pu avoir lieu sans libérer les gens de l'agriculture.

    Mais si tu automatises le tertiaire de manière significative, tu les migres vers quoi ? Oui il y a toujours des jobs qui seront sans doute plus long à toucher. Mais de quoi absorber ces millions / milliards d'individus ? J'en doute.

    Ce n'est pas un sujet évident.

  • [^] # Re: Où placer la subversion ?

    Posté par  (site web personnel) . En réponse au journal Libre est Queer. Évalué à 8 (+5/-0).

    Avec cette remarque je ne comprends pas comment tu te revendique "queer informatique" puisque c'est l'essence de l'informatique. Tu ne peux pas subvertir le logiciel pour qu'il soit autre chose que de l'automatisation et donc qu'il remplace des métiers.

    Mouais, beaucoup de gens disent cela mais honnêtement je n'en suis pas convaincu.

    La plupart des informaticiens ne se lèvent pas avec pour mission et objectif de remplacer des jobs. Alors bien sûr il peut y avoir des concurrences entre jobs traditionnels et nouveaux jobs liés à l'informatique, ou des remplacements directs. Mais est-ce la majorité ? Ce n'est même pas sûr. Et pour preuve, l'informatisation croissante de nos sociétés n'a pas entrainé une hausse massive du chômage d'un point de vue global. Est-ce qu'un développeur de jeux vidéo remplace des jobs ? Est-ce que l'éditeur d'une suite bureautique ou d'un OS remplace des jobs ? Est-ce l'éditeur de sites web remplace des jobs ?

    Alors que de nombreux prometteurs de l'IA c'est un but clair, et s'ils parviennent à ce qu'ils veulent faire, cela sera clairement visible en terme d'emplois contrairement à l'informatique jusqu'ici. Il est peu probable qu'il en soi autrement.

    Donc oui je ferais bien la distinction entre eux. Le traitement automatisé de l'information (ce qu'est l'informatique dans le fond) ne signifie pas que le but ou la conséquence est l'automatisation de la société et des emplois.

  • [^] # Re: Le hasard

    Posté par  (site web personnel) . En réponse au lien Le parquet européen poursuit le RN et ses alliés européens sur des soupçons de financement occulte. Évalué à 5 (+3/-1).

    Pour l'affaire qui a provoquée l'inéligibilité de MLP je me permet de rappeler que Bayrou a été condamné pour les mêmes faits, ce qui ne l'a pas empêché d'être premier ministre par la suite et que Mélenchon est également poursuivi pour la même raison (son affaire est au point mort pour le moment).

    Et donc ?

    C'est assez récent que la justice française ose montrer les crocs face à des élus ou candidats politiques qui violent la loi. C'est plutôt une bonne chose. Et le RN n'est pas le seul parti touché (pensons à l'ancien maire de Toulon Hulbert Falco qui a été touché de manière similaire).

    Après on dit que la politique ils sont tous pourris et sont au dessus des lois, on commence à remettre en cause ce principe ce qui est sain. Alors oui ce n'est pas encore parfait, il peut y avoir des ratés (car la justice n'est jamais parfaite non plus, surtout que le droit concernant ces activités a évolué récemment). Cela ne remet pas en cause le principe.

    Si Mélenchon était rendu inéligible je trouverai ça aussi scandaleux (le principe de la démocratie, c'est que c'est au peuple de juger, non ?).

    Le principe de la démocratie c'est que le peuple est souverain et qu'il y a un État de droit pour le garantir.

    La meilleure façon d'inciter les politiques à ne pas violer les règles c'est bien une peine d'inéligibilité. Le reste ils s'en foutent, MLP n'a protesté que contre cette partie de la sanction, le reste elle n'en parle même pas. Cela montre sa préoccupation.

    Le tout est que cela soit rendu par une justice indépendant et en l'espèce le dossier semble très convaincant qu'il y a eu des problèmes graves concernant ce parti et sa direction.

    Notons que l'autre problème, que tu véhicules ici, c'est que tu associes la démocratie à des personnes individuelles. Mais Marine Le Pen n'est pas l'alpha et l'oméga de la démocratie en France (c'est même plutôt le contraire vu ses idéaux). On a des partis justement pour ne pas être lié à des personnes uniquement pour représenter des idées. MLP n'est pas éligible, mais Bardella l'est, comme des centaines ou milliers de membres du parti RN. Ses idéaux seront largement présents lors du scrutin de 2027, que MLP en soit l'incarnation ou pas.

    De même pour Mélenchon avec LFI, ou Macron pour son parti, Ou Fillon pour le LR à l'époque, etc.

    Et les idéaux du RN n'ont jamais été aussi visibles dans la presse qu'aujourd'hui en fait.

    Taper au porte-monnaie est une chose, mais si on accepte que la justice s'invite dans toutes les campagnes électorales ont commence à ouvrir une boite de pandore dangereuse (ça avait commencé en 2017 avec Fillon).

    Si Fillon avait reconnu ses torts et s'était retiré de lui même plutôt que de persister dans sa campagne alors qu'il était clairement coupable de fait sérieux (et il le savait), la campagne de 2017 aurait été radicalement différente oui.

    Fillon pouvait largement se retirer pour laisser la voix à un autre du LR qui à l'époque avait bien assez de candidats d'envergure pour prendre la relève. La démocratie mérite mieux que ça en fait, des personnalités qui se prétendent intouchables pour mieux violer la loi en pensant représenter la démocratie.

    Je me souviens d'un reportage il y a une dizaine d'années environ qui parlait des magouilles de Poutine pour se maintenir au pouvoir en décrédibilisant ses adversaire les plus sérieux, notamment le chantage via des caméra cachées compromettante (après une recherche il s'agirait de Mikhail Kasyanov).
    On fonctionne un peu différemment mais fondamentalement le résultat est le même actuellement en France et il n'y a pas lieu de se réjouir.

    On a des preuves de telles situations en France ?

    Là on parle d'enquêtes parlementaires ou judiciaires qui reposent sur des éléments sérieux et qui ont une indépendance du pouvoir exécutif bien plus forte que ce qu'il y a en Russie actuellement même si c'est imparfait.

    Mais surtout, en Russie s'informer sur l'opposition c'est difficile voire risqué. Ici n'importe quel Français à accès au programme du RN, LFI et autre, tous les grands médias en parlent, ils font des scores clairement proche de Macron à chaque élection (voire devant pour les législatives et européennes).

    Comparer une situation où clairement le pluralisme semble fonctionner même si la situation pourrait être meilleure avec la Russie, c'est un non sens.

  • [^] # Re: eOS

    Posté par  (site web personnel) . En réponse au lien Comment empêcher Gemini, l’IA de Google, d’accéder à vos applications. Évalué à 10 (+7/-0).

    Ah ce n'est pas déjà le standard dans la communication en entreprise ?

  • [^] # Re: TLDR

    Posté par  (site web personnel) . En réponse au lien L’impact climatique du numérique et, notamment, du streaming (et aussi les impacts indirects). Évalué à 6 (+3/-0).

    Il y a un truc que je me demande aussi, c'est s'il est moral d'inclure dans les données de consommation (et donc de mettre à la charge morale des consommateurs) les Po de données privées volées par les requins du web, leur analyse et leurs échanges sur des plate formes de data brokers, pour être re-servies sous forme de pub.

    Dans les analyses d'impacts, aucune méthode n'est parfaite, chaque méthode de mesure et d'attributions aura ses avantages et inconvénients et permettra d'identifier des leviers d'action auprès de chaque acteur. SI le but est de savoir ce que la population peut faire, une analyse d'attribution à la consommation des services a du sens même si ça a ses limites.

    Concernant la publicité ciblée, sachant qu'elle permet à beaucoup de services de pouvoir en vivre qui sont de fait gratuits ou à un prix plus réduits que si l'utilisateur payait le coût réel sous forme d'abonnement, cela me semble normal d'attribuer ces usages à ces utilisateurs.

    C'est d'ailleurs le problème aussi du numérique de manière indirect, une bonne part des services se financent via la publicité… qui entraine des achats d'autres industries et qui ont des impacts CO2 et environnementaux additionnels.

  • [^] # Re: TLDR

    Posté par  (site web personnel) . En réponse au lien L’impact climatique du numérique et, notamment, du streaming (et aussi les impacts indirects). Évalué à 10 (+7/-0).

    Cette vidéo confirme que 80 à 90% de l'impact CO2 des activités numériques en général viennent du terminal des utilisateurs (PC, tablette, téléphone).

    Précision : en France (et tout pays avec une électricité relativement peu carbonée).
    Cela néglige aussi les autres empreintes écologiques qui ne sont pas négligeables.

    La mode est à reporter ces coûts sur l'IA, ça n'est plus Google mais l'IA qui détruit la planète. Mais en fait c'est assez faux, les data centers c'est comme les transports en commun, ils mutualisent les coûts environnementaux parce que c'est l'intérêt des multinationales que d'optimiser leur utilisation. Un bus consomme plus qu'une voiture, mais si dans le bus il y a 50 personnes, alors le bus est une solution bien plus sobre. Pour le numérique c'est pareil, un serveur dans un datacenter demande plus de ressources qu'un PC, mais comme des centaines ou des milliers de personnes mutualisent ce serveur, le coût écologique par utilisateur est négligeable.

    L'IA a quand même quelques particularités par rapport aux autres services numériques classiques :

    • Le marché est loin d'être mature, l'usage peut exploser. D'ailleurs alors que tous les GAFAM projetaient une neutralité carbone et une baisse de consommation avant l'IA, ils sont tous revenus allègrement sur ces projets, montrant que cet effet est immédiat et à grande échelle ;
    • Les performances requises pour une requête d'un utilisateur font que c'est plus difficile de mutualiser le matériel, donc il faut plus de serveurs pour la même base d'utilisateurs. Serveurs qui sont eux même plus gourmands que pour un serveur classique car un GPU haute performance est requise ce qui n'est pas le cas pour les autres services. Et le besoin en CPU / RAM ne disparaît pas sur ces machines donc l'impact s'accumule. Cela nécessite aussi des systèmes de refroidissement plus conséquents ;
    • Comme les requêtes et le contexte sont très spécifiques, il y a très peu de systèmes de caches géographiques comme de calculs qui sont possibles pour améliorer le bilan en réduisant la pression sur le réseau ou les serveurs ;
    • De par le point précédent, ces IA doivent faire de nombreuses requêtes dans le Web pour indexer mais aussi tout simplement accéder aux données que l'utilisateur fourni donc ça s'accumule avec d'autres impacts existants ;
    • Les besoins en calculs pour les gros modèles sont tels que la durée de vie des serveurs semble très courte, ce qui nécessite de renouveler les équipements plus souvent côté infra ;
    • Les entreprises ne sont pas transparentes sur ces projets là, rendant une évaluation indépendante difficile alors qu'elle est nécessaire.
    • L'IA gourmande s'invite dans les terminaux pour des raisons de latence / vie privée, ce qui nécessite des terminaux plus performants (voir le cas de l'iPhone qui a du augmenter sa RAM disponible pour cet usage) ce qui accélère le taux de renouvellement.

    Alors oui, la balance bénéfice risque pourrait être bénéfique même à plus longue échéance, la réalité est qu'on en sait rien à ce stade ce qui est gênant. Cela rejoint le message de la vidéo : oui l'impact du numérique d'un point de vue technique n'est pas le pire domaine du point de vue environnemental. Mais cela ne signifie pas qu'on doit laisser faire, il faut réduire ces impacts dans la mesure du possible.

  • [^] # Re: petit resumé

    Posté par  (site web personnel) . En réponse au lien Anubis - Le logiciel open source préserve Internet des robots IA. Évalué à 7 (+4/-0).

    Vraie question: on gueule sur les ressources absurdes consommées par les IA, mais leurs défenseurs expliqueront qu'il faut ramener ça à une conso par utilisateur (donc s'il y a 1Mds de… euh… gens qui s'en servent, l'apprentissage aura été ventilé).

    Il n'y a pas que l'apprentissage qui consomme. C'est même pire, à mesure que les utilisateurs s'en servent, l'impact principal dominant sera son utilisation. C'est peut être même déjà le cas depuis un moment.

    L'IA pose plusieurs soucis à cet égard :

    • Chaque requête est individuelle et "unique", utiliser des technique de cache est donc délicat ;
    • Chaque requête monopolise des ressources matérielles qui sont plus difficiles à partager en même temps. Un serveur web classique peut facilement gérer des centaines / milliers d'utilisateurs en parallèle sans soucis. Pour une IA cela semble difficile car le GPU est très sollicité et a besoin d'exécuter les instructions d'un utilisateur dans l'ordre ;
    • Beaucoup de requêtes demandent un accès à Internet en direct et ne peuvent se reposer sur le cache comme pour un moteur de recherche classique. Style "tu peux me résumer cette page XXXXX" ou trouver des produits / infos à propos de quelque chose. Cela implique aux éditeurs d'avoir bien plus de robots qui naviguent sur Internet qu'un moteur de recherche plus classique qui a moins ce problème et qui réserve une haute fréquence pour certains sites le justifiant type site d'actu, Wikipédia, etc.
  • [^] # Re: Signification?

    Posté par  (site web personnel) . En réponse au lien "Je suis payé pour réparer les soucis causés par de l'IA". Évalué à 10 (+7/-0).

    Outre les arguments des personnes qui suivent, ta comparaison est en plus foireuse.

    L'analogie correcte dans ton cas c'est que réparer le robot d'une ligne de production ce serait d'entrainer l'IA ou de lui donner des instructions de sorte qu'il produise le résultat souhaité. Ce qui n'est pas ce que les gens font en général dans ce contexte et qui serait à la limite un travail satisfaisant intellectuellement.

    Ta comparaison serait correcte si dans les lignes de production robotisées des personnes passaient systématiquement derrière pour réparer les défauts générés par le robot. Par exemple un robot producteur de vis qui en fait 1/3 tordus qu'il faut rectifier à la main. ET pour le coup ce n'est clairement pas un travail très satisfaisant à mon sens.

    Alors oui dans l'industrie ça arrive que cela arrive, mais c'est à un taux en général très faible car l'avantage des lignes robotisées en général c'est leur efficience et reproductibilité en dehors des pannes. Il y a bien plus de gens qui font du contrôle qualité en comparaison.

  • [^] # Re: Dépêche en préparation

    Posté par  (site web personnel) . En réponse au lien linuxfr.org joins the Open Source Initiative (OSI) : strengthening the francophone community. Évalué à 7 (+4/-0).

    Comment vous avez OSI les rejoindre sans préparer une dépêche en amont ? :D

  • [^] # Re: AI et chômage

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de mai 2025. Évalué à 5 (+2/-0).

    Tu es le premier à parler de la croissance et à faire circuler la monnaie entre deux agents pour montrer comment une "croissance infinie" est possible.

    Je dis ça je dis rien, hein.

  • [^] # Re: AI et chômage

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de mai 2025. Évalué à 7 (+4/-0).

    Le coût d’opportunité est que les réparateurs de fenêtres auraient fait autre chose que réparer des fenêtres si on ne les avait pas cassées, et cet autre chose serait rentré dans le PIB. Il est donc loin d’être évident que "casser des fenêtres" augmente le PIB.

    Elle n'est en effet pas systématique, mais cela peut le faire si pour réaliser cette action on recrute du personnel qui autrement ne travaillait pas par exemple.

    C'est un sujet qui revient quand même souvent, les pays en guerre peuvent avoir un PIB qui augmente suite aux investissements miliaires et aux réparations à faire ce qui nécessite du personnel et du matériel en plus par rapport à une situation "as usual".

    Mais cette situation met en lumière la critique courante du PIB fait de longues dates par de nombreux économistes : la croissance du PIB dans un tel contexte ne masque pas que globalement c'est une régression de la richesse pour la population.

    C'est ça le message important du message, la croissance du PIB est un proxy imparfait du niveau de la vie, sa croissance à tout prix n'est pas la fin en soi, et on cherche surtout à atteindre un niveau de vie à la fin avec un certain nombre de services et d'équipements disponibles pour tous.

  • [^] # Re: AI et chômage

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de mai 2025. Évalué à 6 (+3/-0). Dernière modification le 03 juillet 2025 à 12:05.

    Ça répond littéralement à la question littérale, de "comment une fonction (PIB) peut avoir une dérivée (croissance) infinie en restant bornée" ? C’est toi qui part en "au fond, qu’est-ce que le PIB", qui est une autre question.

    Oui enfin faire abstraction du contexte réel n'a je pense aucun intérêt.

    Si le but d'une croissance est d'avoir plus de biens et de services pour tous, l'intérêt est que cette augmentation permette de satisfaire tout le monde, pas d'avoir une augmentation tellement misérable que mathématiquement c'est jouable mais à la fin on n'a pas l'objectif atteint.

    Si on augmente le PIB en cassant volontairement des fenêtres puis on les répare, on améliore le PIB d'un point de vue statistique
    Non

    Cela n'invalide pas mon argument, pour donner plus de contexte tu peux lire : https://fr.wikipedia.org/wiki/Sophisme_de_la_vitre_cass%C3%A9e

    C'est le soucis du PIB, il évalue la production et l'échange de ressources, il n'évalue pas un patrimoine existant.
    Détruire et réparer d'un point du vue du PIB est une croissance, pas forcément plus élevée que si on avait fait autre chose à la place, mais ça reste une croissance. Mais en terme de niveau de vie pour la société, c'est une régression.

    De la même façon qu'une croissance de certains secteurs industriels, par exemple de la production de tabac, c'est bon pour le PIB, pour la population ce n'est pas la même histoire.

  • [^] # Re: AI et chômage

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de mai 2025. Évalué à 8 (+5/-0). Dernière modification le 03 juillet 2025 à 11:54.

    Ton scénario est sympa et fonctionne dans certains cas, mais il me semble difficile à soutenir que c'est généralisable à l'échelle de la société entière.

    Ce qu'on recherche n'est encore une fois pas la croissance du PIB mais un niveau de vie, le PIB n'étant qu'un proxy pour le mesurer. On pourrait vivre dans un pays avec une croissance nulle et vivre très bien, si tout le monde a un niveau de vie qui le satisfait en l'état.

    Augmenter le PIB est le moyen le plus simple d'améliorer le niveau de vie de la population mais la répartition des richesses est une autre possibilité aussi. Par exemple il semble bien qu'en théorie la population occidentale aurait de quoi vivre confortablement avec un PIB constant, mais les inégalités et la volonté d'avoir toujours plus même parmi les plus riches est un frein à cela, donc on cherche la croissance.

    Ensuite le tertiaire reste couplé aux extractions de ressources. Mon métier c'est du tertiaire, mais pour que je sois payé, mes clients doivent vendre des cartes électroniques. Si je veux augmenter mon salaire, ils doivent en vendre plus (ou plus chers). Beaucoup de métiers du tertiaires sont liés au commerce, au transport de marchandises, etc. Pour leur croissance, ils doivent aussi vendre plus de biens réels.

    Même les GAFAM sont dedans, Amazon de manière évidente mais pour que Microsoft, Google et Apple gagnent plus de soucis, ils doivent vendre plus d'équipements. Il faut équiper plus de gens, leur faire passer plus de temps sur leurs produits. Même Google qui en théorie est le moins impacté, comme Facebook d'ailleurs, doivent vendre des pubs pour se financer. Pubs qui très souvent soutiennent à la fin la vente de biens physiques à produire.

    Oui certains métiers peuvent en soit croître énormément avec un impact dérisoire sur l'environnement. Mais ces métiers ne sont clairement pas majoritaires, et malgré tout la croissance atteindra une limite aussi. Je ne vais pas aller chez le coiffeur tous les jours, ça n'a aucun sens ni aucun intérêt. Notre temps, notre énergie sont aussi limités. Je ne peux pas consommer à l'infini tout ce que je voudrais même avec tout l'argent du monde car mes journées feront 24h de toute façon. C'est une limite forte à une potentielle croissance infinie.

    En tout cas malgré nos découplages que ce soit au niveau énergétiques, CO2, etc. on n'a jamais autant vendus de biens physiques.

  • [^] # Re: AI et chômage

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de mai 2025. Évalué à 5 (+2/-0).

    Avoir une voix quand le parlement consulte les acteurs du secteur sur les actions législatives à prendre ?

    Cela ne change pas que sauf si Anthropic a fait adopté une mesure rendant la situation acceptable pour tous, le résultat sera délétère. Que ce soient eux ou Google à la fin qui ont réussi ne changerait pas grand chose.

    Dario Amodei n’a pas le contrôle là dessus.

    Ils pourraient faire plus pour qu'on aille dans ce sens plutôt que de multiplier les levées de fond sans partage du contrôle de la boîte ou du capital.

    J’ajouterai que la voie "abandonner l’industrie, passer sur de l’activisme et éveiller les consciences et parler au politiques" est suivie par Joshua Bengio/Geoffrey Hinton, et les résultats sont loin d’être spectaculaires. Difficile de jeter la pierre à Dario Amodei pour ne pas s’y engouffrer.

    Je ne dis pas que ça permet de plus changer les choses, je dis juste que c'est hypocrite.

    Y'en a qui arrivent à dormir en prétendant sauver la forêt tout en ajoutant de l'essence dans l'incendie, moi pas. Et j'ai le droit de dénoncer cette posture qui me semble particulièrement à l'encontre des valeurs qu'il prétend défendre.

  • [^] # Re: AI et chômage

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de mai 2025. Évalué à 6 (+3/-0).

    Personnellement je m'en fous pas mal que la majorité de la population ne travaille pas, moi même je pourrais vivre sans travail. Je sais comment m'occuper.

    Le soucis est la répartition de la richesse. Si tu mets tout le monde au chômage dans notre société actuelle, tu as un désastre social et sociétal évident.

    Cela me paraît particulièrement malsain de pousser à l'évolution de cette techno sans avoir au préalable mis en place de quoi rendre la situation acceptable. C'est une fuite en avant. Et c'est pareil pour l'environnement appliqué au domaine au demeurant.

  • [^] # Re: AI et chômage

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de mai 2025. Évalué à 5 (+2/-0).

    Oui enfin le but n'est pas d'avoir une dérivée positive pour avoir une dérivée positive, c'est d'avoir plus de biens ou de services en valeur absolue.

    Si demain on a un monde avec une croissance nulle voire négative mais tout le monde a globalement ce qui lui convient, le monde se portera très bien.

    Ta sigmoïde dit juste en gros pour que la croissance soit positive mais "infinie" sans dépasser une valeur asymptotique, la croissance est de plus en plus faible à un taux qui approche le 0%. Super, mais ça ne répond pas à la question.

    La croissance du PIB est un proxy du niveau de vie car si on produit plus, la population a dans son ensemble en moyenne plus de biens et de services. C'est ça qui compte, faire en sorte que les gens aient un niveau de vie acceptable à la fin. Si on augmente le PIB en cassant volontairement des fenêtres puis on les répare, on améliore le PIB d'un point de vue statistique mais on n'améliore pas le bien être, ni le pouvoir d'achats.

    Le PIB n'est qu'un indicateur imparfait, on l'utilise pour de bonnes raisons mais il ne faut pas oublier de ce qu'on cherche à savoir par cet indicateur. Car c'est cette finalité qu'on recherche, pas le PIB en tant que tel.

  • [^] # Re: AI et chômage

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de mai 2025. Évalué à 5 (+2/-0).

    Pour sa défense, ça fait un moment qu’il crie haut et fort que l’IA va nécessiter une « réécriture complète du contrat social de nos sociétés »

    Je ne trouve pas cela suffisant, il faut proposer, pas juste alerter. Il faut monter des relais politiques, organiser une réponse politique en réfléchissant à des scénarios pour proposer justement une vision de la société en adéquation.

    Je ne l'ai pas spécialement vu faire tout ça. Il semble plus dans la réaction.

    Ce n’est malheureusement pas aussi simple que ça. Si demain Anthropic se retire de la course, non seulement OpenAI et Google y sont toujours, mais en plus tu as maintenant sur le marché du travail un paquets de chercheurs/développeurs en IA parmi les plus talentueux — prêts à aller chez OpenAI/Google/Meta (Meta en particulier est désespéré, et offre 300 millions de dollar à tout "top" talent qui accepterait de les rejoindre). Dans l’état des choses, la fragmentation en 4-5 gros labos/entreprises est probablement un facteur de ralentissement.

    Mais si Anthropic "gagne" la course, je ne vois pas trop ce que cela changera en pratique en fait. Cela ressemble plus à une excuse pour faire du business as usual et à participer à une prophétie auto réalisatrice que d'avoir contribué à améliorer le sort de l'Humanité.

    Un peu comme si les gars du GIEC bossaient chez Total en espérant pouvoir influencer de l'intérieur la consommation d'énergie fossile au niveau mondial pour limiter le réchauffement climatique. Je ne trouve pas cela très cohérent.

    L’option "il y a un seul gros développeur d’IA, mais qui agit de manière responsable" a été tentée, c’était OpenAI à sa création. L’histoire a montré que ça ne marchait pas

    D'où l'importance d'avoir des États forts pour piloter cela étant donnés les enjeux plutôt que de laisser le privé faire ce qu'ils veulent sur la question. Le projet Manhattan n'a pas été contrôlé par une entreprise privée et aucune entreprise privée n'aurait le droit de produire de telles armes, même si certaines ont les ressources et compétences pour l'envisager.

  • [^] # Re: AI et chômage

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de mai 2025. Évalué à 5 (+2/-0).

    Le problème avec ce genre de prévisions, c'est que l'augmentation du chômage c'est l'argument de vente de ces entreprises. Ce dont il est difficile de douter, c'est que la productivité va augmenter. Mais dans l'histoire de l'économie, les gains de productivité ont rarement engendré du chômage, et aucun argument n'est proposé ici pour expliquer pourquoi ce serait le contraire avec l'IA. Ça ressemble donc à de la com pour patrons débiles, genre "grâce à moi il y aura plein de chômage".

    Plus bizarre, le patron d'une entreprise qui aurait un tel impact qui fait une telle prédiction cela ne semble pas lui poser de problème. C'est sans doute le plus scandaleux dans l'histoire.

    Si tu penses que ta boîte va causer probablement un chômage de masse, tu devrais agir un peu plus que de juste agiter la menace dans la presse. Et en particulier agir pour que cela n'arrive aps en n'étant pas dans la course à qui mettra ces gens là au chômage le plus vite possible.

    Donc jusqu'à preuve du contraire, cette histoire de chômage, c'est du bullshit. Les conséquences normales, c'est que les gains de productivité vont engendrer une baisse des coûts, qui vont permettre d'avoir plus pour le même investissement, et donc stimuler l'investissement, et donc la croissance. L'idée c'est qu'une entreprise ou un particulier n'a jamais ses besoins comblés. Une boite ne va pas dire "avant je dépensais 100k€ pour développer mon site web, maintenant je dépense 10k€, youpi, distribuons les 90 k€ gagnés aux salariés (ou aux actionnaires)". C'est juste qu'avec 100k€, tu pourras avoir un truc bien plus riche et/ou fonctionnel et/ou gourmand en serveurs et en bande passante, et tes concurrents aussi, donc tu dépenseras autant pour avoir plus.

    Pourtant on l'a bien vu dans l'agriculture et dans l'industrie que finalement les gains de productivité ont eu pour conséquences moins de gens bossent dedans pour produire pourtant plus de biens. Il n'est donc pas absurde que pour le tertiaire l'impact sera finalement le même à la fin. Sauf que tu recases où les gens du tertiaire ? Oui il y a sans doute des métiers qui recruteront encore à balle, mais assez pour absorber le tout ? Pas certain du tout.

    Cependant si le chômage est trop élevé, tu as moins de consommateurs potentiels et tu as aussi probablement des contre réactions politiques ou sociétales. Cela risque surtout de diviser la population encore plus entre celle qui gagne bien sa vie et celle qui ne le peut pas faut d'emplois dispos. Ce n'est pas très reluisant.

    Et tous les patrons ne sont pas les mêmes, et tous ce qui est produit n'a pas les mêmes contraintes. Oui certains patrons peuvent profiter de l'amélioration de productivité pour produire / vendre plus. Mais d'autres ne le feront pas car pour gagner de la marge c'est plus facile dans ce cas de virer que de produire plus. Surtout que les gens ont des finances et un temps fini, tu ne peux pas surproduire ad vitam eternam.

    Bref, si l'amélioration de la productivité a lieu de manière massive, les conséquences sur l'emploi sont réellement possibles.

  • [^] # Re: en gros

    Posté par  (site web personnel) . En réponse au lien Coccinelle for Rust progress report. Évalué à 6 (+3/-0).

    Non, l'objectif est de pouvoir identifier dans du code C existant des situations d'une manière formelle et d'appliquer une transformation dessus. Cela n'a pas été fait pour créer du code nouveau (à ma connaissance) et les capacités d'expressions semblent vraiment orientées dans une optique de maintenance de code que d'écriture.

    En général les patchs générés dans le noyau avec ont la commande associée dans le message de commits pour expliquer comment cela a été obtenu. Je ne trouve pas la syntaxe de Coccinelle particulière lisible ou avantageuse sur ce point, mais c'est efficace pour l'objectif poursuivi car de nombreuses transformations qui semblent simples en apparence peuvent être exprimées de manière différentes et il faut pouvoir les capturer au maximum.

    Car des exemples valent mille mots, une diapo qui montre les capacités tirés d'exemples réels : https://events.static.linuxfound.org/sites/events/files/slides/part1.pdf

  • [^] # Re: en gros

    Posté par  (site web personnel) . En réponse au lien Coccinelle for Rust progress report. Évalué à 5 (+2/-0).

    Problème Rust est particulièrement complexe à cause de ses règles complexes (je pense borrow-checker)… ils ont implémenté les fonctionnalités minimales pour le moment.

    Le borrow checker n'est pas le principal problème ici. Le soucis est la richesse de la syntaxe de Rust et la variété de situations qu'il faut couvrir.

    Oui Coccinelle naïvement peut servir à automatiser le changement de nom d'une fonction dans Linux. Mais ça à la limite c'est le cas facile en C à gérer.

    L'intérêt est plutôt : on a tel objet qui s'initialise d'une autre façon (nouveaux paramètres, nouveau code de sortie, etc.), il faut automatiser la détection et correction du code impacté pour se conformer à la nouvelle manière de faire.

    C'est là son point fort surtout pour une base de code si large et avec beaucoup de code qui finalement se ressemble, un pilote I2C reste un pilote I2C, y'en a des centaines qui ont un squelette similaire donc en cas de refonte cela peut vite devenir pénible à faire à la main.