Bon, les acteurs actuels ne sont pas bien indépendants non plus, il me semble que la pluspart des fabriques utilisent des machines de lithographie venant de chez ASML basé en hollande.
Je ne sais pas si des taxes sur les produits étrangers serait un bienfait ou une bétise
De toute façon, aucun pays ne peut être autonome pour tous les produits et à toutes les étapes clés. Même la Chine et les USA, relativement autonomes sur de nombreux plans, dépendent d'autres pays ne serait-ce pour la matière première ou certains équipements de pointe.
L'UE n'a pas la capacité de faire mieux qu'eux et aucun pays ne peut avoir une autonomie complète.
Et même s'ils peuvent produire pour eux, ils dépendent aussi de clients pour garantir leur force économique et stratégique. La Chine et les USA peuvent faire des embargo de produits à destination de l'UE mais c'est aussi à double tranchant car ces entreprises ne pourront pas remplacer un si gros client si facilement sans impact pour eux. Sans compter la rupture de confiance qui peut faire des dégâts à long terme envers les pays lésés mais aussi les autres qui pourraient se sentir menacés. Les USA sont en train de le vivre avec la stratégie de Trump qui peut potentiellement donner des gains de courts termes mais très pénalisant à long terme.
C'est un aspect compliqué dans la question des dépendances, globalement les feuilles de route de l'UE sur les différents sujets suggèrent que :
À défaut d'une autonomie complète, essayer d'avoir une réserve minimale dans les différentes étapes de chaines de valeur stratégiques est nécessaire pour pouvoir produire même à minima en cas de chocs (que ce soit rupture d'approvisionnement type embargo dictée par la Chine ou rupture d'approvisionnement pour causes indirects type détroit d'Ormuz ou COVID) ;
Pour la part qu'on ne peut pas rapatrier en Europe (trop cher, pas les ressources ou compétences pour, etc.), diversifier les fournisseurs et privilégier les fournisseurs alignés avec nous (comme la Norvège, le Royaume-Uni et le Canada pour les hydrocarbures) ;
Ne pas trop se préoccuper de la question pour des objets non stratégiques ou pour laquelle l'offre est vraiment diversifiée et sans trop de risques de rupture à priori (comme les vêtements).
C'est je pense la bonne approche concernant cette question et dans le cas des processeurs être capable de produire un peu de RAM ou gros CPUs devrait entrer dans ce cadre même si le volume ne serait pas nécessairement suffisant pour que tout PC européen utilise ces puces. Maintenant entre les souhaits et la réalité, il y a un grand pas à franchir qu'on peine à faire pour le moment.
Et avoir une usine en France ne signifie pas se limiter au marché français, on vend bien du champagne jusqu’au bout du monde…
Bien sûr, mais cela ne change pas ce que je dis.
Lancer de telles usines cela reste cher et long. C'est plus facile d'avoir des financements privés et publics si on peut garantir des débouchés. Cela passe par des commandes ou des régulations pour garantir des achats groupés locaux et souvent les acteurs publics sont les premiers à le faire.
La France seule n'a pas la possibilité de garantir ce volume nécessaire, faut trouver d'autres acheteurs à l'étranger et avant de lancer la construction de l'usine. Je ne crois pas que beaucoup d'industriels étrangers vont se battre pour cela sans contraintes externes, d'autant que nous n'avons pas à ce jour de tels produits démontrant le savoir faire de notre pays qui a des compétences connues pour des micro contrôleurs mais pas des puces à haute performance.
On le voit d'ailleurs à d'autres niveau au niveau européen. Le secteur de la défense est très fragmenté et cela freine la possibilité d'avoir des programmes ambitieux malgré le fait que l'Europe est un exportateur majeur d'armes dans le monde. Car peu de coordination des projets au niveau européen ce qui mène à des projets dupliqués mais moins ambitieux et le peu de garanti concernant le volume de production.
D'où l'intérêt de le faire au niveau européen, cela ouvre des horizons et garanties plus larges et évitant les redondance : certains États produisent des composants type mémoire, d'autres des CPUs, etc. Et on a assez d'industriels sur le continent pour qu'on puisse garantir un volume de vente dans tous les cas.
La Chine n'a pas ce problème, elle est plus uniforme sur ce plan, et la main mise du parti permet la Chine de financer des usines non rentables si nécessaires et de forcer ses entreprises à acheter le produit qui en sortira à un volume tel que ça sera intéressant de mener le projet au bout. Et ensuite les produits pourront s'exporter ailleurs, les acheteurs étrangers pourront s'en servir sans prendre de risque et en sachant les capacités réelles des puces produites avant ce qui est un atout important.
Là où la France commence péniblement à envisager du Linux pour ses administrations pour gagner un peu de souveraineté côté logiciel, la Chine fait déjà dans le dur et a déjà ses CPUs et ses GPUS…
En même temps c'est assez irréaliste que la France soit indépendante du côté des semi-conducteurs. C'est probablement la mauvaise échelle pour penser cela, c'est plutôt au niveau européen que cela doit être envisagé pour avoir un marché assez grand pour rentabiliser les coûts fixes énormes de cette industrie.
La Chine est assez grande pour envisager ce genre d'indépendance technologique dans son coin.
EDIT : je précise que ta proposition de dépêche sur les produits chinois m'intéresse.
Donc même en gérant bien (l'état doit en plus se subsituer aux héritiers gérants, qui bossent énormément, limite ne font que ça pour survivre, bonne chance) il ne pourra que rarement gagner plus en confisquant.
Mais il y a plusieurs possibilités derrière cela en fait.
L'État peut considérer cela comme un actif intéressant ou stratégique et garder la main dessus avec propriété et gestion publique. Elle peut garder les parts mais chercher un dirigeant externe dont potentiellement dans la famille ou les employés actuels de la boîte. Elle peut revendre tout ou partie des parts dont à la famille du défunt ou aux employés éventuellement avec un système de prêt pour la reprise avec un taux intéressant. Etc.
Il y a certainement des cas où l'État en tirera un bénéfice moindre qu'avec le système actuel mais il y en a plein d'autres où elle gagnera bien d'avantage aussi. Et rien n'empêche d'utiliser des seuils de valeur pour différencier les cas ou d'avoir des approches hybrides. Mais on ne peut nier que l'héritage actuellement semble poser bien plus de problèmes au niveau de la société qu'elle n'en résout.
Et là on parle aussi du cas particulier des entreprises familiales mais une bonne partie du patrimoine de nombreuses familles reposent sur des biens de luxe, de l'immobilier, des actions (ou gestion d'une multinationale), etc. où ces problématiques sont absentes.
Je suis d'accord avec ce principe de payer des droits de succession (du style 45 %), mais il faut bien comprendre que l'état gagne bien plus via ces droits qu'en confisquant l'entreprise.
Tu parles du court terme, mais il y a le long terme et c'est plus compliqué à analyser que juste cet exemple. Car si l'entreprise tourne bien, l'État peut récupérer une partie du bénéfice au long terme aussi à son compte, revendre plus cher à un investisseur, les politiques pour lutter contre les inégalités par ailleurs ont un coût humain et financier qu'il faut analyser sur le temps long.
Sans compter qu'il y a des optimisations possibles pour transmettre le patrimoine ce dont ne se privent pas les plus fortunés ce qui ne permet pas une comparaison avec ta situation si la transmission a été faite sans préparation particulière.
C'est une vision très matérialiste de ce qu'est l'inégalité.
En même temps quand certains héritent de quoi vivre sans devoir travailler le reste de leur vie quand d'autres héritent juste de photos de famille car ils n'ont rien d'autres et vont galérer jusqu'à la fin de leur vie car ils sont pauvres par ailleurs, on ne peut pas dire que c'est un détail. C'est peut être matérialiste mais tant que tout le monde n'a pas la garantie d'avoir de quoi se nourrir, se soigner, se loger dans de bonnes conditions, c'est évidemment à prendre en compte.
Est-ce vertueux de gérer l'héritage par un état ?
Est-ce vertueux de ne rien faire ? Je ne pense pas.
C'est aussi totalement injuste que quelqu'un ayant travaillé toute sa vie se fasse confisquer ce qu'il a gagné.
Alors le jour où mes parents mourront, ils ne profiteront plus de leur capital et de leurs biens par définition. Ce ne sont pas eux qui seront punis (ils ne seront plus là), sanctionnés ou confisqués, mais les descendants (ici les enfants).
Mais les enfants en question n'ont rien mérité de spécial, je n'ai pas travaillé pour le capital et les biens obtenus par mes parents. Pourquoi je mérite plus que d'autres à ce sujet ? Car je suis "bien né" ? C'était déjà une chance dans ma jeunesse où je n'ai manqué de rien, pu avoir des conditions de vies très bonnes jusqu'à l'âge adulte grâce à eux, en plus je devrais bénéficier d'un avantage à la fin de ma vie de leur part ? C'est profondément injuste.
En plus le capital s'accumule très facilement dans une famille. À partir d'un seuil de richesse, tu peux léguer par exemple un logement complet et des parts d'entreprises à chaque enfant. Si chaque enfant se marie avec quelqu'un dans ce genre de familles et que chaque couple peut financer des logements par ailleurs, leur descendance auront encore plus de biens à leur nom que la génération au dessus, etc. Et très rapidement tu peux avoir des familles de rentiers de génération en génération pendant que d'autres familles galèrent pour juste financer la location de leur logement principal. Tu trouves ça juste ?
C'est un grand débat.
D'un point de vue économique et d'égalité pourtant le débat semble clair, l'héritage actuellement est un problème. Car oui ça nuit aussi à la "saine concurrence libérale" d'avoir des familles qui ont la mainmise sur des pans entiers de l'immobilier ou de l'économie ce qui freine l'apparition de concurrents ou d'alternatives.
Le principal problème est sentimental, les gens ne sont pas près à lâcher ce concept souvent sur le base de mauvaises informations sur l'impact dans la société et leur vie. D'autant que l'héritage est dorénavant touché en général en fin de vie active ou début de retraite, quand la vie est déjà sur la fin et que cet apport de capital est moins nécessaire que quand tu as 20 ans et que tu as une carrière à lancer, une famille à lancer et potentiellement un achat immobilier à financer.
Alors que pourtant il y a plein de moyens de faire concilier le tout :
Héritage complètement donné à l'État pour les biens de valeur (on néglige les objets sous une certaine valeur évidemment), mais priorité de rachat aux héritiers (donc pour permettre de garder une maison dans une famille, faut que les héritiers paient pour l'obtenir comme tout le monde) ;
Héritage partiellement donné à l'État, on garde le régime actuel pour la maison principale et quelques équipements sous un montant spécifique mais le reste revient au point 1 ce qui permet de limiter la transmission de patrimoine entiers de génération en génération ;
L'argent dégagé par l'héritage peut permettre de financer une baisse d'impôts ailleurs (genre sur le travail) ou d'augmenter les dépenses pour permettre à certains de mieux démarrer leur vie (système éducatif, bourse éducatives, aides sociales générales) ;
Certains biens récupérés ainsi par l'État peuvent avantageusement être transformés pour faire du logement social ou changer l'affectation pour améliorer l'urbanisme sans dépenser une fortune en dédommagement.
On ne peut pas répondre de manière absolue car tout dépend des besoins.
Avec les SSDs récents la problématique pour un usage normal de l'ordinateur est probablement un non sujet. Ils ont une endurance très suffisante.
En fait ce qui est contre intuitif avec le swap c'est qu'il peut réduire les I/O globaux. Car le swap essaye au maximum d'avoir comme contenu des données dont l''accès est rare voire nulle. Comme des pages d'un programme qui ne tourne pas souvent, des données d'un programme utile à son lancement mais qui ne le sont plus vraiment quand le logiciel tourne, etc.
Donc très souvent le swap va contenir des données qui seront sauvegardées une fois et peu relues. L'espace libéré en RAM va permettre à la place de stocker des données en cache qui sont souvent employées. Si tu manques de RAM et que tu n'as pas de swap, ces données seront souvent sauvegardées ou relues depuis le SSD au lieu de la RAM car ce sont ces données qui seront évincées pour garder de la place en RAM. Et une partie de cette RAM conserve des données qui ne sont pas forcément très sollicitées.
Donc la swap peut réduire l'usure réelle du SSD en condition réelle. Mais cela dépend de ton système et de tes usages.
Pour ce que ça vaut, zram est utilisé par défaut sur fedora depuis quelques versions en lieu et place du swap disque.
En fait comme il le précise, le choix de Fedora fait sens pour les raisons suivantes :
La performance n'est pas le seul critère, la question de la confidentialité des données qui restent dans le swap est une problématique que zram ne pose pas
Il n'y a pas de swap disque par défaut avec ce qui limite les effets pervers qu'il décrit quand zram est couplé avec un swap disque
Fedora utilise le OOM killer de systemd par défaut et non celui du noyau qui est clairement inadapté pour sauver la situation avec un zram
Sans cela il trouverait le choix de Fedora mauvais ou du moins discutable.
Si j'esquisse un début de solution, le débat va partir sur la critique de cette solution pour enterrer la critique de l'existant.
De toute façon si tu ne proposes rien, le sujet n'avancera pas plus.
Par ailleurs proposer des solutions sans évaluer à minima les conséquences de ces solutions c'est un peu facile et revient à mon commentaire précédent. La complexité de l’internationalisation vient aussi de la complexité du sujet et de la quantité de contraintes qui tournent autour.
je constate que c'est un gros merdier et personne n'a pris en compte la difficulté d'implémentation.
Ou alors :
Le problème est de fait un gros merdier et la solution ne peut en être qu'une
Peut être qu'ils ont réfléchi à ces aspects mais n'ont pas trouvé mieux
Peut être qu'il n'y a pas vraiment mieux à faire pour respecter les différentes contraintes
Cette tendance on fait n'importe quoi et si quelqu'un critique, on lui demande de trouver une solution parfaite fait partie du problème :-)
Le soucis c'est que quand tu critiques sans même esquisser un début de solution, ça fait très "YAKAFOCON" alors qu'il n'y a pas forcément mieux à faire en pratique. Car oui, des solutions simples pour tout problème ça n'existe pas.
Moi c'est entre Noël et le Nouvel an que j'ai écrasé l'image Sailfish OS de mon Xperia 10 pour remettre Android.
J'ai beaucoup aimé Sailfish OS, j'ai eu le Jolla premier du nom entre 2014 et 2016 avant qu'on ne me le vole, puis Jolla C2 pendant 4 ans avant de finir avec le Xperia 10 acheté et flashé pour l'occasion. J'aime l'interface, les concepts, il y a de bonnes choses dedans.
Mais à l'usage, cela devenait difficile. En fait l'optimisation matérielle avec ce modèle commençait à en pâtir.
J'ai un usage léger de mon téléphone, je tenais certes la journée mais dès que je m'en servais un peu plus c'était fini sans grandes raisons. Et avoir navigation Web + application Android type Whatsapp faisait vite ralentir l'appareil ce qui devenait frustrant. Je rebootais souvent, 1-2 fois par semaine pour retrouver des performances agréables.
L'absence de synchronisation entre le navigateur web et mon Firefox sur mon PC était une limite, et malheureusement avec les performances délicates envisager Firefox Android dessus devenait compliqué.
Alors peut être que j'aurais retrouvé du confort avec un modèle plus récent comme le Xperia 10 III. Mais je tiens à garder mon matériel le plus longtemps possible. Je me suis dit que j'allais redonner une chance à Android, juste pour voir si le soucis c'est le matériel ou le logiciel en tant que tel.
Après une sauvegarde dans tous les sens, j'ai pu facilement remettre le Android d'origine à jour. Le verdict, depuis 3 mois j'ai très peu de ralentissements frustrants, je peux le laisser tourner 14 jours sans avoir besoin de le redémarrer et la batterie à usage constante je ne descends jamais en dessous de 50% en une journée à usage identique.
Par conséquent là où remplacer le téléphone devenait urgent l'est bien moins maintenant. Je redonnerais peut être une chance à Sailfish OS à l'avenir quand l'occasion se présentera car j'ai bien aimé le système.
les labs correspondent-ils au nouveau nom des Special Interest Groups (SIG) ou est-ce les spins (saveur en français) qui semblent plutôt correspondre aux déclinaisons de bureaux (KDE/Plasma, GNOME, XFCE, autre ?)
je n'ai pas vu de déclinaison des ISO de bêta pour les labs ? à moins que ce soit cloud et IoT ?
pour les spins : ok Workstation c'est GNOME, ya KDE/Plasma et pas vu XFCE (ah si !)
La nomenclature n'est pas tout à fait évidente mais elle est comme suit :
Les éditions : Workstation, KDE Plasma, IoT, Server et Cloud qui sont les images officielles avec un cas d'usage phare et typiquement un bogue majeur qui affecte une de ces images peut bloquer la sortie d'une version de Fedora
Les spins : ce sont des variantes avec des environnements de bureaux alternatifs par défaut
Les labs : ce sont des images avec beaucoup de logiciels préinstallés pour certains usages spécifiques
Les SIG sont des groupes de travail, il n'y a pas de lien officiel entre ces notions même si de nombreux SIG aboutissent à la création d'une image spécifique.
Cela fait un moment que des conférences internationaux ne se tiennent plus aux USA pour ce genre de motifs ou que des personnes qui vivaient aux USA quittent le pays pour ces motifs ou que des étudiants ou jeunes actifs renoncent à y aller. La chute du tourisme aux USA est aussi très marquée en 2025.
Ce n'est malheureusement qu'un élément de plus d'une longue liste.
Vue de l'extérieur la phrase de Torvald prête à confusion. S'il avait déclaré :
"Software is like love (1): it's better when it's free", il n'y aurait eu aucun problème.
Sauf que cette phrase ne sort pas de nul part et a un contexte exact sans doute perdu.
Le contexte c'est quand même important pour savoir ce qu'il voulait dire exactement en cas d’ambiguïté.
Selon Wikiquote le contexte est une conférence donnée :
Attributed to Torvalds at 1996 FSF conference
Si c'est bien le cas, ce serait bizarre que Torvalds dans une conf de la FSF utilise le terme free au sens gratuit alors que ce n'est ni la position de la FSF et que Torvalds est bien au courant des subtilité du logiciel libre et qu'il n'était pas opposé à la commercialisation autour de Linux bien au contraire.
Dans le doute éviter d'interpréter le sens d'une phrase qui a plusieurs sens (raisonnables) possibles sans son contexte.
Je ne dis pas que ça n'arrive pas, mais je pense que la comparaison brute humain / LLM a de toute façon des limites à cause de la différence de nature (pas les mêmes types d'erreurs, pas les mêmes forces et faiblesses).
Ce que je voulais surtout souligner c'est que la structure des LLM même avec une méthode par renforcement a aussi des limites qui restent encore à explorer de manière fine et qu'il y a peut être des limites qui ne seront pas solubles sans changer fondamentalement d'approche. Cela reste encore incertain, ce qui n'empêche dans le même temps que cette approche continue de montrer des progrès.
Tout comme la question de la transmission aérienne du COVID en février 2020 était un sujet discuté et loin d’être clos.
Il y a, fondamentalement, deux manières de réagir à une exponentielle : trop tôt ou trop tard. Se réfugier derrière l’incertitude pour justifier l’inaction, ce n’est pas de la prudence, c’est se forcer à l’alternative « trop tard ». Pour le COVID, nous avons choisi l’option « trop tard », pour exactement la même raison que nous sommes en train de choisir l’option « trop tard » pour l’IA. Par peur du ridicule de présenter aussi sérieusement un scénario aussi « étrange, hors de l’ordinaire ». Par mimétisme « personne ne semble inquiet, pourquoi devrais-je l’être ».
[…]
C’est l’extrapolation directe et brute (relisez ces deux mots, ils sont importants) de nos meilleures données QUE J’ESSAIE DEPUIS MAINTENANT UN AN DE FAIRE RENTRER DANS VOS CERVEAUX BORDEL DE MERDE (désolé, ça devait sortir). Ça ne signifie évidemment aucune certitude ; nos données peuvent être insuffisantes et ne pas capturer des dimensions nécessaires de l’intelligence ; la tendance peut peut-être s’arrêter brutalement sans raison claire. Dans l’autre sens : la tendance pourrait très bien s’accélérer maintenant que l’IA participe et accélère le développement de l’IA. Un meilleur paradigme peut apparaître à tout moment, et à nouveau accélérer les choses. L’incertitude ne va pas uniquement dans le sens de l’optimisme.
Si tu me lis bien, je ne dis pas le contraire en fait. Je suis personnellement inquiet, oui. D'ailleurs je suis tout aussi inquiet d'une catastrophe causée par une IA à qui on confie trop de tâches dont finalement les limites ont été mal estimées et cela mène à des dégâts considérables tout comme elle est finalement hyper intelligente et compétente, nous a berné et cela mène aussi à notre perte.
Je remets juste en cause le discours de arnaudus qui semble dire que ces questions sont tranchése, que les améliorations des benchmarks ne font que renforcer une seule hypothèse comme si les autres hypothèses n'avaient aucun sens et était une forme de dénie. je rappelle juste qu'il y a encore beaucoup de flous et d'hypothèses sur la table et que la question ne semble pas tranchée et qu'il faudra probablement du temps pour évaluer tout ça et améliorer les protocoles d'évaluation car la question est finalement très récente. D'autant plus que savoir mesurer exactement d'où viennent ces gains et ce que ça implique c'est important et ça a des implications fortes. Le sujet reste réellement complexe.
Est-ce que l'incertitude doit pousser à l'inaction ? Non, dans le doute, prenons l'hypothèse la plus pessimiste qui est plausible et essayons de voir ce qu'on peut faire en amont. Je suis convaincu que la démarche de l'UE d'essayer de réguler est la bonne même si elle est trop timide par exemple et qu'il y a d'autres choses à faire sur le sujet. Et je dénonce aussi le discours et méthodes des éditeurs (et des promoteurs) des IA qui sont pour moi assez hypocrites et irresponsables face à ces enjeux. Un peu comme ceux des groupes pétroliers qui vendent du confort mais aussi la mort de la civilisation en même temps.
1) Ces modèles ne sont plus depuis des années des prédicteurs de texte et des chatbots sophistiqués qui débiteraient des textes au kilomètre. Les algorithmes modernes s'entrainent par renforcement (comme les algo alpha* de Google) et mènent des raisonnements (ils génèrent de très longues chaines de raisonnements en arrière-plan et choisissent les éléments qui seront donnés en réponse aux requêtes)
Cela reste fondamentalement des générateurs de texte, cela ne veut pas dire qu'on ne peut rien tirer de cette approche, les progrès récents le montrent, mais on ignore si cela ne va pas poser des limites structurelles pour les progressions futures.
Car typiquement il arrive qu'il y ait des raisonnements erronés (mauvais raisonnement -> bon résultat quand même, ou raisonnement correct -> mauvais résultat) ce qui peut être lié à la méthodologie derrière.
2) Les performances sur tous les benchmarks existants progressent jusqu'à les saturer rapidement, et contrairement à une croyance un peu facile, ça n'est pas à cause de la diffusion des résultats des benchmarks. Les benchmarks sont diversifiés, certains sont maths/science, d'autres sont sur la production de code fonctionnel, d'autres sur des activités comptables/administratives, etc.
Je pense que tu ignores que c'est un sujet très discuté et loin d'être clos, comme la recherche publique et indépendante a toujours un train de retard ce n'est pas évident. Un peu de prudence épistémique ne ferait pas de mal.
Les progrès en usage du quotidien sont mesurables, mais la pertinence, l'efficacité et la signification des résultats des benchmarks ne sont pas des sujets triviaux dont on peut accepter les résultats les yeux fermés. La question de l'évaluation des modèle n'est pas clos et reste fondamentale car cela permet aussi d'éclairer comment mesurer leur sûreté et de leurs capacités actuelles et ce qu'on peut éventuellement espérer en tirer, ou découvrir des limitations intrinsèques, dans le futur en continuant ainsi.
La réponse est un peu dans la manière dont tu te poses la question. Si tu es fonctionnaliste, la question est "est-ce que ce programme se comporte comme si il avait une conscience?". Le fait de détecter un environnement de test et de le cacher à l'expérimentateur va clairement dans cette direction: le modèle comprend d'une manière ou d'une autre qu'il est dans un environnement de test, et décide d'une manière ou d'une autre de mentir. Tu le déduis du comportement du modèle, de la même manière que tu déduis que ton voisin a une conscience parce qu'il se comporte comme s'il en avait une.
[…]
Il faut choisir son camp et en déduire la réponse à la question, mais ça ne sert à rien de faire croire que la question est ouverte si on n'est pas fonctionnaliste.
Comme s'il n'y avait que ces deux options alors que là encore d'un point de vue épistémique c'est discutable d'être binaire.
Par exemple je suis fondamentalement convaincu qu'il n'y a rien d'impossible à avoir une conscience artificielle sur silicium. Mais comment s'assurer que devant nous on a affaire à une conscience émergente et authentique, le sujet me semble plus compliqué.
Le fonctionnalisme fonctionne bien en tout cas avec les êtres vivants car il y a des similarités de structure qui font qu'il n'y a pas de raison de ne pas accorder une conscience si un autre être vivant répond d'une certaine façon à des stimuli. En particulier entre nous êtres humains, car nous n'avons pas moyen d'accéder réellement à l'expérience subjective des autres donc on se base sur le principe de similarité pour appliquer le fonctionnalisme ce qui me semble raisonnable.
Cependant, on pourrait imaginer en effet des stimuli et leurs réponses totalement similaires mais d'une autre structure sans faire intervenir la notion de conscience. Et comment s'assurer qu'une conscience est là ou non ? C'est compliqué.
Le fonctionnalisme semble surtout être "faute de mieux, on accorde cette propriété si on a certaines réponses durant un protocole précis", mais ça ne me semble pas tout à fait satisfaisant pour apporter une réponse sûre et définitive sur la question. En particulier quand on a affaire à une entité qui est structurellement différent.
C'est un sujet plus compliqué que ce que tu présentes. Je ne suis pas convaincu qu'il y ait d'ailleurs un vrai consensus scientifique sur ce genre de questions (tout comme sur l'intelligence par ailleurs).
C'est avant tout l'entreprise qui a fait l'erreur, ça ne change pas.
Et moi je pense que ça se discute et que ça change en fait tout.
Pourquoi ? Quand tu es une entreprise et que tu as des fournisseurs, ces fournisseurs partagent la responsabilité et elle peut même être totale. Par exemple le fournisseur te fourni un composant défectueux et tu dois faire une campagne de rappel et il y a eu des morts ? Le fournisseur peut être sollicité pour payer tous les frais dans cette affaire (genre affaire des airbags en automobile, quand le fournisseur n'a pas fait faillite). L'avion a un crash et c'est un défaut de conception de l'avionneur ? Cela incombe au constructeur et non à l'exploitant de payer, etc.
Ici il y a une relation fournisseur / client et ça change pas mal de choses par rapport à une entreprise qui aurait un employé qui fait la même tâche.
Mais là encore, le problème n'est pas spécifiquement ici en fait. Le soucis est que :
Si l'IA permet d'augmenter en productivité, les volumes traités sont plus élevés, même avec une erreur moindre en proportion, le nombre de problèmes peut être plus élevés ;
Les IA très performants sont peu nombreux et sont déployés à très grande échelle, pour gérer des tâches très variés, il y a un risque systémique. Une faille, une erreur mal gérée, etc. a des impacts bien plus élevés que la PME qui se goure dans la facturation. On en a eu un exemple quand certains véhicules autonomes par exemple avaient des comportement erratiques bizarres mais qui concernait plusieurs véhicules à la fois en même temps, l'impact est autre qu'avec des conducteurs très variés qu'on retrouve dans la nature malgré les défauts des humains, l'impact est totalement différent ;
Les éditeurs des IA vantent tout concernant leur modèle (avec du vrai et du fantasme dedans) mais ils n'ont aucun moyen de garantir de manière satisfaisante quoique ce soit. Les capacités exactes sont inconnues, les investigations internes pour s'assurer du bon comportement sont relativement légers face aux risques potentiels, toute mesure qu'ils produisent sont forcément biaisés (même en étant de bonne foi de leur part, ce qui pour certains me semble par ailleurs discutable), donc contractuellement c'est difficile comme question ;
Que penser des éditeurs qui disent que tu peux connecter l'IA à ton courrier électronique pour avoir un résumé de ce qu'il a reçu mais qu'un courriel pas si compliqué et malveillant permet d'exfiltrer des données confidentielles ou d'exécuter des actions à distance au mépris de toute sécurité ? L'erreur incombe à l'éditeur ou à l'utilisateur qui aurait du mettre des gardes fous ?
À mesure que ces IA sont exploités de plus en plus, et dans plus en plus de domaine et probablement avec de moins en moins de surveillance, ces risques augmentent et les problèmes qu'ils posent deviennent systémiques et n'ont absolument rien à voir par rapport à une armée d'humains qui font les mêmes tâches.
Donc je persiste, je ne suis pas d'accord de considérer que ce n'est pas un sujet et que remplacer un humain par une IA pour une tâche donnée ne change pas grand chose. Selon la tâche et la quantité de travail géré ainsi, cela change au contraire tout.
Ce n'est pas un hasard si l'UE par ailleurs a tenté un début de législation qui s'applique aux grands modèles de fondation, de la même façon qu'elle le fait pour les grandes plateformes du numérique tels que certains réseaux sociaux. Car la défaillance ou l'appât du gain peut ici avoir des conséquences bien plus grandes que pour la majorité des entreprises qui font pourtant des choses semblables.
Malheureusement l'UE reste timide et le reste du monde n'essaye même pas.
Je ne vois pas en quoi ce que tu dis répond à ce que je mets en avant.
Peu importe comment on les évalue, la réalité aujourd'hui c'est que beaucoup de choses à leur sujet sont réellement inconnus concernant leurs capacités réelles et leurs faiblesses (qui sont différentes de celles des humains donc la transposition avec un employé humain sera forcément délicat dans ce contexte).
Il n'y a globalement avant une mise à disposition que des évaluations internes, et par ailleurs il semble que les éditeurs n'ont pas de grands scrupules à dire "on n'arrive pas à évaluer plus, ou nos tests ne sont pas très efficaces, osef on délivre quand même". Quelque soit l'angle pour approcher la problématique, ce n'est pas sain du tout.
Ensuite il y a des différences entre l'IA et les humains qu'il faut prendre en compte aussi pour considérer que non, ce n'est pas la même chose et qu'on ne peut pas traiter cela de la même façon.
Déjà un humain est un être vivant qui a des droits et devoirs et la société est bâti autour de l'humain depuis… la naissance de l'Humanité. On ne peut pas limiter arbitrairement des humains dans leurs actions sans une justification forte. Sinon on arrive au type de raisonnements absurde de Sam Altman "les IA consomment moins d'énergie pour être élevé qu'une IA", merci, mais l'objectif c'est aussi de vivre en tant qu'espèce, l'objectif n'est pas de vivre sur une planète remplie de robots à notre place.
Il y a une question de responsabilités. Si demain je fais n'importe quoi au boulot, je serais responsable et je pourrais être condamné pour ça. Si une IA cause des dommages importants, qui l'est ? L'utilisateur de l'IA ? L'éditeur de l'IA ? L'IA elle même ? C'est toujours un sujet assez flou et c'est d'ailleurs un soucis pour établir des contrats d'assurances adaptés car comme les risques sont mal connus / évalués et que le domaine bouge vite, c'est difficile de s'assurer proprement contre ces dits risques.
Les modèles sont aussi relativement peu nombreux à un certain niveau de compétence. Cela signifie qu'une faille ou un bogue quelconque qui touche un modèle peut impacter des millions / milliards de personne d'un coup. La diversité humaine ici a ça de bon, ça implique une redondance et des gardes fous pour éviter des dérives.
Les IA peuvent agir numériquement dans l'ombre et très rapidement à grande échelle, peu d'humains ont une capacité potentielle de nuisance à une si large échelle.
Enfin la nature des erreurs sont différentes, on a l'habitude des problèmes avec les humains dans la vraie vie ou au travail. On a beaucoup de retours sur les bonnes et mauvaises pratiques pour éviter ces risques. Les problèmes liés aux IA sont de nature différente et mal connus donc on ne peut pas transposer les mêmes techniques telles quelles en particulier quand l'utilisateur de l'IA peut être également très mal informé de la question.
Si ton logiciel est trop complexe pour être évalué comme un logiciel (par exemple, comme un logiciel certifié dans l'embarqué), parce que, typiquement, l'examen du code ou du binaire ne t'apprend rien sur la manière dont il fonctionne, alors il va falloir l'évaluer autrement, avec d'autres méthodes et d'autres procédures, et il fa falloir gérer d'autres types de risques.
Tu n'as manifestement jamais travaillé dans un contexte de certifications.
Dans l'aéronautique par exemple, on évalue évidemment le code et la documentation et pas uniquement le comportement final.
Tout d'abord on évalue la criticité du système pour définir des règles applicables. Plus le logiciel est critique, plus les règles seront lourdes ce qui limitera forcément la complexité du projet sinon ce sera trop cher ou risqué. Et à un certain niveau on peut même aboutir à avoir besoin de deux implémentations indépendantes pour éviter que une erreur non détectée sur l'un a des conséquences néfastes (car la probabilité d'avoir deux problèmes identiques qui ont passé les mailles du filet sont faibles).
Les règles s'appliquent à toutes les étapes de la chaine, par exemple la conception même, la documentation, le code et les tests. Tu peux aboutir à une situation où allouer dynamiquement de la mémoire est typiquement interdit et cela est évidemment vérifié.
Ensuite tout est tracé et documenté. Il y a un lien entre cahier des charges -> cahier de conception -> bout de code -> tests. Cela permet de s'assurer que l'ensemble des demandes sont remplies et qu'il n'y a pas d'oublis. Et ces documents sont normalement, relus, évalués et approuvés et pas uniquement par celui qui a codé le logiciel évidemment.
Bien sûr les tests permettent de vérifier en interne comme en externe que le code agit comme voulu mais ce n'est pas le seul aspect qui fait que globalement voler dans un avion est sûr.
On n'a évidemment rien de tout cela concernant les IA, de près comme de loin. Et c'est regrettable (et irresponsable).
Merci énormément pour ces rapports factuels. Les forums (et même parfois celui-ci) sont parfois pollués par une forme de négationnisme (ou de déni) quant aux capacités de ces modèles, et c'est agréable d'avoir des données techniques objectives.
Objectifs, objectifs, y'a forcément des biais, en premier lieu car beaucoup d'informations sur ces technos proviennent… des entreprises éditrices avec des limitations évidentes et il y a à redire.
La recherche plus académique a forcément un train de retard sur les évaluations. Il faut donc aussi être vigilant à ce sujet.
Objectives, et quand même inquiétantes, puisqu'apparemment les derniers modèles défoncent tous les benchmarks existants.
Il semble quand même que les benchmarks ne sont pas si intéressants pour évaluer les LLMs que ce que les éditeurs en disent :
Les benchmarks sont des exercices très délimités, ce qui limite l'évaluation des conditions réelles (de la même façon que tu peux être brillant devant un examen de maths mais ne pas réussir à l'appliquer dans la vie en conditions réelles) ;
Il y a des contaminations, car les modèles ont ces benchmarks dans les entrainements, donc faire la part entre la capacité réelle du modèle et l'effet de la mémorisation n'est pas un exercice facile et il semble bien qu'une partie de l'amélioration des scores viennent de là (mais pas que, évidemment) ;
Comme le benchmark est un KPI très scruté, le éditeurs font probablement des entrainements dédiés pour améliorer le score même si le modèle n'a pas progressé par ailleurs.
Je ne dis pas qu'il n'y a aucune performance dedans et qu'on ne peut rien en tirer (des benchmarks comme des LLMs), mais l'exercice semble réellement difficile pour les évaluer convenablement. ET pas impossible qu'il y ait besoin de temps aussi pour trouver de bonnes approches de la question.
Un deuxième point mentionné, c'est la capacité des modèles récents à détecter les environnements de test, et à contourner les mesures visant à limiter cette détection.
En tout cas je trouve assez irresponsable que les éditeurs délivrent des outils qu'ils n'arrivent pas à évaluer proprement avant et que les évaluations sont par ailleurs effectuées essentiellement en interne. Il faudrait réguler tout ça pour imposer des contrôles externes obligatoires.
Par contre on peut déjà faire tourner un agent IA sur un microcontrôleur à 4€ (clears your inbox, sends emails, manages your calendar, and checks you in for flights from WhatsApp, Telegram, or any chat app) et avec windows 365, on réinvente le thin client (mais ils sont pas assez fort chez MS pour en faire une station diskless ;)
Normal la partie qui consomme c'est l'IA, l'agent n'est qu'un petit programme qui envoie un peu de texte à ces IA à distance localement ou en ligne. Ce n'est pas demain que tu auras le même agent qui tourne localement sur ce genre de configs.
Aujourd'hui le terme est extrêmement dilué, c'est bien pour cela que l'on ne veut pas se baser sur ce terme pour censurer. Si pour toi le facho c'est celui qui extermine les juifs, alors ok, de censurer les facho.
Mais personne ici ne dit qu'il faut censurer les gens car on les traite de fachos sur Twitter car ils votent à droite par exemple.
On parle évidemment de propos qui sont plus graves que cela, comme par exemple ceux de FlorianJ. qui faisait clairement un amalgame entre les personnes immigrées (illégalement ou non) et une violence "tribale". C'est du racisme de base et un grave jugement de valeur à l'emporte pièce qui est par ailleurs non autorisé dans l'espace public.
Mais aujourd'hui condamner l'état d'Israël pour ce qu'il fait est considérer comme facho.
À part le gouvernement israélien qui fait un tel amalgame, ce n'est pas l'impression que j'en ai. C'est même plutôt adressé dans l'autre sens, à savoir ceux qui soutiennent Israël dans son entreprise mortifère corps et âmes sans se préoccuper des palestiniens qui sont qualifiés de fachos. Et étant donnée la politique de l'Israël en ce moment, ce n'est pas tellement injustifié ce qui ne manque pas d'ironie.
Pour aller sur un cas concrêt, ce n'est pas la politique de Donald Trump qui est facho mais les méthode de l'ICE (Qu'il soutient).
Donc Donald Trump a une politique qui fait qu'il déploie l'ICE et qu'il leur donne des pouvoirs importants pour mettre en place sa politique, Trump les défend même quand ils merdent, mais la faute ce n'est que l'ICE ?
Non Trump est chef de l'exécutif et a des responsabilités, de la même façon quand la police en France a des soucis systématiques c'est de la responsabilité aussi du ministre de l'Intérieur et du président.
Aujourd'hui on vide aussi de son sens le terme viol et même parfois meurtre.
Bah voyons. Je dirais plutôt qu'on a enfin reconnu des situations qui étaient graves enfin comme telles.
Mais pour revenir au propos initial, on ne condamne pas les gens en fonction des définitions sur Twitter mais au sens de la loi. Ce qui est interdit ce n'est pas d'être "facho" selon X ou Y sur Internet, c'est de tenir des propos graves qui sont notamment dans l’idéologie fasciste au sens original du terme et c'est ça qui est interdit et doit être censuré et c'est ce qui a été demandé.
Corrélation n'entraine pas causalité. Je n'aurai pas cru l'écrire sur linuxfr.
Les commandes d'électricité, la hausse des factures électriques pour ces boîtes, les demandes pour des centrales nucléaires dédiées, le coût réel par utilisateur qui est loin d'être négligeable, etc. tout ça c'est de la corrélation dont pour OpenAI et Anthropic qui sont littéralement des entreprises qui ne font que ça ?
L'impact environnemental de l'IA générative n'est pas un sujet nouveau et comme par hasard même quand ils sont transparents ils cachent toujours des informations importantes pour conclure, comme par hasard… Mais c'est sans doute un non sujet comme tu le dis, heureusement que tu es là.
Sauf que les requêtes sont de plus en plus nombreux et de plus en plus complexes donc la pénalité environnementale globale augmente à mesure que cela est utilisé.
Ce n'est pas le fait qu'une personne fasse un trajet en voiture pour acheter du pain alors que la boulangerie est à 100 m qui pose un gros problème. Mais quand tout le monde le fait, ce n'est pas le même délire. Et si en plus on allonge la distance et le nombre de trajets par jour, ça n'ira pas mieux loin de là.
On ne peut pas balayer cela d'un revers de la main et cela se voit par les commandes de cartes et d'énergie nécessaires pour les alimenter.
C'est comme dire "compiler le noyau Linux consomme X Watt.heures".
C'est factuellement vrai, mais ça passe outre qu'ils le font en parallèle et en continue pour poursuivre le développement et que des dizaines d'entreprises font cela aussi. Ne prendre en compte que l'entrainement du modèle en production c'est passer à côté du problème.
C'est quand même bizarre que les grandes structures qui avaient des objectifs de neutralité carbone ont remis en cause leur trajectoire d'émission baissière depuis l'arrivée de l'IA générative alors que ces boîtes étaient déjà de gros consommateurs d'énergie. Si cela avait si peu d'impact, cela n'aurait pas remis en question ces trajectoires.
[^] # Re: Les GPUs chinois
Posté par Renault (site web personnel) . En réponse à la dépêche Le jeu vidéo destiné à devenir de moins en moins libre et performant ?. Évalué à 4 (+1/-0).
De toute façon, aucun pays ne peut être autonome pour tous les produits et à toutes les étapes clés. Même la Chine et les USA, relativement autonomes sur de nombreux plans, dépendent d'autres pays ne serait-ce pour la matière première ou certains équipements de pointe.
L'UE n'a pas la capacité de faire mieux qu'eux et aucun pays ne peut avoir une autonomie complète.
Et même s'ils peuvent produire pour eux, ils dépendent aussi de clients pour garantir leur force économique et stratégique. La Chine et les USA peuvent faire des embargo de produits à destination de l'UE mais c'est aussi à double tranchant car ces entreprises ne pourront pas remplacer un si gros client si facilement sans impact pour eux. Sans compter la rupture de confiance qui peut faire des dégâts à long terme envers les pays lésés mais aussi les autres qui pourraient se sentir menacés. Les USA sont en train de le vivre avec la stratégie de Trump qui peut potentiellement donner des gains de courts termes mais très pénalisant à long terme.
C'est un aspect compliqué dans la question des dépendances, globalement les feuilles de route de l'UE sur les différents sujets suggèrent que :
C'est je pense la bonne approche concernant cette question et dans le cas des processeurs être capable de produire un peu de RAM ou gros CPUs devrait entrer dans ce cadre même si le volume ne serait pas nécessairement suffisant pour que tout PC européen utilise ces puces. Maintenant entre les souhaits et la réalité, il y a un grand pas à franchir qu'on peine à faire pour le moment.
[^] # Re: Les GPUs chinois
Posté par Renault (site web personnel) . En réponse à la dépêche Le jeu vidéo destiné à devenir de moins en moins libre et performant ?. Évalué à 4 (+1/-0).
Bien sûr, mais cela ne change pas ce que je dis.
Lancer de telles usines cela reste cher et long. C'est plus facile d'avoir des financements privés et publics si on peut garantir des débouchés. Cela passe par des commandes ou des régulations pour garantir des achats groupés locaux et souvent les acteurs publics sont les premiers à le faire.
La France seule n'a pas la possibilité de garantir ce volume nécessaire, faut trouver d'autres acheteurs à l'étranger et avant de lancer la construction de l'usine. Je ne crois pas que beaucoup d'industriels étrangers vont se battre pour cela sans contraintes externes, d'autant que nous n'avons pas à ce jour de tels produits démontrant le savoir faire de notre pays qui a des compétences connues pour des micro contrôleurs mais pas des puces à haute performance.
On le voit d'ailleurs à d'autres niveau au niveau européen. Le secteur de la défense est très fragmenté et cela freine la possibilité d'avoir des programmes ambitieux malgré le fait que l'Europe est un exportateur majeur d'armes dans le monde. Car peu de coordination des projets au niveau européen ce qui mène à des projets dupliqués mais moins ambitieux et le peu de garanti concernant le volume de production.
D'où l'intérêt de le faire au niveau européen, cela ouvre des horizons et garanties plus larges et évitant les redondance : certains États produisent des composants type mémoire, d'autres des CPUs, etc. Et on a assez d'industriels sur le continent pour qu'on puisse garantir un volume de vente dans tous les cas.
La Chine n'a pas ce problème, elle est plus uniforme sur ce plan, et la main mise du parti permet la Chine de financer des usines non rentables si nécessaires et de forcer ses entreprises à acheter le produit qui en sortira à un volume tel que ça sera intéressant de mener le projet au bout. Et ensuite les produits pourront s'exporter ailleurs, les acheteurs étrangers pourront s'en servir sans prendre de risque et en sachant les capacités réelles des puces produites avant ce qui est un atout important.
[^] # Re: Les GPUs chinois
Posté par Renault (site web personnel) . En réponse à la dépêche Le jeu vidéo destiné à devenir de moins en moins libre et performant ?. Évalué à 6 (+3/-0). Dernière modification le 19 avril 2026 à 15:42.
En même temps c'est assez irréaliste que la France soit indépendante du côté des semi-conducteurs. C'est probablement la mauvaise échelle pour penser cela, c'est plutôt au niveau européen que cela doit être envisagé pour avoir un marché assez grand pour rentabiliser les coûts fixes énormes de cette industrie.
La Chine est assez grande pour envisager ce genre d'indépendance technologique dans son coin.
EDIT : je précise que ta proposition de dépêche sur les produits chinois m'intéresse.
[^] # Re: Beaucoup de bourgeois qui s'ignorent.
Posté par Renault (site web personnel) . En réponse au lien Patrimoine : 10% des ménages captent 50% de la masse, l'héritage comme moteur. Évalué à 4 (+1/-0).
Mais il y a plusieurs possibilités derrière cela en fait.
L'État peut considérer cela comme un actif intéressant ou stratégique et garder la main dessus avec propriété et gestion publique. Elle peut garder les parts mais chercher un dirigeant externe dont potentiellement dans la famille ou les employés actuels de la boîte. Elle peut revendre tout ou partie des parts dont à la famille du défunt ou aux employés éventuellement avec un système de prêt pour la reprise avec un taux intéressant. Etc.
Il y a certainement des cas où l'État en tirera un bénéfice moindre qu'avec le système actuel mais il y en a plein d'autres où elle gagnera bien d'avantage aussi. Et rien n'empêche d'utiliser des seuils de valeur pour différencier les cas ou d'avoir des approches hybrides. Mais on ne peut nier que l'héritage actuellement semble poser bien plus de problèmes au niveau de la société qu'elle n'en résout.
Et là on parle aussi du cas particulier des entreprises familiales mais une bonne partie du patrimoine de nombreuses familles reposent sur des biens de luxe, de l'immobilier, des actions (ou gestion d'une multinationale), etc. où ces problématiques sont absentes.
[^] # Re: Beaucoup de bourgeois qui s'ignorent.
Posté par Renault (site web personnel) . En réponse au lien Patrimoine : 10% des ménages captent 50% de la masse, l'héritage comme moteur. Évalué à 5 (+2/-0).
Tu parles du court terme, mais il y a le long terme et c'est plus compliqué à analyser que juste cet exemple. Car si l'entreprise tourne bien, l'État peut récupérer une partie du bénéfice au long terme aussi à son compte, revendre plus cher à un investisseur, les politiques pour lutter contre les inégalités par ailleurs ont un coût humain et financier qu'il faut analyser sur le temps long.
Sans compter qu'il y a des optimisations possibles pour transmettre le patrimoine ce dont ne se privent pas les plus fortunés ce qui ne permet pas une comparaison avec ta situation si la transmission a été faite sans préparation particulière.
[^] # Re: Beaucoup de bourgeois qui s'ignorent.
Posté par Renault (site web personnel) . En réponse au lien Patrimoine : 10% des ménages captent 50% de la masse, l'héritage comme moteur. Évalué à 6 (+3/-0).
En même temps quand certains héritent de quoi vivre sans devoir travailler le reste de leur vie quand d'autres héritent juste de photos de famille car ils n'ont rien d'autres et vont galérer jusqu'à la fin de leur vie car ils sont pauvres par ailleurs, on ne peut pas dire que c'est un détail. C'est peut être matérialiste mais tant que tout le monde n'a pas la garantie d'avoir de quoi se nourrir, se soigner, se loger dans de bonnes conditions, c'est évidemment à prendre en compte.
Est-ce vertueux de ne rien faire ? Je ne pense pas.
Alors le jour où mes parents mourront, ils ne profiteront plus de leur capital et de leurs biens par définition. Ce ne sont pas eux qui seront punis (ils ne seront plus là), sanctionnés ou confisqués, mais les descendants (ici les enfants).
Mais les enfants en question n'ont rien mérité de spécial, je n'ai pas travaillé pour le capital et les biens obtenus par mes parents. Pourquoi je mérite plus que d'autres à ce sujet ? Car je suis "bien né" ? C'était déjà une chance dans ma jeunesse où je n'ai manqué de rien, pu avoir des conditions de vies très bonnes jusqu'à l'âge adulte grâce à eux, en plus je devrais bénéficier d'un avantage à la fin de ma vie de leur part ? C'est profondément injuste.
En plus le capital s'accumule très facilement dans une famille. À partir d'un seuil de richesse, tu peux léguer par exemple un logement complet et des parts d'entreprises à chaque enfant. Si chaque enfant se marie avec quelqu'un dans ce genre de familles et que chaque couple peut financer des logements par ailleurs, leur descendance auront encore plus de biens à leur nom que la génération au dessus, etc. Et très rapidement tu peux avoir des familles de rentiers de génération en génération pendant que d'autres familles galèrent pour juste financer la location de leur logement principal. Tu trouves ça juste ?
D'un point de vue économique et d'égalité pourtant le débat semble clair, l'héritage actuellement est un problème. Car oui ça nuit aussi à la "saine concurrence libérale" d'avoir des familles qui ont la mainmise sur des pans entiers de l'immobilier ou de l'économie ce qui freine l'apparition de concurrents ou d'alternatives.
Le principal problème est sentimental, les gens ne sont pas près à lâcher ce concept souvent sur le base de mauvaises informations sur l'impact dans la société et leur vie. D'autant que l'héritage est dorénavant touché en général en fin de vie active ou début de retraite, quand la vie est déjà sur la fin et que cet apport de capital est moins nécessaire que quand tu as 20 ans et que tu as une carrière à lancer, une famille à lancer et potentiellement un achat immobilier à financer.
Alors que pourtant il y a plein de moyens de faire concilier le tout :
[^] # Re: Age du compte
Posté par Renault (site web personnel) . En réponse au journal LinuxFr.org s'adapte au futur contrôle de l'âge. Évalué à 8 (+5/-0).
Avec IPoT ce n'est pas sûr comme méthode de vérification.
[^] # Re: Swap sur SSD
Posté par Renault (site web personnel) . En réponse au journal ZRAM et ZSWAP et les mythes associés. Évalué à 9 (+6/-0).
On ne peut pas répondre de manière absolue car tout dépend des besoins.
Avec les SSDs récents la problématique pour un usage normal de l'ordinateur est probablement un non sujet. Ils ont une endurance très suffisante.
En fait ce qui est contre intuitif avec le swap c'est qu'il peut réduire les I/O globaux. Car le swap essaye au maximum d'avoir comme contenu des données dont l''accès est rare voire nulle. Comme des pages d'un programme qui ne tourne pas souvent, des données d'un programme utile à son lancement mais qui ne le sont plus vraiment quand le logiciel tourne, etc.
Donc très souvent le swap va contenir des données qui seront sauvegardées une fois et peu relues. L'espace libéré en RAM va permettre à la place de stocker des données en cache qui sont souvent employées. Si tu manques de RAM et que tu n'as pas de swap, ces données seront souvent sauvegardées ou relues depuis le SSD au lieu de la RAM car ce sont ces données qui seront évincées pour garder de la place en RAM. Et une partie de cette RAM conserve des données qui ne sont pas forcément très sollicitées.
Donc la swap peut réduire l'usure réelle du SSD en condition réelle. Mais cela dépend de ton système et de tes usages.
[^] # Re: LA question
Posté par Renault (site web personnel) . En réponse au journal ZRAM et ZSWAP et les mythes associés. Évalué à 4 (+1/-0).
En fait comme il le précise, le choix de Fedora fait sens pour les raisons suivantes :
Sans cela il trouverait le choix de Fedora mauvais ou du moins discutable.
[^] # Re: "Microsoft was making OOXML deliberately more complicated than it needed to be"
Posté par Renault (site web personnel) . En réponse au journal NextCloud et le format ODF : des gros nuages orageux. Évalué à 4 (+2/-1).
De toute façon si tu ne proposes rien, le sujet n'avancera pas plus.
Par ailleurs proposer des solutions sans évaluer à minima les conséquences de ces solutions c'est un peu facile et revient à mon commentaire précédent. La complexité de l’internationalisation vient aussi de la complexité du sujet et de la quantité de contraintes qui tournent autour.
[^] # Re: "Microsoft was making OOXML deliberately more complicated than it needed to be"
Posté par Renault (site web personnel) . En réponse au journal NextCloud et le format ODF : des gros nuages orageux. Évalué à 7 (+4/-0).
Ou alors :
Le soucis c'est que quand tu critiques sans même esquisser un début de solution, ça fait très "YAKAFOCON" alors qu'il n'y a pas forcément mieux à faire en pratique. Car oui, des solutions simples pour tout problème ça n'existe pas.
# J'ai fait le chemin inverse fin 2025
Posté par Renault (site web personnel) . En réponse au journal Migration sous SailfishOS. Évalué à 7 (+4/-0).
Moi c'est entre Noël et le Nouvel an que j'ai écrasé l'image Sailfish OS de mon Xperia 10 pour remettre Android.
J'ai beaucoup aimé Sailfish OS, j'ai eu le Jolla premier du nom entre 2014 et 2016 avant qu'on ne me le vole, puis Jolla C2 pendant 4 ans avant de finir avec le Xperia 10 acheté et flashé pour l'occasion. J'aime l'interface, les concepts, il y a de bonnes choses dedans.
Mais à l'usage, cela devenait difficile. En fait l'optimisation matérielle avec ce modèle commençait à en pâtir.
J'ai un usage léger de mon téléphone, je tenais certes la journée mais dès que je m'en servais un peu plus c'était fini sans grandes raisons. Et avoir navigation Web + application Android type Whatsapp faisait vite ralentir l'appareil ce qui devenait frustrant. Je rebootais souvent, 1-2 fois par semaine pour retrouver des performances agréables.
L'absence de synchronisation entre le navigateur web et mon Firefox sur mon PC était une limite, et malheureusement avec les performances délicates envisager Firefox Android dessus devenait compliqué.
Alors peut être que j'aurais retrouvé du confort avec un modèle plus récent comme le Xperia 10 III. Mais je tiens à garder mon matériel le plus longtemps possible. Je me suis dit que j'allais redonner une chance à Android, juste pour voir si le soucis c'est le matériel ou le logiciel en tant que tel.
Après une sauvegarde dans tous les sens, j'ai pu facilement remettre le Android d'origine à jour. Le verdict, depuis 3 mois j'ai très peu de ralentissements frustrants, je peux le laisser tourner 14 jours sans avoir besoin de le redémarrer et la batterie à usage constante je ne descends jamais en dessous de 50% en une journée à usage identique.
Par conséquent là où remplacer le téléphone devenait urgent l'est bien moins maintenant. Je redonnerais peut être une chance à Sailfish OS à l'avenir quand l'occasion se présentera car j'ai bien aimé le système.
[^] # Re: spin, labs
Posté par Renault (site web personnel) . En réponse à la dépêche Venez tester Fedora Linux 44 Beta !. Évalué à 3 (+0/-0).
La nomenclature n'est pas tout à fait évidente mais elle est comme suit :
Les SIG sont des groupes de travail, il n'y a pas de lien officiel entre ces notions même si de nombreux SIG aboutissent à la création d'une image spécifique.
[^] # Re: Je me demandais quand et comment cela commencerait
Posté par Renault (site web personnel) . En réponse à la dépêche Les prix Ig Nobel quittent les États-Unis pour s’installer durablement en Europe. Évalué à 6 (+3/-0). Dernière modification le 13 mars 2026 à 12:34.
Cela fait un moment que des conférences internationaux ne se tiennent plus aux USA pour ce genre de motifs ou que des personnes qui vivaient aux USA quittent le pays pour ces motifs ou que des étudiants ou jeunes actifs renoncent à y aller. La chute du tourisme aux USA est aussi très marquée en 2025.
Ce n'est malheureusement qu'un élément de plus d'une longue liste.
[^] # Re: citation
Posté par Renault (site web personnel) . En réponse au lien « Joyeuse fête de la femme ! » : huit idées reçues sur la Journée internationale des droits des femmes. Évalué à 3 (+2/-2).
Sauf que cette phrase ne sort pas de nul part et a un contexte exact sans doute perdu.
Le contexte c'est quand même important pour savoir ce qu'il voulait dire exactement en cas d’ambiguïté.
Selon Wikiquote le contexte est une conférence donnée :
Si c'est bien le cas, ce serait bizarre que Torvalds dans une conf de la FSF utilise le terme free au sens gratuit alors que ce n'est ni la position de la FSF et que Torvalds est bien au courant des subtilité du logiciel libre et qu'il n'était pas opposé à la commercialisation autour de Linux bien au contraire.
Dans le doute éviter d'interpréter le sens d'une phrase qui a plusieurs sens (raisonnables) possibles sans son contexte.
[^] # Re: Inutile
Posté par Renault (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 4 (+1/-0).
Je ne dis pas que ça n'arrive pas, mais je pense que la comparaison brute humain / LLM a de toute façon des limites à cause de la différence de nature (pas les mêmes types d'erreurs, pas les mêmes forces et faiblesses).
Ce que je voulais surtout souligner c'est que la structure des LLM même avec une méthode par renforcement a aussi des limites qui restent encore à explorer de manière fine et qu'il y a peut être des limites qui ne seront pas solubles sans changer fondamentalement d'approche. Cela reste encore incertain, ce qui n'empêche dans le même temps que cette approche continue de montrer des progrès.
[…]
Si tu me lis bien, je ne dis pas le contraire en fait. Je suis personnellement inquiet, oui. D'ailleurs je suis tout aussi inquiet d'une catastrophe causée par une IA à qui on confie trop de tâches dont finalement les limites ont été mal estimées et cela mène à des dégâts considérables tout comme elle est finalement hyper intelligente et compétente, nous a berné et cela mène aussi à notre perte.
Je remets juste en cause le discours de arnaudus qui semble dire que ces questions sont tranchése, que les améliorations des benchmarks ne font que renforcer une seule hypothèse comme si les autres hypothèses n'avaient aucun sens et était une forme de dénie. je rappelle juste qu'il y a encore beaucoup de flous et d'hypothèses sur la table et que la question ne semble pas tranchée et qu'il faudra probablement du temps pour évaluer tout ça et améliorer les protocoles d'évaluation car la question est finalement très récente. D'autant plus que savoir mesurer exactement d'où viennent ces gains et ce que ça implique c'est important et ça a des implications fortes. Le sujet reste réellement complexe.
Est-ce que l'incertitude doit pousser à l'inaction ? Non, dans le doute, prenons l'hypothèse la plus pessimiste qui est plausible et essayons de voir ce qu'on peut faire en amont. Je suis convaincu que la démarche de l'UE d'essayer de réguler est la bonne même si elle est trop timide par exemple et qu'il y a d'autres choses à faire sur le sujet. Et je dénonce aussi le discours et méthodes des éditeurs (et des promoteurs) des IA qui sont pour moi assez hypocrites et irresponsables face à ces enjeux. Un peu comme ceux des groupes pétroliers qui vendent du confort mais aussi la mort de la civilisation en même temps.
[^] # Re: Inutile
Posté par Renault (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 7 (+4/-0).
Cela reste fondamentalement des générateurs de texte, cela ne veut pas dire qu'on ne peut rien tirer de cette approche, les progrès récents le montrent, mais on ignore si cela ne va pas poser des limites structurelles pour les progressions futures.
Car typiquement il arrive qu'il y ait des raisonnements erronés (mauvais raisonnement -> bon résultat quand même, ou raisonnement correct -> mauvais résultat) ce qui peut être lié à la méthodologie derrière.
Je pense que tu ignores que c'est un sujet très discuté et loin d'être clos, comme la recherche publique et indépendante a toujours un train de retard ce n'est pas évident. Un peu de prudence épistémique ne ferait pas de mal.
Les progrès en usage du quotidien sont mesurables, mais la pertinence, l'efficacité et la signification des résultats des benchmarks ne sont pas des sujets triviaux dont on peut accepter les résultats les yeux fermés. La question de l'évaluation des modèle n'est pas clos et reste fondamentale car cela permet aussi d'éclairer comment mesurer leur sûreté et de leurs capacités actuelles et ce qu'on peut éventuellement espérer en tirer, ou découvrir des limitations intrinsèques, dans le futur en continuant ainsi.
[…]
Comme s'il n'y avait que ces deux options alors que là encore d'un point de vue épistémique c'est discutable d'être binaire.
Par exemple je suis fondamentalement convaincu qu'il n'y a rien d'impossible à avoir une conscience artificielle sur silicium. Mais comment s'assurer que devant nous on a affaire à une conscience émergente et authentique, le sujet me semble plus compliqué.
Le fonctionnalisme fonctionne bien en tout cas avec les êtres vivants car il y a des similarités de structure qui font qu'il n'y a pas de raison de ne pas accorder une conscience si un autre être vivant répond d'une certaine façon à des stimuli. En particulier entre nous êtres humains, car nous n'avons pas moyen d'accéder réellement à l'expérience subjective des autres donc on se base sur le principe de similarité pour appliquer le fonctionnalisme ce qui me semble raisonnable.
Cependant, on pourrait imaginer en effet des stimuli et leurs réponses totalement similaires mais d'une autre structure sans faire intervenir la notion de conscience. Et comment s'assurer qu'une conscience est là ou non ? C'est compliqué.
Le fonctionnalisme semble surtout être "faute de mieux, on accorde cette propriété si on a certaines réponses durant un protocole précis", mais ça ne me semble pas tout à fait satisfaisant pour apporter une réponse sûre et définitive sur la question. En particulier quand on a affaire à une entité qui est structurellement différent.
C'est un sujet plus compliqué que ce que tu présentes. Je ne suis pas convaincu qu'il y ait d'ailleurs un vrai consensus scientifique sur ce genre de questions (tout comme sur l'intelligence par ailleurs).
[^] # Re: Merci
Posté par Renault (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 6 (+3/-0).
Et moi je pense que ça se discute et que ça change en fait tout.
Pourquoi ? Quand tu es une entreprise et que tu as des fournisseurs, ces fournisseurs partagent la responsabilité et elle peut même être totale. Par exemple le fournisseur te fourni un composant défectueux et tu dois faire une campagne de rappel et il y a eu des morts ? Le fournisseur peut être sollicité pour payer tous les frais dans cette affaire (genre affaire des airbags en automobile, quand le fournisseur n'a pas fait faillite). L'avion a un crash et c'est un défaut de conception de l'avionneur ? Cela incombe au constructeur et non à l'exploitant de payer, etc.
Ici il y a une relation fournisseur / client et ça change pas mal de choses par rapport à une entreprise qui aurait un employé qui fait la même tâche.
Mais là encore, le problème n'est pas spécifiquement ici en fait. Le soucis est que :
À mesure que ces IA sont exploités de plus en plus, et dans plus en plus de domaine et probablement avec de moins en moins de surveillance, ces risques augmentent et les problèmes qu'ils posent deviennent systémiques et n'ont absolument rien à voir par rapport à une armée d'humains qui font les mêmes tâches.
Donc je persiste, je ne suis pas d'accord de considérer que ce n'est pas un sujet et que remplacer un humain par une IA pour une tâche donnée ne change pas grand chose. Selon la tâche et la quantité de travail géré ainsi, cela change au contraire tout.
Ce n'est pas un hasard si l'UE par ailleurs a tenté un début de législation qui s'applique aux grands modèles de fondation, de la même façon qu'elle le fait pour les grandes plateformes du numérique tels que certains réseaux sociaux. Car la défaillance ou l'appât du gain peut ici avoir des conséquences bien plus grandes que pour la majorité des entreprises qui font pourtant des choses semblables.
Malheureusement l'UE reste timide et le reste du monde n'essaye même pas.
[^] # Re: Merci
Posté par Renault (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 7 (+5/-1). Dernière modification le 04 mars 2026 à 09:28.
Je ne vois pas en quoi ce que tu dis répond à ce que je mets en avant.
Peu importe comment on les évalue, la réalité aujourd'hui c'est que beaucoup de choses à leur sujet sont réellement inconnus concernant leurs capacités réelles et leurs faiblesses (qui sont différentes de celles des humains donc la transposition avec un employé humain sera forcément délicat dans ce contexte).
Il n'y a globalement avant une mise à disposition que des évaluations internes, et par ailleurs il semble que les éditeurs n'ont pas de grands scrupules à dire "on n'arrive pas à évaluer plus, ou nos tests ne sont pas très efficaces, osef on délivre quand même". Quelque soit l'angle pour approcher la problématique, ce n'est pas sain du tout.
Ensuite il y a des différences entre l'IA et les humains qu'il faut prendre en compte aussi pour considérer que non, ce n'est pas la même chose et qu'on ne peut pas traiter cela de la même façon.
Déjà un humain est un être vivant qui a des droits et devoirs et la société est bâti autour de l'humain depuis… la naissance de l'Humanité. On ne peut pas limiter arbitrairement des humains dans leurs actions sans une justification forte. Sinon on arrive au type de raisonnements absurde de Sam Altman "les IA consomment moins d'énergie pour être élevé qu'une IA", merci, mais l'objectif c'est aussi de vivre en tant qu'espèce, l'objectif n'est pas de vivre sur une planète remplie de robots à notre place.
Il y a une question de responsabilités. Si demain je fais n'importe quoi au boulot, je serais responsable et je pourrais être condamné pour ça. Si une IA cause des dommages importants, qui l'est ? L'utilisateur de l'IA ? L'éditeur de l'IA ? L'IA elle même ? C'est toujours un sujet assez flou et c'est d'ailleurs un soucis pour établir des contrats d'assurances adaptés car comme les risques sont mal connus / évalués et que le domaine bouge vite, c'est difficile de s'assurer proprement contre ces dits risques.
Les modèles sont aussi relativement peu nombreux à un certain niveau de compétence. Cela signifie qu'une faille ou un bogue quelconque qui touche un modèle peut impacter des millions / milliards de personne d'un coup. La diversité humaine ici a ça de bon, ça implique une redondance et des gardes fous pour éviter des dérives.
Les IA peuvent agir numériquement dans l'ombre et très rapidement à grande échelle, peu d'humains ont une capacité potentielle de nuisance à une si large échelle.
Enfin la nature des erreurs sont différentes, on a l'habitude des problèmes avec les humains dans la vraie vie ou au travail. On a beaucoup de retours sur les bonnes et mauvaises pratiques pour éviter ces risques. Les problèmes liés aux IA sont de nature différente et mal connus donc on ne peut pas transposer les mêmes techniques telles quelles en particulier quand l'utilisateur de l'IA peut être également très mal informé de la question.
Tu n'as manifestement jamais travaillé dans un contexte de certifications.
Dans l'aéronautique par exemple, on évalue évidemment le code et la documentation et pas uniquement le comportement final.
Tout d'abord on évalue la criticité du système pour définir des règles applicables. Plus le logiciel est critique, plus les règles seront lourdes ce qui limitera forcément la complexité du projet sinon ce sera trop cher ou risqué. Et à un certain niveau on peut même aboutir à avoir besoin de deux implémentations indépendantes pour éviter que une erreur non détectée sur l'un a des conséquences néfastes (car la probabilité d'avoir deux problèmes identiques qui ont passé les mailles du filet sont faibles).
Les règles s'appliquent à toutes les étapes de la chaine, par exemple la conception même, la documentation, le code et les tests. Tu peux aboutir à une situation où allouer dynamiquement de la mémoire est typiquement interdit et cela est évidemment vérifié.
Ensuite tout est tracé et documenté. Il y a un lien entre cahier des charges -> cahier de conception -> bout de code -> tests. Cela permet de s'assurer que l'ensemble des demandes sont remplies et qu'il n'y a pas d'oublis. Et ces documents sont normalement, relus, évalués et approuvés et pas uniquement par celui qui a codé le logiciel évidemment.
Bien sûr les tests permettent de vérifier en interne comme en externe que le code agit comme voulu mais ce n'est pas le seul aspect qui fait que globalement voler dans un avion est sûr.
On n'a évidemment rien de tout cela concernant les IA, de près comme de loin. Et c'est regrettable (et irresponsable).
[^] # Re: Merci
Posté par Renault (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 10 (+9/-1).
Objectifs, objectifs, y'a forcément des biais, en premier lieu car beaucoup d'informations sur ces technos proviennent… des entreprises éditrices avec des limitations évidentes et il y a à redire.
La recherche plus académique a forcément un train de retard sur les évaluations. Il faut donc aussi être vigilant à ce sujet.
Il semble quand même que les benchmarks ne sont pas si intéressants pour évaluer les LLMs que ce que les éditeurs en disent :
Je ne dis pas qu'il n'y a aucune performance dedans et qu'on ne peut rien en tirer (des benchmarks comme des LLMs), mais l'exercice semble réellement difficile pour les évaluer convenablement. ET pas impossible qu'il y ait besoin de temps aussi pour trouver de bonnes approches de la question.
En tout cas je trouve assez irresponsable que les éditeurs délivrent des outils qu'ils n'arrivent pas à évaluer proprement avant et que les évaluations sont par ailleurs effectuées essentiellement en interne. Il faudrait réguler tout ça pour imposer des contrôles externes obligatoires.
[^] # Re: Beurk
Posté par Renault (site web personnel) . En réponse au lien Les devs sont irremplaçables (oui). Évalué à 3 (+0/-0).
Normal la partie qui consomme c'est l'IA, l'agent n'est qu'un petit programme qui envoie un peu de texte à ces IA à distance localement ou en ligne. Ce n'est pas demain que tu auras le même agent qui tourne localement sur ce genre de configs.
Ce n'est pas ça qui importe en fait.
[^] # Re: Vrais fachos ou surréaction ?
Posté par Renault (site web personnel) . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 6 (+4/-1).
Mais personne ici ne dit qu'il faut censurer les gens car on les traite de fachos sur Twitter car ils votent à droite par exemple.
On parle évidemment de propos qui sont plus graves que cela, comme par exemple ceux de FlorianJ. qui faisait clairement un amalgame entre les personnes immigrées (illégalement ou non) et une violence "tribale". C'est du racisme de base et un grave jugement de valeur à l'emporte pièce qui est par ailleurs non autorisé dans l'espace public.
À part le gouvernement israélien qui fait un tel amalgame, ce n'est pas l'impression que j'en ai. C'est même plutôt adressé dans l'autre sens, à savoir ceux qui soutiennent Israël dans son entreprise mortifère corps et âmes sans se préoccuper des palestiniens qui sont qualifiés de fachos. Et étant donnée la politique de l'Israël en ce moment, ce n'est pas tellement injustifié ce qui ne manque pas d'ironie.
Donc Donald Trump a une politique qui fait qu'il déploie l'ICE et qu'il leur donne des pouvoirs importants pour mettre en place sa politique, Trump les défend même quand ils merdent, mais la faute ce n'est que l'ICE ?
Non Trump est chef de l'exécutif et a des responsabilités, de la même façon quand la police en France a des soucis systématiques c'est de la responsabilité aussi du ministre de l'Intérieur et du président.
Bah voyons. Je dirais plutôt qu'on a enfin reconnu des situations qui étaient graves enfin comme telles.
Mais pour revenir au propos initial, on ne condamne pas les gens en fonction des définitions sur Twitter mais au sens de la loi. Ce qui est interdit ce n'est pas d'être "facho" selon X ou Y sur Internet, c'est de tenir des propos graves qui sont notamment dans l’idéologie fasciste au sens original du terme et c'est ça qui est interdit et doit être censuré et c'est ce qui a été demandé.
[^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)
Posté par Renault (site web personnel) . En réponse au journal Recrudescence de contributions générées par IA. Évalué à 10 (+8/-0).
Les commandes d'électricité, la hausse des factures électriques pour ces boîtes, les demandes pour des centrales nucléaires dédiées, le coût réel par utilisateur qui est loin d'être négligeable, etc. tout ça c'est de la corrélation dont pour OpenAI et Anthropic qui sont littéralement des entreprises qui ne font que ça ?
L'impact environnemental de l'IA générative n'est pas un sujet nouveau et comme par hasard même quand ils sont transparents ils cachent toujours des informations importantes pour conclure, comme par hasard… Mais c'est sans doute un non sujet comme tu le dis, heureusement que tu es là.
[^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)
Posté par Renault (site web personnel) . En réponse au journal Recrudescence de contributions générées par IA. Évalué à 10 (+8/-0).
Sauf que les requêtes sont de plus en plus nombreux et de plus en plus complexes donc la pénalité environnementale globale augmente à mesure que cela est utilisé.
Ce n'est pas le fait qu'une personne fasse un trajet en voiture pour acheter du pain alors que la boulangerie est à 100 m qui pose un gros problème. Mais quand tout le monde le fait, ce n'est pas le même délire. Et si en plus on allonge la distance et le nombre de trajets par jour, ça n'ira pas mieux loin de là.
On ne peut pas balayer cela d'un revers de la main et cela se voit par les commandes de cartes et d'énergie nécessaires pour les alimenter.
[^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)
Posté par Renault (site web personnel) . En réponse au journal Recrudescence de contributions générées par IA. Évalué à 9 (+7/-1).
C'est comme dire "compiler le noyau Linux consomme X Watt.heures".
C'est factuellement vrai, mais ça passe outre qu'ils le font en parallèle et en continue pour poursuivre le développement et que des dizaines d'entreprises font cela aussi. Ne prendre en compte que l'entrainement du modèle en production c'est passer à côté du problème.
C'est quand même bizarre que les grandes structures qui avaient des objectifs de neutralité carbone ont remis en cause leur trajectoire d'émission baissière depuis l'arrivée de l'IA générative alors que ces boîtes étaient déjà de gros consommateurs d'énergie. Si cela avait si peu d'impact, cela n'aurait pas remis en question ces trajectoires.