On ne peut pas répondre de manière absolue car tout dépend des besoins.
Avec les SSDs récents la problématique pour un usage normal de l'ordinateur est probablement un non sujet. Ils ont une endurance très suffisante.
En fait ce qui est contre intuitif avec le swap c'est qu'il peut réduire les I/O globaux. Car le swap essaye au maximum d'avoir comme contenu des données dont l''accès est rare voire nulle. Comme des pages d'un programme qui ne tourne pas souvent, des données d'un programme utile à son lancement mais qui ne le sont plus vraiment quand le logiciel tourne, etc.
Donc très souvent le swap va contenir des données qui seront sauvegardées une fois et peu relues. L'espace libéré en RAM va permettre à la place de stocker des données en cache qui sont souvent employées. Si tu manques de RAM et que tu n'as pas de swap, ces données seront souvent sauvegardées ou relues depuis le SSD au lieu de la RAM car ce sont ces données qui seront évincées pour garder de la place en RAM. Et une partie de cette RAM conserve des données qui ne sont pas forcément très sollicitées.
Donc la swap peut réduire l'usure réelle du SSD en condition réelle. Mais cela dépend de ton système et de tes usages.
Pour ce que ça vaut, zram est utilisé par défaut sur fedora depuis quelques versions en lieu et place du swap disque.
En fait comme il le précise, le choix de Fedora fait sens pour les raisons suivantes :
La performance n'est pas le seul critère, la question de la confidentialité des données qui restent dans le swap est une problématique que zram ne pose pas
Il n'y a pas de swap disque par défaut avec ce qui limite les effets pervers qu'il décrit quand zram est couplé avec un swap disque
Fedora utilise le OOM killer de systemd par défaut et non celui du noyau qui est clairement inadapté pour sauver la situation avec un zram
Sans cela il trouverait le choix de Fedora mauvais ou du moins discutable.
Si j'esquisse un début de solution, le débat va partir sur la critique de cette solution pour enterrer la critique de l'existant.
De toute façon si tu ne proposes rien, le sujet n'avancera pas plus.
Par ailleurs proposer des solutions sans évaluer à minima les conséquences de ces solutions c'est un peu facile et revient à mon commentaire précédent. La complexité de l’internationalisation vient aussi de la complexité du sujet et de la quantité de contraintes qui tournent autour.
je constate que c'est un gros merdier et personne n'a pris en compte la difficulté d'implémentation.
Ou alors :
Le problème est de fait un gros merdier et la solution ne peut en être qu'une
Peut être qu'ils ont réfléchi à ces aspects mais n'ont pas trouvé mieux
Peut être qu'il n'y a pas vraiment mieux à faire pour respecter les différentes contraintes
Cette tendance on fait n'importe quoi et si quelqu'un critique, on lui demande de trouver une solution parfaite fait partie du problème :-)
Le soucis c'est que quand tu critiques sans même esquisser un début de solution, ça fait très "YAKAFOCON" alors qu'il n'y a pas forcément mieux à faire en pratique. Car oui, des solutions simples pour tout problème ça n'existe pas.
Moi c'est entre Noël et le Nouvel an que j'ai écrasé l'image Sailfish OS de mon Xperia 10 pour remettre Android.
J'ai beaucoup aimé Sailfish OS, j'ai eu le Jolla premier du nom entre 2014 et 2016 avant qu'on ne me le vole, puis Jolla C2 pendant 4 ans avant de finir avec le Xperia 10 acheté et flashé pour l'occasion. J'aime l'interface, les concepts, il y a de bonnes choses dedans.
Mais à l'usage, cela devenait difficile. En fait l'optimisation matérielle avec ce modèle commençait à en pâtir.
J'ai un usage léger de mon téléphone, je tenais certes la journée mais dès que je m'en servais un peu plus c'était fini sans grandes raisons. Et avoir navigation Web + application Android type Whatsapp faisait vite ralentir l'appareil ce qui devenait frustrant. Je rebootais souvent, 1-2 fois par semaine pour retrouver des performances agréables.
L'absence de synchronisation entre le navigateur web et mon Firefox sur mon PC était une limite, et malheureusement avec les performances délicates envisager Firefox Android dessus devenait compliqué.
Alors peut être que j'aurais retrouvé du confort avec un modèle plus récent comme le Xperia 10 III. Mais je tiens à garder mon matériel le plus longtemps possible. Je me suis dit que j'allais redonner une chance à Android, juste pour voir si le soucis c'est le matériel ou le logiciel en tant que tel.
Après une sauvegarde dans tous les sens, j'ai pu facilement remettre le Android d'origine à jour. Le verdict, depuis 3 mois j'ai très peu de ralentissements frustrants, je peux le laisser tourner 14 jours sans avoir besoin de le redémarrer et la batterie à usage constante je ne descends jamais en dessous de 50% en une journée à usage identique.
Par conséquent là où remplacer le téléphone devenait urgent l'est bien moins maintenant. Je redonnerais peut être une chance à Sailfish OS à l'avenir quand l'occasion se présentera car j'ai bien aimé le système.
les labs correspondent-ils au nouveau nom des Special Interest Groups (SIG) ou est-ce les spins (saveur en français) qui semblent plutôt correspondre aux déclinaisons de bureaux (KDE/Plasma, GNOME, XFCE, autre ?)
je n'ai pas vu de déclinaison des ISO de bêta pour les labs ? à moins que ce soit cloud et IoT ?
pour les spins : ok Workstation c'est GNOME, ya KDE/Plasma et pas vu XFCE (ah si !)
La nomenclature n'est pas tout à fait évidente mais elle est comme suit :
Les éditions : Workstation, KDE Plasma, IoT, Server et Cloud qui sont les images officielles avec un cas d'usage phare et typiquement un bogue majeur qui affecte une de ces images peut bloquer la sortie d'une version de Fedora
Les spins : ce sont des variantes avec des environnements de bureaux alternatifs par défaut
Les labs : ce sont des images avec beaucoup de logiciels préinstallés pour certains usages spécifiques
Les SIG sont des groupes de travail, il n'y a pas de lien officiel entre ces notions même si de nombreux SIG aboutissent à la création d'une image spécifique.
Cela fait un moment que des conférences internationaux ne se tiennent plus aux USA pour ce genre de motifs ou que des personnes qui vivaient aux USA quittent le pays pour ces motifs ou que des étudiants ou jeunes actifs renoncent à y aller. La chute du tourisme aux USA est aussi très marquée en 2025.
Ce n'est malheureusement qu'un élément de plus d'une longue liste.
Vue de l'extérieur la phrase de Torvald prête à confusion. S'il avait déclaré :
"Software is like love (1): it's better when it's free", il n'y aurait eu aucun problème.
Sauf que cette phrase ne sort pas de nul part et a un contexte exact sans doute perdu.
Le contexte c'est quand même important pour savoir ce qu'il voulait dire exactement en cas d’ambiguïté.
Selon Wikiquote le contexte est une conférence donnée :
Attributed to Torvalds at 1996 FSF conference
Si c'est bien le cas, ce serait bizarre que Torvalds dans une conf de la FSF utilise le terme free au sens gratuit alors que ce n'est ni la position de la FSF et que Torvalds est bien au courant des subtilité du logiciel libre et qu'il n'était pas opposé à la commercialisation autour de Linux bien au contraire.
Dans le doute éviter d'interpréter le sens d'une phrase qui a plusieurs sens (raisonnables) possibles sans son contexte.
Je ne dis pas que ça n'arrive pas, mais je pense que la comparaison brute humain / LLM a de toute façon des limites à cause de la différence de nature (pas les mêmes types d'erreurs, pas les mêmes forces et faiblesses).
Ce que je voulais surtout souligner c'est que la structure des LLM même avec une méthode par renforcement a aussi des limites qui restent encore à explorer de manière fine et qu'il y a peut être des limites qui ne seront pas solubles sans changer fondamentalement d'approche. Cela reste encore incertain, ce qui n'empêche dans le même temps que cette approche continue de montrer des progrès.
Tout comme la question de la transmission aérienne du COVID en février 2020 était un sujet discuté et loin d’être clos.
Il y a, fondamentalement, deux manières de réagir à une exponentielle : trop tôt ou trop tard. Se réfugier derrière l’incertitude pour justifier l’inaction, ce n’est pas de la prudence, c’est se forcer à l’alternative « trop tard ». Pour le COVID, nous avons choisi l’option « trop tard », pour exactement la même raison que nous sommes en train de choisir l’option « trop tard » pour l’IA. Par peur du ridicule de présenter aussi sérieusement un scénario aussi « étrange, hors de l’ordinaire ». Par mimétisme « personne ne semble inquiet, pourquoi devrais-je l’être ».
[…]
C’est l’extrapolation directe et brute (relisez ces deux mots, ils sont importants) de nos meilleures données QUE J’ESSAIE DEPUIS MAINTENANT UN AN DE FAIRE RENTRER DANS VOS CERVEAUX BORDEL DE MERDE (désolé, ça devait sortir). Ça ne signifie évidemment aucune certitude ; nos données peuvent être insuffisantes et ne pas capturer des dimensions nécessaires de l’intelligence ; la tendance peut peut-être s’arrêter brutalement sans raison claire. Dans l’autre sens : la tendance pourrait très bien s’accélérer maintenant que l’IA participe et accélère le développement de l’IA. Un meilleur paradigme peut apparaître à tout moment, et à nouveau accélérer les choses. L’incertitude ne va pas uniquement dans le sens de l’optimisme.
Si tu me lis bien, je ne dis pas le contraire en fait. Je suis personnellement inquiet, oui. D'ailleurs je suis tout aussi inquiet d'une catastrophe causée par une IA à qui on confie trop de tâches dont finalement les limites ont été mal estimées et cela mène à des dégâts considérables tout comme elle est finalement hyper intelligente et compétente, nous a berné et cela mène aussi à notre perte.
Je remets juste en cause le discours de arnaudus qui semble dire que ces questions sont tranchése, que les améliorations des benchmarks ne font que renforcer une seule hypothèse comme si les autres hypothèses n'avaient aucun sens et était une forme de dénie. je rappelle juste qu'il y a encore beaucoup de flous et d'hypothèses sur la table et que la question ne semble pas tranchée et qu'il faudra probablement du temps pour évaluer tout ça et améliorer les protocoles d'évaluation car la question est finalement très récente. D'autant plus que savoir mesurer exactement d'où viennent ces gains et ce que ça implique c'est important et ça a des implications fortes. Le sujet reste réellement complexe.
Est-ce que l'incertitude doit pousser à l'inaction ? Non, dans le doute, prenons l'hypothèse la plus pessimiste qui est plausible et essayons de voir ce qu'on peut faire en amont. Je suis convaincu que la démarche de l'UE d'essayer de réguler est la bonne même si elle est trop timide par exemple et qu'il y a d'autres choses à faire sur le sujet. Et je dénonce aussi le discours et méthodes des éditeurs (et des promoteurs) des IA qui sont pour moi assez hypocrites et irresponsables face à ces enjeux. Un peu comme ceux des groupes pétroliers qui vendent du confort mais aussi la mort de la civilisation en même temps.
1) Ces modèles ne sont plus depuis des années des prédicteurs de texte et des chatbots sophistiqués qui débiteraient des textes au kilomètre. Les algorithmes modernes s'entrainent par renforcement (comme les algo alpha* de Google) et mènent des raisonnements (ils génèrent de très longues chaines de raisonnements en arrière-plan et choisissent les éléments qui seront donnés en réponse aux requêtes)
Cela reste fondamentalement des générateurs de texte, cela ne veut pas dire qu'on ne peut rien tirer de cette approche, les progrès récents le montrent, mais on ignore si cela ne va pas poser des limites structurelles pour les progressions futures.
Car typiquement il arrive qu'il y ait des raisonnements erronés (mauvais raisonnement -> bon résultat quand même, ou raisonnement correct -> mauvais résultat) ce qui peut être lié à la méthodologie derrière.
2) Les performances sur tous les benchmarks existants progressent jusqu'à les saturer rapidement, et contrairement à une croyance un peu facile, ça n'est pas à cause de la diffusion des résultats des benchmarks. Les benchmarks sont diversifiés, certains sont maths/science, d'autres sont sur la production de code fonctionnel, d'autres sur des activités comptables/administratives, etc.
Je pense que tu ignores que c'est un sujet très discuté et loin d'être clos, comme la recherche publique et indépendante a toujours un train de retard ce n'est pas évident. Un peu de prudence épistémique ne ferait pas de mal.
Les progrès en usage du quotidien sont mesurables, mais la pertinence, l'efficacité et la signification des résultats des benchmarks ne sont pas des sujets triviaux dont on peut accepter les résultats les yeux fermés. La question de l'évaluation des modèle n'est pas clos et reste fondamentale car cela permet aussi d'éclairer comment mesurer leur sûreté et de leurs capacités actuelles et ce qu'on peut éventuellement espérer en tirer, ou découvrir des limitations intrinsèques, dans le futur en continuant ainsi.
La réponse est un peu dans la manière dont tu te poses la question. Si tu es fonctionnaliste, la question est "est-ce que ce programme se comporte comme si il avait une conscience?". Le fait de détecter un environnement de test et de le cacher à l'expérimentateur va clairement dans cette direction: le modèle comprend d'une manière ou d'une autre qu'il est dans un environnement de test, et décide d'une manière ou d'une autre de mentir. Tu le déduis du comportement du modèle, de la même manière que tu déduis que ton voisin a une conscience parce qu'il se comporte comme s'il en avait une.
[…]
Il faut choisir son camp et en déduire la réponse à la question, mais ça ne sert à rien de faire croire que la question est ouverte si on n'est pas fonctionnaliste.
Comme s'il n'y avait que ces deux options alors que là encore d'un point de vue épistémique c'est discutable d'être binaire.
Par exemple je suis fondamentalement convaincu qu'il n'y a rien d'impossible à avoir une conscience artificielle sur silicium. Mais comment s'assurer que devant nous on a affaire à une conscience émergente et authentique, le sujet me semble plus compliqué.
Le fonctionnalisme fonctionne bien en tout cas avec les êtres vivants car il y a des similarités de structure qui font qu'il n'y a pas de raison de ne pas accorder une conscience si un autre être vivant répond d'une certaine façon à des stimuli. En particulier entre nous êtres humains, car nous n'avons pas moyen d'accéder réellement à l'expérience subjective des autres donc on se base sur le principe de similarité pour appliquer le fonctionnalisme ce qui me semble raisonnable.
Cependant, on pourrait imaginer en effet des stimuli et leurs réponses totalement similaires mais d'une autre structure sans faire intervenir la notion de conscience. Et comment s'assurer qu'une conscience est là ou non ? C'est compliqué.
Le fonctionnalisme semble surtout être "faute de mieux, on accorde cette propriété si on a certaines réponses durant un protocole précis", mais ça ne me semble pas tout à fait satisfaisant pour apporter une réponse sûre et définitive sur la question. En particulier quand on a affaire à une entité qui est structurellement différent.
C'est un sujet plus compliqué que ce que tu présentes. Je ne suis pas convaincu qu'il y ait d'ailleurs un vrai consensus scientifique sur ce genre de questions (tout comme sur l'intelligence par ailleurs).
C'est avant tout l'entreprise qui a fait l'erreur, ça ne change pas.
Et moi je pense que ça se discute et que ça change en fait tout.
Pourquoi ? Quand tu es une entreprise et que tu as des fournisseurs, ces fournisseurs partagent la responsabilité et elle peut même être totale. Par exemple le fournisseur te fourni un composant défectueux et tu dois faire une campagne de rappel et il y a eu des morts ? Le fournisseur peut être sollicité pour payer tous les frais dans cette affaire (genre affaire des airbags en automobile, quand le fournisseur n'a pas fait faillite). L'avion a un crash et c'est un défaut de conception de l'avionneur ? Cela incombe au constructeur et non à l'exploitant de payer, etc.
Ici il y a une relation fournisseur / client et ça change pas mal de choses par rapport à une entreprise qui aurait un employé qui fait la même tâche.
Mais là encore, le problème n'est pas spécifiquement ici en fait. Le soucis est que :
Si l'IA permet d'augmenter en productivité, les volumes traités sont plus élevés, même avec une erreur moindre en proportion, le nombre de problèmes peut être plus élevés ;
Les IA très performants sont peu nombreux et sont déployés à très grande échelle, pour gérer des tâches très variés, il y a un risque systémique. Une faille, une erreur mal gérée, etc. a des impacts bien plus élevés que la PME qui se goure dans la facturation. On en a eu un exemple quand certains véhicules autonomes par exemple avaient des comportement erratiques bizarres mais qui concernait plusieurs véhicules à la fois en même temps, l'impact est autre qu'avec des conducteurs très variés qu'on retrouve dans la nature malgré les défauts des humains, l'impact est totalement différent ;
Les éditeurs des IA vantent tout concernant leur modèle (avec du vrai et du fantasme dedans) mais ils n'ont aucun moyen de garantir de manière satisfaisante quoique ce soit. Les capacités exactes sont inconnues, les investigations internes pour s'assurer du bon comportement sont relativement légers face aux risques potentiels, toute mesure qu'ils produisent sont forcément biaisés (même en étant de bonne foi de leur part, ce qui pour certains me semble par ailleurs discutable), donc contractuellement c'est difficile comme question ;
Que penser des éditeurs qui disent que tu peux connecter l'IA à ton courrier électronique pour avoir un résumé de ce qu'il a reçu mais qu'un courriel pas si compliqué et malveillant permet d'exfiltrer des données confidentielles ou d'exécuter des actions à distance au mépris de toute sécurité ? L'erreur incombe à l'éditeur ou à l'utilisateur qui aurait du mettre des gardes fous ?
À mesure que ces IA sont exploités de plus en plus, et dans plus en plus de domaine et probablement avec de moins en moins de surveillance, ces risques augmentent et les problèmes qu'ils posent deviennent systémiques et n'ont absolument rien à voir par rapport à une armée d'humains qui font les mêmes tâches.
Donc je persiste, je ne suis pas d'accord de considérer que ce n'est pas un sujet et que remplacer un humain par une IA pour une tâche donnée ne change pas grand chose. Selon la tâche et la quantité de travail géré ainsi, cela change au contraire tout.
Ce n'est pas un hasard si l'UE par ailleurs a tenté un début de législation qui s'applique aux grands modèles de fondation, de la même façon qu'elle le fait pour les grandes plateformes du numérique tels que certains réseaux sociaux. Car la défaillance ou l'appât du gain peut ici avoir des conséquences bien plus grandes que pour la majorité des entreprises qui font pourtant des choses semblables.
Malheureusement l'UE reste timide et le reste du monde n'essaye même pas.
Je ne vois pas en quoi ce que tu dis répond à ce que je mets en avant.
Peu importe comment on les évalue, la réalité aujourd'hui c'est que beaucoup de choses à leur sujet sont réellement inconnus concernant leurs capacités réelles et leurs faiblesses (qui sont différentes de celles des humains donc la transposition avec un employé humain sera forcément délicat dans ce contexte).
Il n'y a globalement avant une mise à disposition que des évaluations internes, et par ailleurs il semble que les éditeurs n'ont pas de grands scrupules à dire "on n'arrive pas à évaluer plus, ou nos tests ne sont pas très efficaces, osef on délivre quand même". Quelque soit l'angle pour approcher la problématique, ce n'est pas sain du tout.
Ensuite il y a des différences entre l'IA et les humains qu'il faut prendre en compte aussi pour considérer que non, ce n'est pas la même chose et qu'on ne peut pas traiter cela de la même façon.
Déjà un humain est un être vivant qui a des droits et devoirs et la société est bâti autour de l'humain depuis… la naissance de l'Humanité. On ne peut pas limiter arbitrairement des humains dans leurs actions sans une justification forte. Sinon on arrive au type de raisonnements absurde de Sam Altman "les IA consomment moins d'énergie pour être élevé qu'une IA", merci, mais l'objectif c'est aussi de vivre en tant qu'espèce, l'objectif n'est pas de vivre sur une planète remplie de robots à notre place.
Il y a une question de responsabilités. Si demain je fais n'importe quoi au boulot, je serais responsable et je pourrais être condamné pour ça. Si une IA cause des dommages importants, qui l'est ? L'utilisateur de l'IA ? L'éditeur de l'IA ? L'IA elle même ? C'est toujours un sujet assez flou et c'est d'ailleurs un soucis pour établir des contrats d'assurances adaptés car comme les risques sont mal connus / évalués et que le domaine bouge vite, c'est difficile de s'assurer proprement contre ces dits risques.
Les modèles sont aussi relativement peu nombreux à un certain niveau de compétence. Cela signifie qu'une faille ou un bogue quelconque qui touche un modèle peut impacter des millions / milliards de personne d'un coup. La diversité humaine ici a ça de bon, ça implique une redondance et des gardes fous pour éviter des dérives.
Les IA peuvent agir numériquement dans l'ombre et très rapidement à grande échelle, peu d'humains ont une capacité potentielle de nuisance à une si large échelle.
Enfin la nature des erreurs sont différentes, on a l'habitude des problèmes avec les humains dans la vraie vie ou au travail. On a beaucoup de retours sur les bonnes et mauvaises pratiques pour éviter ces risques. Les problèmes liés aux IA sont de nature différente et mal connus donc on ne peut pas transposer les mêmes techniques telles quelles en particulier quand l'utilisateur de l'IA peut être également très mal informé de la question.
Si ton logiciel est trop complexe pour être évalué comme un logiciel (par exemple, comme un logiciel certifié dans l'embarqué), parce que, typiquement, l'examen du code ou du binaire ne t'apprend rien sur la manière dont il fonctionne, alors il va falloir l'évaluer autrement, avec d'autres méthodes et d'autres procédures, et il fa falloir gérer d'autres types de risques.
Tu n'as manifestement jamais travaillé dans un contexte de certifications.
Dans l'aéronautique par exemple, on évalue évidemment le code et la documentation et pas uniquement le comportement final.
Tout d'abord on évalue la criticité du système pour définir des règles applicables. Plus le logiciel est critique, plus les règles seront lourdes ce qui limitera forcément la complexité du projet sinon ce sera trop cher ou risqué. Et à un certain niveau on peut même aboutir à avoir besoin de deux implémentations indépendantes pour éviter que une erreur non détectée sur l'un a des conséquences néfastes (car la probabilité d'avoir deux problèmes identiques qui ont passé les mailles du filet sont faibles).
Les règles s'appliquent à toutes les étapes de la chaine, par exemple la conception même, la documentation, le code et les tests. Tu peux aboutir à une situation où allouer dynamiquement de la mémoire est typiquement interdit et cela est évidemment vérifié.
Ensuite tout est tracé et documenté. Il y a un lien entre cahier des charges -> cahier de conception -> bout de code -> tests. Cela permet de s'assurer que l'ensemble des demandes sont remplies et qu'il n'y a pas d'oublis. Et ces documents sont normalement, relus, évalués et approuvés et pas uniquement par celui qui a codé le logiciel évidemment.
Bien sûr les tests permettent de vérifier en interne comme en externe que le code agit comme voulu mais ce n'est pas le seul aspect qui fait que globalement voler dans un avion est sûr.
On n'a évidemment rien de tout cela concernant les IA, de près comme de loin. Et c'est regrettable (et irresponsable).
Merci énormément pour ces rapports factuels. Les forums (et même parfois celui-ci) sont parfois pollués par une forme de négationnisme (ou de déni) quant aux capacités de ces modèles, et c'est agréable d'avoir des données techniques objectives.
Objectifs, objectifs, y'a forcément des biais, en premier lieu car beaucoup d'informations sur ces technos proviennent… des entreprises éditrices avec des limitations évidentes et il y a à redire.
La recherche plus académique a forcément un train de retard sur les évaluations. Il faut donc aussi être vigilant à ce sujet.
Objectives, et quand même inquiétantes, puisqu'apparemment les derniers modèles défoncent tous les benchmarks existants.
Il semble quand même que les benchmarks ne sont pas si intéressants pour évaluer les LLMs que ce que les éditeurs en disent :
Les benchmarks sont des exercices très délimités, ce qui limite l'évaluation des conditions réelles (de la même façon que tu peux être brillant devant un examen de maths mais ne pas réussir à l'appliquer dans la vie en conditions réelles) ;
Il y a des contaminations, car les modèles ont ces benchmarks dans les entrainements, donc faire la part entre la capacité réelle du modèle et l'effet de la mémorisation n'est pas un exercice facile et il semble bien qu'une partie de l'amélioration des scores viennent de là (mais pas que, évidemment) ;
Comme le benchmark est un KPI très scruté, le éditeurs font probablement des entrainements dédiés pour améliorer le score même si le modèle n'a pas progressé par ailleurs.
Je ne dis pas qu'il n'y a aucune performance dedans et qu'on ne peut rien en tirer (des benchmarks comme des LLMs), mais l'exercice semble réellement difficile pour les évaluer convenablement. ET pas impossible qu'il y ait besoin de temps aussi pour trouver de bonnes approches de la question.
Un deuxième point mentionné, c'est la capacité des modèles récents à détecter les environnements de test, et à contourner les mesures visant à limiter cette détection.
En tout cas je trouve assez irresponsable que les éditeurs délivrent des outils qu'ils n'arrivent pas à évaluer proprement avant et que les évaluations sont par ailleurs effectuées essentiellement en interne. Il faudrait réguler tout ça pour imposer des contrôles externes obligatoires.
Par contre on peut déjà faire tourner un agent IA sur un microcontrôleur à 4€ (clears your inbox, sends emails, manages your calendar, and checks you in for flights from WhatsApp, Telegram, or any chat app) et avec windows 365, on réinvente le thin client (mais ils sont pas assez fort chez MS pour en faire une station diskless ;)
Normal la partie qui consomme c'est l'IA, l'agent n'est qu'un petit programme qui envoie un peu de texte à ces IA à distance localement ou en ligne. Ce n'est pas demain que tu auras le même agent qui tourne localement sur ce genre de configs.
Aujourd'hui le terme est extrêmement dilué, c'est bien pour cela que l'on ne veut pas se baser sur ce terme pour censurer. Si pour toi le facho c'est celui qui extermine les juifs, alors ok, de censurer les facho.
Mais personne ici ne dit qu'il faut censurer les gens car on les traite de fachos sur Twitter car ils votent à droite par exemple.
On parle évidemment de propos qui sont plus graves que cela, comme par exemple ceux de FlorianJ. qui faisait clairement un amalgame entre les personnes immigrées (illégalement ou non) et une violence "tribale". C'est du racisme de base et un grave jugement de valeur à l'emporte pièce qui est par ailleurs non autorisé dans l'espace public.
Mais aujourd'hui condamner l'état d'Israël pour ce qu'il fait est considérer comme facho.
À part le gouvernement israélien qui fait un tel amalgame, ce n'est pas l'impression que j'en ai. C'est même plutôt adressé dans l'autre sens, à savoir ceux qui soutiennent Israël dans son entreprise mortifère corps et âmes sans se préoccuper des palestiniens qui sont qualifiés de fachos. Et étant donnée la politique de l'Israël en ce moment, ce n'est pas tellement injustifié ce qui ne manque pas d'ironie.
Pour aller sur un cas concrêt, ce n'est pas la politique de Donald Trump qui est facho mais les méthode de l'ICE (Qu'il soutient).
Donc Donald Trump a une politique qui fait qu'il déploie l'ICE et qu'il leur donne des pouvoirs importants pour mettre en place sa politique, Trump les défend même quand ils merdent, mais la faute ce n'est que l'ICE ?
Non Trump est chef de l'exécutif et a des responsabilités, de la même façon quand la police en France a des soucis systématiques c'est de la responsabilité aussi du ministre de l'Intérieur et du président.
Aujourd'hui on vide aussi de son sens le terme viol et même parfois meurtre.
Bah voyons. Je dirais plutôt qu'on a enfin reconnu des situations qui étaient graves enfin comme telles.
Mais pour revenir au propos initial, on ne condamne pas les gens en fonction des définitions sur Twitter mais au sens de la loi. Ce qui est interdit ce n'est pas d'être "facho" selon X ou Y sur Internet, c'est de tenir des propos graves qui sont notamment dans l’idéologie fasciste au sens original du terme et c'est ça qui est interdit et doit être censuré et c'est ce qui a été demandé.
Corrélation n'entraine pas causalité. Je n'aurai pas cru l'écrire sur linuxfr.
Les commandes d'électricité, la hausse des factures électriques pour ces boîtes, les demandes pour des centrales nucléaires dédiées, le coût réel par utilisateur qui est loin d'être négligeable, etc. tout ça c'est de la corrélation dont pour OpenAI et Anthropic qui sont littéralement des entreprises qui ne font que ça ?
L'impact environnemental de l'IA générative n'est pas un sujet nouveau et comme par hasard même quand ils sont transparents ils cachent toujours des informations importantes pour conclure, comme par hasard… Mais c'est sans doute un non sujet comme tu le dis, heureusement que tu es là.
Sauf que les requêtes sont de plus en plus nombreux et de plus en plus complexes donc la pénalité environnementale globale augmente à mesure que cela est utilisé.
Ce n'est pas le fait qu'une personne fasse un trajet en voiture pour acheter du pain alors que la boulangerie est à 100 m qui pose un gros problème. Mais quand tout le monde le fait, ce n'est pas le même délire. Et si en plus on allonge la distance et le nombre de trajets par jour, ça n'ira pas mieux loin de là.
On ne peut pas balayer cela d'un revers de la main et cela se voit par les commandes de cartes et d'énergie nécessaires pour les alimenter.
C'est comme dire "compiler le noyau Linux consomme X Watt.heures".
C'est factuellement vrai, mais ça passe outre qu'ils le font en parallèle et en continue pour poursuivre le développement et que des dizaines d'entreprises font cela aussi. Ne prendre en compte que l'entrainement du modèle en production c'est passer à côté du problème.
C'est quand même bizarre que les grandes structures qui avaient des objectifs de neutralité carbone ont remis en cause leur trajectoire d'émission baissière depuis l'arrivée de l'IA générative alors que ces boîtes étaient déjà de gros consommateurs d'énergie. Si cela avait si peu d'impact, cela n'aurait pas remis en question ces trajectoires.
Je n'ai pas l'historique de toutes les conversations, et honnêtement je m'en fous. Mais quand je vois le commentaire pointé, je le dis que l'auteur du journal est de mauvaise foi.
Pourtant dans ce contexte je dirais que c'est important. Si on prend le commentaire de manière isolé du reste, je serais d'accord avec toi mais là honnêtement la posture ne tient pas.
La modération est d'ailleurs finalement intervenue pour certains propos de cette personne plus loin et à mon sens ces propos traduits bien ce qui est pointé par Spacefox ici.
C'est jouer avec l’ambiguïté que d'utiliser les guillemets ici. Et quand bien même il ne le serait pas dans l'absolu, certains propos vont clairement trop loin ce qui fait que la remarque initiale reste pertinente.
Et en soit penser qu'il faut de la sélection naturel ou que les noir ceci, les noirs cela ne sont que des opinions. Elle sont critiquable mais tant que l'on en reste là elle font progresser le débat.
Euh pardon ? On fait progresser quel débat avec ce genre de trucs ?
On a le droit de vouloir renvoyer les étrangers (ce serait dommageable selon moi) mais on a pas le droit de leur vouloir du mal.
Le problème dans le débat n'est pas forcément la décision politique finale d'autoriser plus ou moins d'immigration par exemple.
Le soucis ce sont les arguments avancés qui sont souvent faux d'une part (grand remplacement, tout ça), le rejet d'une population en particulier liée à sa race, sa religion ou culture (les ukrainiens fuient la guerre c'est ok, les syriens non, devine pourquoi), assimiler l'immigration à "melting-pot multiculturel insécuritaire avec des dizaines de communautés tribales qui se méfient entre elles" (sic).
Et c'est le soucis de ce genre de sujets, ça dérape très vite dans ces considérations où on rejette des personnes pour ce qu'ils sont plutôt que ce qu'ils font, il y a établissement d'une hiérarchie de valeur entre humains, et on retire toute humanité concernant les principaux concernés par ces politiques.
Le problème n'est pas de discuter dans le fond politiquement de ce sujet, le soucis c'est les arguments avancés qui sont toujours +/- les mêmes et ont des conséquences assez terribles dont les USA nous donnent un bon aperçu en ce moment.
Sans compter l'historique du personnage ici même, ce n'est pas comme si ses précédents commentaires concernant l'immigration en France n'étaient pas connus.
Grand fan de la théorie du grand remplacement. On ne peut pas détacher ses commentaires récents de ce parcours.
Alors déjà ça ne s'applique pleinement qu'en Belgique francophone, et la population locale a quand même un sentiment nationaliste bien plus faible de base ce qui réduit la porté de certains discours de l'extrême droite même si une bonne part peut toujours s'appliquer.
C'est tout le contraire en fait s'il y a des vélos entre 150 et 15000€, la médiane est de 7475€.
Pas vraiment non. La médiane tient compte du nombre de produits et de leur répartition. Il est peu probable qu'il y ait un équilibre entre les modèles haut de gammes et bas de gammes. Souvent le bas de gammes à plus de références car plus de personnes peuvent en acheter mais ça dépend des produits.
Installer Sailfish n'est pas spécialement long ni compliqué pour un linuxien. La procédure est claire et relativement simple et revenir sur Android est tout aussi facile en cas de besoin.
Par contre attention, le Xperia IV, V et au delà n'ont pas un support official de la part de Jolla à ce jour, la qualité de l'intégration peut être très mauvaise.
[^] # Re: Age du compte
Posté par Renault (site web personnel) . En réponse au journal LinuxFr.org s'adapte au futur contrôle de l'âge. Évalué à 8 (+5/-0).
Avec IPoT ce n'est pas sûr comme méthode de vérification.
[^] # Re: Swap sur SSD
Posté par Renault (site web personnel) . En réponse au journal ZRAM et ZSWAP et les mythes associés. Évalué à 9 (+6/-0).
On ne peut pas répondre de manière absolue car tout dépend des besoins.
Avec les SSDs récents la problématique pour un usage normal de l'ordinateur est probablement un non sujet. Ils ont une endurance très suffisante.
En fait ce qui est contre intuitif avec le swap c'est qu'il peut réduire les I/O globaux. Car le swap essaye au maximum d'avoir comme contenu des données dont l''accès est rare voire nulle. Comme des pages d'un programme qui ne tourne pas souvent, des données d'un programme utile à son lancement mais qui ne le sont plus vraiment quand le logiciel tourne, etc.
Donc très souvent le swap va contenir des données qui seront sauvegardées une fois et peu relues. L'espace libéré en RAM va permettre à la place de stocker des données en cache qui sont souvent employées. Si tu manques de RAM et que tu n'as pas de swap, ces données seront souvent sauvegardées ou relues depuis le SSD au lieu de la RAM car ce sont ces données qui seront évincées pour garder de la place en RAM. Et une partie de cette RAM conserve des données qui ne sont pas forcément très sollicitées.
Donc la swap peut réduire l'usure réelle du SSD en condition réelle. Mais cela dépend de ton système et de tes usages.
[^] # Re: LA question
Posté par Renault (site web personnel) . En réponse au journal ZRAM et ZSWAP et les mythes associés. Évalué à 4 (+1/-0).
En fait comme il le précise, le choix de Fedora fait sens pour les raisons suivantes :
Sans cela il trouverait le choix de Fedora mauvais ou du moins discutable.
[^] # Re: "Microsoft was making OOXML deliberately more complicated than it needed to be"
Posté par Renault (site web personnel) . En réponse au journal NextCloud et le format ODF : des gros nuages orageux. Évalué à 4 (+2/-1).
De toute façon si tu ne proposes rien, le sujet n'avancera pas plus.
Par ailleurs proposer des solutions sans évaluer à minima les conséquences de ces solutions c'est un peu facile et revient à mon commentaire précédent. La complexité de l’internationalisation vient aussi de la complexité du sujet et de la quantité de contraintes qui tournent autour.
[^] # Re: "Microsoft was making OOXML deliberately more complicated than it needed to be"
Posté par Renault (site web personnel) . En réponse au journal NextCloud et le format ODF : des gros nuages orageux. Évalué à 7 (+4/-0).
Ou alors :
Le soucis c'est que quand tu critiques sans même esquisser un début de solution, ça fait très "YAKAFOCON" alors qu'il n'y a pas forcément mieux à faire en pratique. Car oui, des solutions simples pour tout problème ça n'existe pas.
# J'ai fait le chemin inverse fin 2025
Posté par Renault (site web personnel) . En réponse au journal Migration sous SailfishOS. Évalué à 7 (+4/-0).
Moi c'est entre Noël et le Nouvel an que j'ai écrasé l'image Sailfish OS de mon Xperia 10 pour remettre Android.
J'ai beaucoup aimé Sailfish OS, j'ai eu le Jolla premier du nom entre 2014 et 2016 avant qu'on ne me le vole, puis Jolla C2 pendant 4 ans avant de finir avec le Xperia 10 acheté et flashé pour l'occasion. J'aime l'interface, les concepts, il y a de bonnes choses dedans.
Mais à l'usage, cela devenait difficile. En fait l'optimisation matérielle avec ce modèle commençait à en pâtir.
J'ai un usage léger de mon téléphone, je tenais certes la journée mais dès que je m'en servais un peu plus c'était fini sans grandes raisons. Et avoir navigation Web + application Android type Whatsapp faisait vite ralentir l'appareil ce qui devenait frustrant. Je rebootais souvent, 1-2 fois par semaine pour retrouver des performances agréables.
L'absence de synchronisation entre le navigateur web et mon Firefox sur mon PC était une limite, et malheureusement avec les performances délicates envisager Firefox Android dessus devenait compliqué.
Alors peut être que j'aurais retrouvé du confort avec un modèle plus récent comme le Xperia 10 III. Mais je tiens à garder mon matériel le plus longtemps possible. Je me suis dit que j'allais redonner une chance à Android, juste pour voir si le soucis c'est le matériel ou le logiciel en tant que tel.
Après une sauvegarde dans tous les sens, j'ai pu facilement remettre le Android d'origine à jour. Le verdict, depuis 3 mois j'ai très peu de ralentissements frustrants, je peux le laisser tourner 14 jours sans avoir besoin de le redémarrer et la batterie à usage constante je ne descends jamais en dessous de 50% en une journée à usage identique.
Par conséquent là où remplacer le téléphone devenait urgent l'est bien moins maintenant. Je redonnerais peut être une chance à Sailfish OS à l'avenir quand l'occasion se présentera car j'ai bien aimé le système.
[^] # Re: spin, labs
Posté par Renault (site web personnel) . En réponse à la dépêche Venez tester Fedora Linux 44 Beta !. Évalué à 3 (+0/-0).
La nomenclature n'est pas tout à fait évidente mais elle est comme suit :
Les SIG sont des groupes de travail, il n'y a pas de lien officiel entre ces notions même si de nombreux SIG aboutissent à la création d'une image spécifique.
[^] # Re: Je me demandais quand et comment cela commencerait
Posté par Renault (site web personnel) . En réponse à la dépêche Les prix Ig Nobel quittent les États-Unis pour s’installer durablement en Europe. Évalué à 6 (+3/-0). Dernière modification le 13 mars 2026 à 12:34.
Cela fait un moment que des conférences internationaux ne se tiennent plus aux USA pour ce genre de motifs ou que des personnes qui vivaient aux USA quittent le pays pour ces motifs ou que des étudiants ou jeunes actifs renoncent à y aller. La chute du tourisme aux USA est aussi très marquée en 2025.
Ce n'est malheureusement qu'un élément de plus d'une longue liste.
[^] # Re: citation
Posté par Renault (site web personnel) . En réponse au lien « Joyeuse fête de la femme ! » : huit idées reçues sur la Journée internationale des droits des femmes. Évalué à 3 (+2/-2).
Sauf que cette phrase ne sort pas de nul part et a un contexte exact sans doute perdu.
Le contexte c'est quand même important pour savoir ce qu'il voulait dire exactement en cas d’ambiguïté.
Selon Wikiquote le contexte est une conférence donnée :
Si c'est bien le cas, ce serait bizarre que Torvalds dans une conf de la FSF utilise le terme free au sens gratuit alors que ce n'est ni la position de la FSF et que Torvalds est bien au courant des subtilité du logiciel libre et qu'il n'était pas opposé à la commercialisation autour de Linux bien au contraire.
Dans le doute éviter d'interpréter le sens d'une phrase qui a plusieurs sens (raisonnables) possibles sans son contexte.
[^] # Re: Inutile
Posté par Renault (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 4 (+1/-0).
Je ne dis pas que ça n'arrive pas, mais je pense que la comparaison brute humain / LLM a de toute façon des limites à cause de la différence de nature (pas les mêmes types d'erreurs, pas les mêmes forces et faiblesses).
Ce que je voulais surtout souligner c'est que la structure des LLM même avec une méthode par renforcement a aussi des limites qui restent encore à explorer de manière fine et qu'il y a peut être des limites qui ne seront pas solubles sans changer fondamentalement d'approche. Cela reste encore incertain, ce qui n'empêche dans le même temps que cette approche continue de montrer des progrès.
[…]
Si tu me lis bien, je ne dis pas le contraire en fait. Je suis personnellement inquiet, oui. D'ailleurs je suis tout aussi inquiet d'une catastrophe causée par une IA à qui on confie trop de tâches dont finalement les limites ont été mal estimées et cela mène à des dégâts considérables tout comme elle est finalement hyper intelligente et compétente, nous a berné et cela mène aussi à notre perte.
Je remets juste en cause le discours de arnaudus qui semble dire que ces questions sont tranchése, que les améliorations des benchmarks ne font que renforcer une seule hypothèse comme si les autres hypothèses n'avaient aucun sens et était une forme de dénie. je rappelle juste qu'il y a encore beaucoup de flous et d'hypothèses sur la table et que la question ne semble pas tranchée et qu'il faudra probablement du temps pour évaluer tout ça et améliorer les protocoles d'évaluation car la question est finalement très récente. D'autant plus que savoir mesurer exactement d'où viennent ces gains et ce que ça implique c'est important et ça a des implications fortes. Le sujet reste réellement complexe.
Est-ce que l'incertitude doit pousser à l'inaction ? Non, dans le doute, prenons l'hypothèse la plus pessimiste qui est plausible et essayons de voir ce qu'on peut faire en amont. Je suis convaincu que la démarche de l'UE d'essayer de réguler est la bonne même si elle est trop timide par exemple et qu'il y a d'autres choses à faire sur le sujet. Et je dénonce aussi le discours et méthodes des éditeurs (et des promoteurs) des IA qui sont pour moi assez hypocrites et irresponsables face à ces enjeux. Un peu comme ceux des groupes pétroliers qui vendent du confort mais aussi la mort de la civilisation en même temps.
[^] # Re: Inutile
Posté par Renault (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 7 (+4/-0).
Cela reste fondamentalement des générateurs de texte, cela ne veut pas dire qu'on ne peut rien tirer de cette approche, les progrès récents le montrent, mais on ignore si cela ne va pas poser des limites structurelles pour les progressions futures.
Car typiquement il arrive qu'il y ait des raisonnements erronés (mauvais raisonnement -> bon résultat quand même, ou raisonnement correct -> mauvais résultat) ce qui peut être lié à la méthodologie derrière.
Je pense que tu ignores que c'est un sujet très discuté et loin d'être clos, comme la recherche publique et indépendante a toujours un train de retard ce n'est pas évident. Un peu de prudence épistémique ne ferait pas de mal.
Les progrès en usage du quotidien sont mesurables, mais la pertinence, l'efficacité et la signification des résultats des benchmarks ne sont pas des sujets triviaux dont on peut accepter les résultats les yeux fermés. La question de l'évaluation des modèle n'est pas clos et reste fondamentale car cela permet aussi d'éclairer comment mesurer leur sûreté et de leurs capacités actuelles et ce qu'on peut éventuellement espérer en tirer, ou découvrir des limitations intrinsèques, dans le futur en continuant ainsi.
[…]
Comme s'il n'y avait que ces deux options alors que là encore d'un point de vue épistémique c'est discutable d'être binaire.
Par exemple je suis fondamentalement convaincu qu'il n'y a rien d'impossible à avoir une conscience artificielle sur silicium. Mais comment s'assurer que devant nous on a affaire à une conscience émergente et authentique, le sujet me semble plus compliqué.
Le fonctionnalisme fonctionne bien en tout cas avec les êtres vivants car il y a des similarités de structure qui font qu'il n'y a pas de raison de ne pas accorder une conscience si un autre être vivant répond d'une certaine façon à des stimuli. En particulier entre nous êtres humains, car nous n'avons pas moyen d'accéder réellement à l'expérience subjective des autres donc on se base sur le principe de similarité pour appliquer le fonctionnalisme ce qui me semble raisonnable.
Cependant, on pourrait imaginer en effet des stimuli et leurs réponses totalement similaires mais d'une autre structure sans faire intervenir la notion de conscience. Et comment s'assurer qu'une conscience est là ou non ? C'est compliqué.
Le fonctionnalisme semble surtout être "faute de mieux, on accorde cette propriété si on a certaines réponses durant un protocole précis", mais ça ne me semble pas tout à fait satisfaisant pour apporter une réponse sûre et définitive sur la question. En particulier quand on a affaire à une entité qui est structurellement différent.
C'est un sujet plus compliqué que ce que tu présentes. Je ne suis pas convaincu qu'il y ait d'ailleurs un vrai consensus scientifique sur ce genre de questions (tout comme sur l'intelligence par ailleurs).
[^] # Re: Merci
Posté par Renault (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 6 (+3/-0).
Et moi je pense que ça se discute et que ça change en fait tout.
Pourquoi ? Quand tu es une entreprise et que tu as des fournisseurs, ces fournisseurs partagent la responsabilité et elle peut même être totale. Par exemple le fournisseur te fourni un composant défectueux et tu dois faire une campagne de rappel et il y a eu des morts ? Le fournisseur peut être sollicité pour payer tous les frais dans cette affaire (genre affaire des airbags en automobile, quand le fournisseur n'a pas fait faillite). L'avion a un crash et c'est un défaut de conception de l'avionneur ? Cela incombe au constructeur et non à l'exploitant de payer, etc.
Ici il y a une relation fournisseur / client et ça change pas mal de choses par rapport à une entreprise qui aurait un employé qui fait la même tâche.
Mais là encore, le problème n'est pas spécifiquement ici en fait. Le soucis est que :
À mesure que ces IA sont exploités de plus en plus, et dans plus en plus de domaine et probablement avec de moins en moins de surveillance, ces risques augmentent et les problèmes qu'ils posent deviennent systémiques et n'ont absolument rien à voir par rapport à une armée d'humains qui font les mêmes tâches.
Donc je persiste, je ne suis pas d'accord de considérer que ce n'est pas un sujet et que remplacer un humain par une IA pour une tâche donnée ne change pas grand chose. Selon la tâche et la quantité de travail géré ainsi, cela change au contraire tout.
Ce n'est pas un hasard si l'UE par ailleurs a tenté un début de législation qui s'applique aux grands modèles de fondation, de la même façon qu'elle le fait pour les grandes plateformes du numérique tels que certains réseaux sociaux. Car la défaillance ou l'appât du gain peut ici avoir des conséquences bien plus grandes que pour la majorité des entreprises qui font pourtant des choses semblables.
Malheureusement l'UE reste timide et le reste du monde n'essaye même pas.
[^] # Re: Merci
Posté par Renault (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 7 (+5/-1). Dernière modification le 04 mars 2026 à 09:28.
Je ne vois pas en quoi ce que tu dis répond à ce que je mets en avant.
Peu importe comment on les évalue, la réalité aujourd'hui c'est que beaucoup de choses à leur sujet sont réellement inconnus concernant leurs capacités réelles et leurs faiblesses (qui sont différentes de celles des humains donc la transposition avec un employé humain sera forcément délicat dans ce contexte).
Il n'y a globalement avant une mise à disposition que des évaluations internes, et par ailleurs il semble que les éditeurs n'ont pas de grands scrupules à dire "on n'arrive pas à évaluer plus, ou nos tests ne sont pas très efficaces, osef on délivre quand même". Quelque soit l'angle pour approcher la problématique, ce n'est pas sain du tout.
Ensuite il y a des différences entre l'IA et les humains qu'il faut prendre en compte aussi pour considérer que non, ce n'est pas la même chose et qu'on ne peut pas traiter cela de la même façon.
Déjà un humain est un être vivant qui a des droits et devoirs et la société est bâti autour de l'humain depuis… la naissance de l'Humanité. On ne peut pas limiter arbitrairement des humains dans leurs actions sans une justification forte. Sinon on arrive au type de raisonnements absurde de Sam Altman "les IA consomment moins d'énergie pour être élevé qu'une IA", merci, mais l'objectif c'est aussi de vivre en tant qu'espèce, l'objectif n'est pas de vivre sur une planète remplie de robots à notre place.
Il y a une question de responsabilités. Si demain je fais n'importe quoi au boulot, je serais responsable et je pourrais être condamné pour ça. Si une IA cause des dommages importants, qui l'est ? L'utilisateur de l'IA ? L'éditeur de l'IA ? L'IA elle même ? C'est toujours un sujet assez flou et c'est d'ailleurs un soucis pour établir des contrats d'assurances adaptés car comme les risques sont mal connus / évalués et que le domaine bouge vite, c'est difficile de s'assurer proprement contre ces dits risques.
Les modèles sont aussi relativement peu nombreux à un certain niveau de compétence. Cela signifie qu'une faille ou un bogue quelconque qui touche un modèle peut impacter des millions / milliards de personne d'un coup. La diversité humaine ici a ça de bon, ça implique une redondance et des gardes fous pour éviter des dérives.
Les IA peuvent agir numériquement dans l'ombre et très rapidement à grande échelle, peu d'humains ont une capacité potentielle de nuisance à une si large échelle.
Enfin la nature des erreurs sont différentes, on a l'habitude des problèmes avec les humains dans la vraie vie ou au travail. On a beaucoup de retours sur les bonnes et mauvaises pratiques pour éviter ces risques. Les problèmes liés aux IA sont de nature différente et mal connus donc on ne peut pas transposer les mêmes techniques telles quelles en particulier quand l'utilisateur de l'IA peut être également très mal informé de la question.
Tu n'as manifestement jamais travaillé dans un contexte de certifications.
Dans l'aéronautique par exemple, on évalue évidemment le code et la documentation et pas uniquement le comportement final.
Tout d'abord on évalue la criticité du système pour définir des règles applicables. Plus le logiciel est critique, plus les règles seront lourdes ce qui limitera forcément la complexité du projet sinon ce sera trop cher ou risqué. Et à un certain niveau on peut même aboutir à avoir besoin de deux implémentations indépendantes pour éviter que une erreur non détectée sur l'un a des conséquences néfastes (car la probabilité d'avoir deux problèmes identiques qui ont passé les mailles du filet sont faibles).
Les règles s'appliquent à toutes les étapes de la chaine, par exemple la conception même, la documentation, le code et les tests. Tu peux aboutir à une situation où allouer dynamiquement de la mémoire est typiquement interdit et cela est évidemment vérifié.
Ensuite tout est tracé et documenté. Il y a un lien entre cahier des charges -> cahier de conception -> bout de code -> tests. Cela permet de s'assurer que l'ensemble des demandes sont remplies et qu'il n'y a pas d'oublis. Et ces documents sont normalement, relus, évalués et approuvés et pas uniquement par celui qui a codé le logiciel évidemment.
Bien sûr les tests permettent de vérifier en interne comme en externe que le code agit comme voulu mais ce n'est pas le seul aspect qui fait que globalement voler dans un avion est sûr.
On n'a évidemment rien de tout cela concernant les IA, de près comme de loin. Et c'est regrettable (et irresponsable).
[^] # Re: Merci
Posté par Renault (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 10 (+9/-1).
Objectifs, objectifs, y'a forcément des biais, en premier lieu car beaucoup d'informations sur ces technos proviennent… des entreprises éditrices avec des limitations évidentes et il y a à redire.
La recherche plus académique a forcément un train de retard sur les évaluations. Il faut donc aussi être vigilant à ce sujet.
Il semble quand même que les benchmarks ne sont pas si intéressants pour évaluer les LLMs que ce que les éditeurs en disent :
Je ne dis pas qu'il n'y a aucune performance dedans et qu'on ne peut rien en tirer (des benchmarks comme des LLMs), mais l'exercice semble réellement difficile pour les évaluer convenablement. ET pas impossible qu'il y ait besoin de temps aussi pour trouver de bonnes approches de la question.
En tout cas je trouve assez irresponsable que les éditeurs délivrent des outils qu'ils n'arrivent pas à évaluer proprement avant et que les évaluations sont par ailleurs effectuées essentiellement en interne. Il faudrait réguler tout ça pour imposer des contrôles externes obligatoires.
[^] # Re: Beurk
Posté par Renault (site web personnel) . En réponse au lien Les devs sont irremplaçables (oui). Évalué à 3 (+0/-0).
Normal la partie qui consomme c'est l'IA, l'agent n'est qu'un petit programme qui envoie un peu de texte à ces IA à distance localement ou en ligne. Ce n'est pas demain que tu auras le même agent qui tourne localement sur ce genre de configs.
Ce n'est pas ça qui importe en fait.
[^] # Re: Vrais fachos ou surréaction ?
Posté par Renault (site web personnel) . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 6 (+4/-1).
Mais personne ici ne dit qu'il faut censurer les gens car on les traite de fachos sur Twitter car ils votent à droite par exemple.
On parle évidemment de propos qui sont plus graves que cela, comme par exemple ceux de FlorianJ. qui faisait clairement un amalgame entre les personnes immigrées (illégalement ou non) et une violence "tribale". C'est du racisme de base et un grave jugement de valeur à l'emporte pièce qui est par ailleurs non autorisé dans l'espace public.
À part le gouvernement israélien qui fait un tel amalgame, ce n'est pas l'impression que j'en ai. C'est même plutôt adressé dans l'autre sens, à savoir ceux qui soutiennent Israël dans son entreprise mortifère corps et âmes sans se préoccuper des palestiniens qui sont qualifiés de fachos. Et étant donnée la politique de l'Israël en ce moment, ce n'est pas tellement injustifié ce qui ne manque pas d'ironie.
Donc Donald Trump a une politique qui fait qu'il déploie l'ICE et qu'il leur donne des pouvoirs importants pour mettre en place sa politique, Trump les défend même quand ils merdent, mais la faute ce n'est que l'ICE ?
Non Trump est chef de l'exécutif et a des responsabilités, de la même façon quand la police en France a des soucis systématiques c'est de la responsabilité aussi du ministre de l'Intérieur et du président.
Bah voyons. Je dirais plutôt qu'on a enfin reconnu des situations qui étaient graves enfin comme telles.
Mais pour revenir au propos initial, on ne condamne pas les gens en fonction des définitions sur Twitter mais au sens de la loi. Ce qui est interdit ce n'est pas d'être "facho" selon X ou Y sur Internet, c'est de tenir des propos graves qui sont notamment dans l’idéologie fasciste au sens original du terme et c'est ça qui est interdit et doit être censuré et c'est ce qui a été demandé.
[^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)
Posté par Renault (site web personnel) . En réponse au journal Recrudescence de contributions générées par IA. Évalué à 10 (+8/-0).
Les commandes d'électricité, la hausse des factures électriques pour ces boîtes, les demandes pour des centrales nucléaires dédiées, le coût réel par utilisateur qui est loin d'être négligeable, etc. tout ça c'est de la corrélation dont pour OpenAI et Anthropic qui sont littéralement des entreprises qui ne font que ça ?
L'impact environnemental de l'IA générative n'est pas un sujet nouveau et comme par hasard même quand ils sont transparents ils cachent toujours des informations importantes pour conclure, comme par hasard… Mais c'est sans doute un non sujet comme tu le dis, heureusement que tu es là.
[^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)
Posté par Renault (site web personnel) . En réponse au journal Recrudescence de contributions générées par IA. Évalué à 10 (+8/-0).
Sauf que les requêtes sont de plus en plus nombreux et de plus en plus complexes donc la pénalité environnementale globale augmente à mesure que cela est utilisé.
Ce n'est pas le fait qu'une personne fasse un trajet en voiture pour acheter du pain alors que la boulangerie est à 100 m qui pose un gros problème. Mais quand tout le monde le fait, ce n'est pas le même délire. Et si en plus on allonge la distance et le nombre de trajets par jour, ça n'ira pas mieux loin de là.
On ne peut pas balayer cela d'un revers de la main et cela se voit par les commandes de cartes et d'énergie nécessaires pour les alimenter.
[^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)
Posté par Renault (site web personnel) . En réponse au journal Recrudescence de contributions générées par IA. Évalué à 9 (+7/-1).
C'est comme dire "compiler le noyau Linux consomme X Watt.heures".
C'est factuellement vrai, mais ça passe outre qu'ils le font en parallèle et en continue pour poursuivre le développement et que des dizaines d'entreprises font cela aussi. Ne prendre en compte que l'entrainement du modèle en production c'est passer à côté du problème.
C'est quand même bizarre que les grandes structures qui avaient des objectifs de neutralité carbone ont remis en cause leur trajectoire d'émission baissière depuis l'arrivée de l'IA générative alors que ces boîtes étaient déjà de gros consommateurs d'énergie. Si cela avait si peu d'impact, cela n'aurait pas remis en question ces trajectoires.
[^] # Re: Pour commencer…
Posté par Renault (site web personnel) . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 8 (+6/-1).
Pourtant dans ce contexte je dirais que c'est important. Si on prend le commentaire de manière isolé du reste, je serais d'accord avec toi mais là honnêtement la posture ne tient pas.
La modération est d'ailleurs finalement intervenue pour certains propos de cette personne plus loin et à mon sens ces propos traduits bien ce qui est pointé par Spacefox ici.
C'est jouer avec l’ambiguïté que d'utiliser les guillemets ici. Et quand bien même il ne le serait pas dans l'absolu, certains propos vont clairement trop loin ce qui fait que la remarque initiale reste pertinente.
[^] # Re: Censurer le facho c'est censurer toute opinion.
Posté par Renault (site web personnel) . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 10 (+9/-1).
Euh pardon ? On fait progresser quel débat avec ce genre de trucs ?
Le problème dans le débat n'est pas forcément la décision politique finale d'autoriser plus ou moins d'immigration par exemple.
Le soucis ce sont les arguments avancés qui sont souvent faux d'une part (grand remplacement, tout ça), le rejet d'une population en particulier liée à sa race, sa religion ou culture (les ukrainiens fuient la guerre c'est ok, les syriens non, devine pourquoi), assimiler l'immigration à "melting-pot multiculturel insécuritaire avec des dizaines de communautés tribales qui se méfient entre elles" (sic).
Et c'est le soucis de ce genre de sujets, ça dérape très vite dans ces considérations où on rejette des personnes pour ce qu'ils sont plutôt que ce qu'ils font, il y a établissement d'une hiérarchie de valeur entre humains, et on retire toute humanité concernant les principaux concernés par ces politiques.
Le problème n'est pas de discuter dans le fond politiquement de ce sujet, le soucis c'est les arguments avancés qui sont toujours +/- les mêmes et ont des conséquences assez terribles dont les USA nous donnent un bon aperçu en ce moment.
[^] # Re: Vrais fachos ou surréaction ?
Posté par Renault (site web personnel) . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 7 (+4/-0).
Sans compter l'historique du personnage ici même, ce n'est pas comme si ses précédents commentaires concernant l'immigration en France n'étaient pas connus.
Grand fan de la théorie du grand remplacement. On ne peut pas détacher ses commentaires récents de ce parcours.
[^] # Re: Pas si simple…
Posté par Renault (site web personnel) . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 5 (+3/-1).
Alors déjà ça ne s'applique pleinement qu'en Belgique francophone, et la population locale a quand même un sentiment nationaliste bien plus faible de base ce qui réduit la porté de certains discours de l'extrême droite même si une bonne part peut toujours s'appliquer.
Pas sûr que le cordon sanitaire explique tout.
[^] # Re: Ton vélo est de droite.
Posté par Renault (site web personnel) . En réponse au journal Politique, vélo (et logiciels libre même combat ?).. Évalué à 7 (+4/-0).
Pas vraiment non. La médiane tient compte du nombre de produits et de leur répartition. Il est peu probable qu'il y ait un équilibre entre les modèles haut de gammes et bas de gammes. Souvent le bas de gammes à plus de références car plus de personnes peuvent en acheter mais ça dépend des produits.
# Autres options
Posté par Renault (site web personnel) . En réponse au message Achète Jolla C2. Évalué à 4 (+1/-0).
Il y a cette boutique en ligne qui peut te vendre du Sony avec Sailfish préinstallé : https://buy.jolla-devices.com/categoria-prodotto/sailfishos/
Installer Sailfish n'est pas spécialement long ni compliqué pour un linuxien. La procédure est claire et relativement simple et revenir sur Android est tout aussi facile en cas de besoin.
Par contre attention, le Xperia IV, V et au delà n'ont pas un support official de la part de Jolla à ce jour, la qualité de l'intégration peut être très mauvaise.