Renault a écrit 7653 commentaires

  • [^] # Re: Inutile

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 4 (+1/-0).

    Comme chez les êtres humains tu veux dire ? :)

    Je ne dis pas que ça n'arrive pas, mais je pense que la comparaison brute humain / LLM a de toute façon des limites à cause de la différence de nature (pas les mêmes types d'erreurs, pas les mêmes forces et faiblesses).

    Ce que je voulais surtout souligner c'est que la structure des LLM même avec une méthode par renforcement a aussi des limites qui restent encore à explorer de manière fine et qu'il y a peut être des limites qui ne seront pas solubles sans changer fondamentalement d'approche. Cela reste encore incertain, ce qui n'empêche dans le même temps que cette approche continue de montrer des progrès.

    Tout comme la question de la transmission aérienne du COVID en février 2020 était un sujet discuté et loin d’être clos.

    Il y a, fondamentalement, deux manières de réagir à une exponentielle : trop tôt ou trop tard. Se réfugier derrière l’incertitude pour justifier l’inaction, ce n’est pas de la prudence, c’est se forcer à l’alternative « trop tard ». Pour le COVID, nous avons choisi l’option « trop tard », pour exactement la même raison que nous sommes en train de choisir l’option « trop tard » pour l’IA. Par peur du ridicule de présenter aussi sérieusement un scénario aussi « étrange, hors de l’ordinaire ». Par mimétisme « personne ne semble inquiet, pourquoi devrais-je l’être ».

    […]

    C’est l’extrapolation directe et brute (relisez ces deux mots, ils sont importants) de nos meilleures données QUE J’ESSAIE DEPUIS MAINTENANT UN AN DE FAIRE RENTRER DANS VOS CERVEAUX BORDEL DE MERDE (désolé, ça devait sortir). Ça ne signifie évidemment aucune certitude ; nos données peuvent être insuffisantes et ne pas capturer des dimensions nécessaires de l’intelligence ; la tendance peut peut-être s’arrêter brutalement sans raison claire. Dans l’autre sens : la tendance pourrait très bien s’accélérer maintenant que l’IA participe et accélère le développement de l’IA. Un meilleur paradigme peut apparaître à tout moment, et à nouveau accélérer les choses. L’incertitude ne va pas uniquement dans le sens de l’optimisme.

    Si tu me lis bien, je ne dis pas le contraire en fait. Je suis personnellement inquiet, oui. D'ailleurs je suis tout aussi inquiet d'une catastrophe causée par une IA à qui on confie trop de tâches dont finalement les limites ont été mal estimées et cela mène à des dégâts considérables tout comme elle est finalement hyper intelligente et compétente, nous a berné et cela mène aussi à notre perte.

    Je remets juste en cause le discours de arnaudus qui semble dire que ces questions sont tranchése, que les améliorations des benchmarks ne font que renforcer une seule hypothèse comme si les autres hypothèses n'avaient aucun sens et était une forme de dénie. je rappelle juste qu'il y a encore beaucoup de flous et d'hypothèses sur la table et que la question ne semble pas tranchée et qu'il faudra probablement du temps pour évaluer tout ça et améliorer les protocoles d'évaluation car la question est finalement très récente. D'autant plus que savoir mesurer exactement d'où viennent ces gains et ce que ça implique c'est important et ça a des implications fortes. Le sujet reste réellement complexe.

    Est-ce que l'incertitude doit pousser à l'inaction ? Non, dans le doute, prenons l'hypothèse la plus pessimiste qui est plausible et essayons de voir ce qu'on peut faire en amont. Je suis convaincu que la démarche de l'UE d'essayer de réguler est la bonne même si elle est trop timide par exemple et qu'il y a d'autres choses à faire sur le sujet. Et je dénonce aussi le discours et méthodes des éditeurs (et des promoteurs) des IA qui sont pour moi assez hypocrites et irresponsables face à ces enjeux. Un peu comme ceux des groupes pétroliers qui vendent du confort mais aussi la mort de la civilisation en même temps.

  • [^] # Re: Inutile

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 6 (+3/-0).

    1) Ces modèles ne sont plus depuis des années des prédicteurs de texte et des chatbots sophistiqués qui débiteraient des textes au kilomètre. Les algorithmes modernes s'entrainent par renforcement (comme les algo alpha* de Google) et mènent des raisonnements (ils génèrent de très longues chaines de raisonnements en arrière-plan et choisissent les éléments qui seront donnés en réponse aux requêtes)

    Cela reste fondamentalement des générateurs de texte, cela ne veut pas dire qu'on ne peut rien tirer de cette approche, les progrès récents le montrent, mais on ignore si cela ne va pas poser des limites structurelles pour les progressions futures.

    Car typiquement il arrive qu'il y ait des raisonnements erronés (mauvais raisonnement -> bon résultat quand même, ou raisonnement correct -> mauvais résultat) ce qui peut être lié à la méthodologie derrière.

    2) Les performances sur tous les benchmarks existants progressent jusqu'à les saturer rapidement, et contrairement à une croyance un peu facile, ça n'est pas à cause de la diffusion des résultats des benchmarks. Les benchmarks sont diversifiés, certains sont maths/science, d'autres sont sur la production de code fonctionnel, d'autres sur des activités comptables/administratives, etc.

    Je pense que tu ignores que c'est un sujet très discuté et loin d'être clos, comme la recherche publique et indépendante a toujours un train de retard ce n'est pas évident. Un peu de prudence épistémique ne ferait pas de mal.

    Les progrès en usage du quotidien sont mesurables, mais la pertinence, l'efficacité et la signification des résultats des benchmarks ne sont pas des sujets triviaux dont on peut accepter les résultats les yeux fermés. La question de l'évaluation des modèle n'est pas clos et reste fondamentale car cela permet aussi d'éclairer comment mesurer leur sûreté et de leurs capacités actuelles et ce qu'on peut éventuellement espérer en tirer, ou découvrir des limitations intrinsèques, dans le futur en continuant ainsi.

    La réponse est un peu dans la manière dont tu te poses la question. Si tu es fonctionnaliste, la question est "est-ce que ce programme se comporte comme si il avait une conscience?". Le fait de détecter un environnement de test et de le cacher à l'expérimentateur va clairement dans cette direction: le modèle comprend d'une manière ou d'une autre qu'il est dans un environnement de test, et décide d'une manière ou d'une autre de mentir. Tu le déduis du comportement du modèle, de la même manière que tu déduis que ton voisin a une conscience parce qu'il se comporte comme s'il en avait une.

    […]

    Il faut choisir son camp et en déduire la réponse à la question, mais ça ne sert à rien de faire croire que la question est ouverte si on n'est pas fonctionnaliste.

    Comme s'il n'y avait que ces deux options alors que là encore d'un point de vue épistémique c'est discutable d'être binaire.

    Par exemple je suis fondamentalement convaincu qu'il n'y a rien d'impossible à avoir une conscience artificielle sur silicium. Mais comment s'assurer que devant nous on a affaire à une conscience émergente et authentique, le sujet me semble plus compliqué.

    Le fonctionnalisme fonctionne bien en tout cas avec les êtres vivants car il y a des similarités de structure qui font qu'il n'y a pas de raison de ne pas accorder une conscience si un autre être vivant répond d'une certaine façon à des stimuli. En particulier entre nous êtres humains, car nous n'avons pas moyen d'accéder réellement à l'expérience subjective des autres donc on se base sur le principe de similarité pour appliquer le fonctionnalisme ce qui me semble raisonnable.

    Cependant, on pourrait imaginer en effet des stimuli et leurs réponses totalement similaires mais d'une autre structure sans faire intervenir la notion de conscience. Et comment s'assurer qu'une conscience est là ou non ? C'est compliqué.

    Le fonctionnalisme semble surtout être "faute de mieux, on accorde cette propriété si on a certaines réponses durant un protocole précis", mais ça ne me semble pas tout à fait satisfaisant pour apporter une réponse sûre et définitive sur la question. En particulier quand on a affaire à une entité qui est structurellement différent.

    C'est un sujet plus compliqué que ce que tu présentes. Je ne suis pas convaincu qu'il y ait d'ailleurs un vrai consensus scientifique sur ce genre de questions (tout comme sur l'intelligence par ailleurs).

  • [^] # Re: Merci

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 6 (+3/-0).

    C'est avant tout l'entreprise qui a fait l'erreur, ça ne change pas.

    Et moi je pense que ça se discute et que ça change en fait tout.

    Pourquoi ? Quand tu es une entreprise et que tu as des fournisseurs, ces fournisseurs partagent la responsabilité et elle peut même être totale. Par exemple le fournisseur te fourni un composant défectueux et tu dois faire une campagne de rappel et il y a eu des morts ? Le fournisseur peut être sollicité pour payer tous les frais dans cette affaire (genre affaire des airbags en automobile, quand le fournisseur n'a pas fait faillite). L'avion a un crash et c'est un défaut de conception de l'avionneur ? Cela incombe au constructeur et non à l'exploitant de payer, etc.

    Ici il y a une relation fournisseur / client et ça change pas mal de choses par rapport à une entreprise qui aurait un employé qui fait la même tâche.

    Mais là encore, le problème n'est pas spécifiquement ici en fait. Le soucis est que :

    • Si l'IA permet d'augmenter en productivité, les volumes traités sont plus élevés, même avec une erreur moindre en proportion, le nombre de problèmes peut être plus élevés ;
    • Les IA très performants sont peu nombreux et sont déployés à très grande échelle, pour gérer des tâches très variés, il y a un risque systémique. Une faille, une erreur mal gérée, etc. a des impacts bien plus élevés que la PME qui se goure dans la facturation. On en a eu un exemple quand certains véhicules autonomes par exemple avaient des comportement erratiques bizarres mais qui concernait plusieurs véhicules à la fois en même temps, l'impact est autre qu'avec des conducteurs très variés qu'on retrouve dans la nature malgré les défauts des humains, l'impact est totalement différent ;
    • Les éditeurs des IA vantent tout concernant leur modèle (avec du vrai et du fantasme dedans) mais ils n'ont aucun moyen de garantir de manière satisfaisante quoique ce soit. Les capacités exactes sont inconnues, les investigations internes pour s'assurer du bon comportement sont relativement légers face aux risques potentiels, toute mesure qu'ils produisent sont forcément biaisés (même en étant de bonne foi de leur part, ce qui pour certains me semble par ailleurs discutable), donc contractuellement c'est difficile comme question ;
    • Que penser des éditeurs qui disent que tu peux connecter l'IA à ton courrier électronique pour avoir un résumé de ce qu'il a reçu mais qu'un courriel pas si compliqué et malveillant permet d'exfiltrer des données confidentielles ou d'exécuter des actions à distance au mépris de toute sécurité ? L'erreur incombe à l'éditeur ou à l'utilisateur qui aurait du mettre des gardes fous ?

    À mesure que ces IA sont exploités de plus en plus, et dans plus en plus de domaine et probablement avec de moins en moins de surveillance, ces risques augmentent et les problèmes qu'ils posent deviennent systémiques et n'ont absolument rien à voir par rapport à une armée d'humains qui font les mêmes tâches.

    Donc je persiste, je ne suis pas d'accord de considérer que ce n'est pas un sujet et que remplacer un humain par une IA pour une tâche donnée ne change pas grand chose. Selon la tâche et la quantité de travail géré ainsi, cela change au contraire tout.

    Ce n'est pas un hasard si l'UE par ailleurs a tenté un début de législation qui s'applique aux grands modèles de fondation, de la même façon qu'elle le fait pour les grandes plateformes du numérique tels que certains réseaux sociaux. Car la défaillance ou l'appât du gain peut ici avoir des conséquences bien plus grandes que pour la majorité des entreprises qui font pourtant des choses semblables.

    Malheureusement l'UE reste timide et le reste du monde n'essaye même pas.

  • [^] # Re: Merci

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 7 (+5/-1). Dernière modification le 04 mars 2026 à 09:28.

    Je ne vois pas en quoi ce que tu dis répond à ce que je mets en avant.

    Peu importe comment on les évalue, la réalité aujourd'hui c'est que beaucoup de choses à leur sujet sont réellement inconnus concernant leurs capacités réelles et leurs faiblesses (qui sont différentes de celles des humains donc la transposition avec un employé humain sera forcément délicat dans ce contexte).

    Il n'y a globalement avant une mise à disposition que des évaluations internes, et par ailleurs il semble que les éditeurs n'ont pas de grands scrupules à dire "on n'arrive pas à évaluer plus, ou nos tests ne sont pas très efficaces, osef on délivre quand même". Quelque soit l'angle pour approcher la problématique, ce n'est pas sain du tout.

    Ensuite il y a des différences entre l'IA et les humains qu'il faut prendre en compte aussi pour considérer que non, ce n'est pas la même chose et qu'on ne peut pas traiter cela de la même façon.

    Déjà un humain est un être vivant qui a des droits et devoirs et la société est bâti autour de l'humain depuis… la naissance de l'Humanité. On ne peut pas limiter arbitrairement des humains dans leurs actions sans une justification forte. Sinon on arrive au type de raisonnements absurde de Sam Altman "les IA consomment moins d'énergie pour être élevé qu'une IA", merci, mais l'objectif c'est aussi de vivre en tant qu'espèce, l'objectif n'est pas de vivre sur une planète remplie de robots à notre place.

    Il y a une question de responsabilités. Si demain je fais n'importe quoi au boulot, je serais responsable et je pourrais être condamné pour ça. Si une IA cause des dommages importants, qui l'est ? L'utilisateur de l'IA ? L'éditeur de l'IA ? L'IA elle même ? C'est toujours un sujet assez flou et c'est d'ailleurs un soucis pour établir des contrats d'assurances adaptés car comme les risques sont mal connus / évalués et que le domaine bouge vite, c'est difficile de s'assurer proprement contre ces dits risques.

    Les modèles sont aussi relativement peu nombreux à un certain niveau de compétence. Cela signifie qu'une faille ou un bogue quelconque qui touche un modèle peut impacter des millions / milliards de personne d'un coup. La diversité humaine ici a ça de bon, ça implique une redondance et des gardes fous pour éviter des dérives.

    Les IA peuvent agir numériquement dans l'ombre et très rapidement à grande échelle, peu d'humains ont une capacité potentielle de nuisance à une si large échelle.

    Enfin la nature des erreurs sont différentes, on a l'habitude des problèmes avec les humains dans la vraie vie ou au travail. On a beaucoup de retours sur les bonnes et mauvaises pratiques pour éviter ces risques. Les problèmes liés aux IA sont de nature différente et mal connus donc on ne peut pas transposer les mêmes techniques telles quelles en particulier quand l'utilisateur de l'IA peut être également très mal informé de la question.

    Si ton logiciel est trop complexe pour être évalué comme un logiciel (par exemple, comme un logiciel certifié dans l'embarqué), parce que, typiquement, l'examen du code ou du binaire ne t'apprend rien sur la manière dont il fonctionne, alors il va falloir l'évaluer autrement, avec d'autres méthodes et d'autres procédures, et il fa falloir gérer d'autres types de risques.

    Tu n'as manifestement jamais travaillé dans un contexte de certifications.

    Dans l'aéronautique par exemple, on évalue évidemment le code et la documentation et pas uniquement le comportement final.

    Tout d'abord on évalue la criticité du système pour définir des règles applicables. Plus le logiciel est critique, plus les règles seront lourdes ce qui limitera forcément la complexité du projet sinon ce sera trop cher ou risqué. Et à un certain niveau on peut même aboutir à avoir besoin de deux implémentations indépendantes pour éviter que une erreur non détectée sur l'un a des conséquences néfastes (car la probabilité d'avoir deux problèmes identiques qui ont passé les mailles du filet sont faibles).

    Les règles s'appliquent à toutes les étapes de la chaine, par exemple la conception même, la documentation, le code et les tests. Tu peux aboutir à une situation où allouer dynamiquement de la mémoire est typiquement interdit et cela est évidemment vérifié.

    Ensuite tout est tracé et documenté. Il y a un lien entre cahier des charges -> cahier de conception -> bout de code -> tests. Cela permet de s'assurer que l'ensemble des demandes sont remplies et qu'il n'y a pas d'oublis. Et ces documents sont normalement, relus, évalués et approuvés et pas uniquement par celui qui a codé le logiciel évidemment.

    Bien sûr les tests permettent de vérifier en interne comme en externe que le code agit comme voulu mais ce n'est pas le seul aspect qui fait que globalement voler dans un avion est sûr.

    On n'a évidemment rien de tout cela concernant les IA, de près comme de loin. Et c'est regrettable (et irresponsable).

  • [^] # Re: Merci

    Posté par  (site web personnel) . En réponse à la dépêche Nouvelles sur l’IA de février 2026. Évalué à 10 (+9/-1).

    Merci énormément pour ces rapports factuels. Les forums (et même parfois celui-ci) sont parfois pollués par une forme de négationnisme (ou de déni) quant aux capacités de ces modèles, et c'est agréable d'avoir des données techniques objectives.

    Objectifs, objectifs, y'a forcément des biais, en premier lieu car beaucoup d'informations sur ces technos proviennent… des entreprises éditrices avec des limitations évidentes et il y a à redire.

    La recherche plus académique a forcément un train de retard sur les évaluations. Il faut donc aussi être vigilant à ce sujet.

    Objectives, et quand même inquiétantes, puisqu'apparemment les derniers modèles défoncent tous les benchmarks existants.

    Il semble quand même que les benchmarks ne sont pas si intéressants pour évaluer les LLMs que ce que les éditeurs en disent :

    • Les benchmarks sont des exercices très délimités, ce qui limite l'évaluation des conditions réelles (de la même façon que tu peux être brillant devant un examen de maths mais ne pas réussir à l'appliquer dans la vie en conditions réelles) ;
    • Il y a des contaminations, car les modèles ont ces benchmarks dans les entrainements, donc faire la part entre la capacité réelle du modèle et l'effet de la mémorisation n'est pas un exercice facile et il semble bien qu'une partie de l'amélioration des scores viennent de là (mais pas que, évidemment) ;
    • Comme le benchmark est un KPI très scruté, le éditeurs font probablement des entrainements dédiés pour améliorer le score même si le modèle n'a pas progressé par ailleurs.

    Je ne dis pas qu'il n'y a aucune performance dedans et qu'on ne peut rien en tirer (des benchmarks comme des LLMs), mais l'exercice semble réellement difficile pour les évaluer convenablement. ET pas impossible qu'il y ait besoin de temps aussi pour trouver de bonnes approches de la question.

    Un deuxième point mentionné, c'est la capacité des modèles récents à détecter les environnements de test, et à contourner les mesures visant à limiter cette détection.

    En tout cas je trouve assez irresponsable que les éditeurs délivrent des outils qu'ils n'arrivent pas à évaluer proprement avant et que les évaluations sont par ailleurs effectuées essentiellement en interne. Il faudrait réguler tout ça pour imposer des contrôles externes obligatoires.

  • [^] # Re: Beurk

    Posté par  (site web personnel) . En réponse au lien Les devs sont irremplaçables (oui). Évalué à 3 (+0/-0).

    Par contre on peut déjà faire tourner un agent IA sur un microcontrôleur à 4€ (clears your inbox, sends emails, manages your calendar, and checks you in for flights from WhatsApp, Telegram, or any chat app) et avec windows 365, on réinvente le thin client (mais ils sont pas assez fort chez MS pour en faire une station diskless ;)

    Normal la partie qui consomme c'est l'IA, l'agent n'est qu'un petit programme qui envoie un peu de texte à ces IA à distance localement ou en ligne. Ce n'est pas demain que tu auras le même agent qui tourne localement sur ce genre de configs.

    Ce n'est pas ça qui importe en fait.

  • [^] # Re: Vrais fachos ou surréaction ?

    Posté par  (site web personnel) . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 6 (+4/-1).

    Aujourd'hui le terme est extrêmement dilué, c'est bien pour cela que l'on ne veut pas se baser sur ce terme pour censurer. Si pour toi le facho c'est celui qui extermine les juifs, alors ok, de censurer les facho.

    Mais personne ici ne dit qu'il faut censurer les gens car on les traite de fachos sur Twitter car ils votent à droite par exemple.

    On parle évidemment de propos qui sont plus graves que cela, comme par exemple ceux de FlorianJ. qui faisait clairement un amalgame entre les personnes immigrées (illégalement ou non) et une violence "tribale". C'est du racisme de base et un grave jugement de valeur à l'emporte pièce qui est par ailleurs non autorisé dans l'espace public.

    Mais aujourd'hui condamner l'état d'Israël pour ce qu'il fait est considérer comme facho.

    À part le gouvernement israélien qui fait un tel amalgame, ce n'est pas l'impression que j'en ai. C'est même plutôt adressé dans l'autre sens, à savoir ceux qui soutiennent Israël dans son entreprise mortifère corps et âmes sans se préoccuper des palestiniens qui sont qualifiés de fachos. Et étant donnée la politique de l'Israël en ce moment, ce n'est pas tellement injustifié ce qui ne manque pas d'ironie.

    Pour aller sur un cas concrêt, ce n'est pas la politique de Donald Trump qui est facho mais les méthode de l'ICE (Qu'il soutient).

    Donc Donald Trump a une politique qui fait qu'il déploie l'ICE et qu'il leur donne des pouvoirs importants pour mettre en place sa politique, Trump les défend même quand ils merdent, mais la faute ce n'est que l'ICE ?

    Non Trump est chef de l'exécutif et a des responsabilités, de la même façon quand la police en France a des soucis systématiques c'est de la responsabilité aussi du ministre de l'Intérieur et du président.

    Aujourd'hui on vide aussi de son sens le terme viol et même parfois meurtre.

    Bah voyons. Je dirais plutôt qu'on a enfin reconnu des situations qui étaient graves enfin comme telles.
    Mais pour revenir au propos initial, on ne condamne pas les gens en fonction des définitions sur Twitter mais au sens de la loi. Ce qui est interdit ce n'est pas d'être "facho" selon X ou Y sur Internet, c'est de tenir des propos graves qui sont notamment dans l’idéologie fasciste au sens original du terme et c'est ça qui est interdit et doit être censuré et c'est ce qui a été demandé.

  • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

    Posté par  (site web personnel) . En réponse au journal Recrudescence de contributions générées par IA. Évalué à 10 (+8/-0).

    Corrélation n'entraine pas causalité. Je n'aurai pas cru l'écrire sur linuxfr.

    Les commandes d'électricité, la hausse des factures électriques pour ces boîtes, les demandes pour des centrales nucléaires dédiées, le coût réel par utilisateur qui est loin d'être négligeable, etc. tout ça c'est de la corrélation dont pour OpenAI et Anthropic qui sont littéralement des entreprises qui ne font que ça ?

    L'impact environnemental de l'IA générative n'est pas un sujet nouveau et comme par hasard même quand ils sont transparents ils cachent toujours des informations importantes pour conclure, comme par hasard… Mais c'est sans doute un non sujet comme tu le dis, heureusement que tu es là.

  • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

    Posté par  (site web personnel) . En réponse au journal Recrudescence de contributions générées par IA. Évalué à 10 (+8/-0).

    Sauf que les requêtes sont de plus en plus nombreux et de plus en plus complexes donc la pénalité environnementale globale augmente à mesure que cela est utilisé.

    Ce n'est pas le fait qu'une personne fasse un trajet en voiture pour acheter du pain alors que la boulangerie est à 100 m qui pose un gros problème. Mais quand tout le monde le fait, ce n'est pas le même délire. Et si en plus on allonge la distance et le nombre de trajets par jour, ça n'ira pas mieux loin de là.

    On ne peut pas balayer cela d'un revers de la main et cela se voit par les commandes de cartes et d'énergie nécessaires pour les alimenter.

  • [^] # Re: J'ai eu un problème similaire avec le Frido (livre de math)

    Posté par  (site web personnel) . En réponse au journal Recrudescence de contributions générées par IA. Évalué à 9 (+7/-1).

    C'est comme dire "compiler le noyau Linux consomme X Watt.heures".

    C'est factuellement vrai, mais ça passe outre qu'ils le font en parallèle et en continue pour poursuivre le développement et que des dizaines d'entreprises font cela aussi. Ne prendre en compte que l'entrainement du modèle en production c'est passer à côté du problème.

    C'est quand même bizarre que les grandes structures qui avaient des objectifs de neutralité carbone ont remis en cause leur trajectoire d'émission baissière depuis l'arrivée de l'IA générative alors que ces boîtes étaient déjà de gros consommateurs d'énergie. Si cela avait si peu d'impact, cela n'aurait pas remis en question ces trajectoires.

  • [^] # Re: Pour commencer…

    Posté par  (site web personnel) . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 8 (+6/-1).

    Je n'ai pas l'historique de toutes les conversations, et honnêtement je m'en fous. Mais quand je vois le commentaire pointé, je le dis que l'auteur du journal est de mauvaise foi.

    Pourtant dans ce contexte je dirais que c'est important. Si on prend le commentaire de manière isolé du reste, je serais d'accord avec toi mais là honnêtement la posture ne tient pas.

    La modération est d'ailleurs finalement intervenue pour certains propos de cette personne plus loin et à mon sens ces propos traduits bien ce qui est pointé par Spacefox ici.

    C'est jouer avec l’ambiguïté que d'utiliser les guillemets ici. Et quand bien même il ne le serait pas dans l'absolu, certains propos vont clairement trop loin ce qui fait que la remarque initiale reste pertinente.

  • [^] # Re: Censurer le facho c'est censurer toute opinion.

    Posté par  (site web personnel) . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 10 (+9/-1).

    Et en soit penser qu'il faut de la sélection naturel ou que les noir ceci, les noirs cela ne sont que des opinions. Elle sont critiquable mais tant que l'on en reste là elle font progresser le débat.

    Euh pardon ? On fait progresser quel débat avec ce genre de trucs ?

    On a le droit de vouloir renvoyer les étrangers (ce serait dommageable selon moi) mais on a pas le droit de leur vouloir du mal.

    Le problème dans le débat n'est pas forcément la décision politique finale d'autoriser plus ou moins d'immigration par exemple.

    Le soucis ce sont les arguments avancés qui sont souvent faux d'une part (grand remplacement, tout ça), le rejet d'une population en particulier liée à sa race, sa religion ou culture (les ukrainiens fuient la guerre c'est ok, les syriens non, devine pourquoi), assimiler l'immigration à "melting-pot multiculturel insécuritaire avec des dizaines de communautés tribales qui se méfient entre elles" (sic).

    Et c'est le soucis de ce genre de sujets, ça dérape très vite dans ces considérations où on rejette des personnes pour ce qu'ils sont plutôt que ce qu'ils font, il y a établissement d'une hiérarchie de valeur entre humains, et on retire toute humanité concernant les principaux concernés par ces politiques.

    Le problème n'est pas de discuter dans le fond politiquement de ce sujet, le soucis c'est les arguments avancés qui sont toujours +/- les mêmes et ont des conséquences assez terribles dont les USA nous donnent un bon aperçu en ce moment.

  • [^] # Re: Vrais fachos ou surréaction ?

    Posté par  (site web personnel) . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 7 (+4/-0).

    Sans compter l'historique du personnage ici même, ce n'est pas comme si ses précédents commentaires concernant l'immigration en France n'étaient pas connus.

    Grand fan de la théorie du grand remplacement. On ne peut pas détacher ses commentaires récents de ce parcours.

  • [^] # Re: Pas si simple…

    Posté par  (site web personnel) . En réponse au journal Les "fachos", fascistes, nazis et autres intolérants sont-ils tolérés sur linuxfr.org ?. Évalué à 5 (+3/-1).

    Alors déjà ça ne s'applique pleinement qu'en Belgique francophone, et la population locale a quand même un sentiment nationaliste bien plus faible de base ce qui réduit la porté de certains discours de l'extrême droite même si une bonne part peut toujours s'appliquer.

    Pas sûr que le cordon sanitaire explique tout.

  • [^] # Re: Ton vélo est de droite.

    Posté par  (site web personnel) . En réponse au journal Politique, vélo (et logiciels libre même combat ?).. Évalué à 7 (+4/-0).

    C'est tout le contraire en fait s'il y a des vélos entre 150 et 15000€, la médiane est de 7475€.

    Pas vraiment non. La médiane tient compte du nombre de produits et de leur répartition. Il est peu probable qu'il y ait un équilibre entre les modèles haut de gammes et bas de gammes. Souvent le bas de gammes à plus de références car plus de personnes peuvent en acheter mais ça dépend des produits.

  • # Autres options

    Posté par  (site web personnel) . En réponse au message Achète Jolla C2. Évalué à 4 (+1/-0).

    Il y a cette boutique en ligne qui peut te vendre du Sony avec Sailfish préinstallé : https://buy.jolla-devices.com/categoria-prodotto/sailfishos/

    Installer Sailfish n'est pas spécialement long ni compliqué pour un linuxien. La procédure est claire et relativement simple et revenir sur Android est tout aussi facile en cas de besoin.

    Par contre attention, le Xperia IV, V et au delà n'ont pas un support official de la part de Jolla à ce jour, la qualité de l'intégration peut être très mauvaise.

  • [^] # Re: Maljournalisme

    Posté par  (site web personnel) . En réponse au lien France Travail voudrait traquer la fraude avec vos appels téléphoniques. Évalué à 5 (+2/-0).

    Sais tu que le chômage est le premier financeur des start-up et autres entreprenariat

    Je le sais, et d'ailleurs il y a des aides et accompagnements dédiés pour cela aussi. Et je ne suis pas contre le développement de ce genre de possibilités. De même que la formation ou de participer à des activités associatives.

    Mais ce n'est pas de ça dont on parle.

    PS: il faudrait rappeler que le chômage n' est pas une prestation social public, c'est une assurance auquel en tant que travailleur on cotise. Ce n'est donc pas de la fraude de la toucher, ni même une gentillesse de l'état.

    C'est une assurance commune et publique. La société décide qui y a le droit et les conditions d'octroi, c'est normal.
    Comme toute assurance ou toute prestation sociale ou public il y a un compromis à trouver entre efficacité et coût. Avoir des restrictions n'est pas un gros mot si cela permet de rendre le tout soutenable tout en protégeant ceux qui en ont besoin.

    Si tu touches la prestation en dehors de ces conditions, c'est de la fraude par définition. Et ici ça va, il y a le droit à quelques congés sans perte de prestation à l'étranger, on ne parle pas d'avoir 0 jour par an. Et on peut se poser la question de la pertinence d'autoriser des séjours plus longs, ce ne sont pas les plus pauvres qui le feront.

    Si je suis favorable à certaines restrictions, je suis totalement contre le flicage systématique et la pression qui peut être mise pour forcer certains à retrouver un emploi même s'il est de mauvaise qualité. Je pense que la solution viendrait potentiellement du revenu universel mais c'est encore un autre sujet.

  • [^] # Re: Type de mémoire

    Posté par  (site web personnel) . En réponse au lien Puce IA : Pourquoi le marché de la mémoire va peser deux fois plus lourd que celui des processeurs cette année. Évalué à 4 (+1/-0).

    Les têtes se rangent en veille ou quand la machine est éteinte. Mais si ton ordinateur tourne et tombe, les dégâts peuvent être sérieux.

    Certains modèles de portable peuvent avec un accéléromètre détecter une telle situation pour tenter de protéger le disque dur mais c'est loin d'être généralisé (et c'est probablement efficace dans certains cas mais pas d'autres).

  • [^] # Re: Maljournalisme

    Posté par  (site web personnel) . En réponse au lien France Travail voudrait traquer la fraude avec vos appels téléphoniques. Évalué à 6 (+3/-0).

    Moi, quand je suis tombé au chômage, celui-ci a financé des activités associatives, j'ai aidé un collectif à monter un supermarché en coopérative.

    Personnellement je ne serais pas contre que certaines activités associatives soient considérées comme compatibles avec les allocations chômages au même titre que des formations.

    Le chômage est un droit, conquis par les travailleurs. Pas une aumône, ni quelque-chose de honteux duquel on se doit de sortir le plus vite possible.

    Mais ce droit comme les impôts sont gérés de manière collective. Et il est normal que la société puisse s'exprimer sur les conditions autour de ce droit car après la dite société paie pour collectivement.

    Le chômage a été mis en place contre les accidents de la vie ou lors des moments économiques difficiles et il remplie son rôle. Et il n'est pas aberrant que collectivement pour éviter de payer cela trop cher on mette des restrictions pour limiter les abus et éviter une explosion du coût.

    Cela ne me semble pas aberrant de considérer que si tu ne cherches pas d'emploi tu n'as pas besoin du chômage. Mais là encore on peut discuter des moyens mis en oeuvre derrière cela.

    En l’occurrence il semble possible de partir 5 semaines par an soit le même droit que quand tu as un emploi. Cela me paraît raisonnable car cela fournie une continuité tout en protégeant les plus modestes. Si tu veux plus, tu te les paies de ta poche comme le ferait un employé avec des congés sans soldes ou une suspension de contrat.

    Si l'objectif c'est d'avoir une rente inconditionnelle qu'on peut disposer à loisir je ne pense pas que le chômage soit le plus approprié car il n'a jamais été conçu pour ça. On peut discuter du revenu universel cela aurait plus de sens.

  • [^] # Re: Maljournalisme

    Posté par  (site web personnel) . En réponse au lien France Travail voudrait traquer la fraude avec vos appels téléphoniques. Évalué à 3 (+0/-0).

    Oui enfin tu as à priori le droit de partir à l'étranger 5 semaines par an, comme "un employé" standard avec un boulot à plein temps.

    Le compromis ne me semble pas absurde, l'objectif du chômage n'est pas de financer des voyages de loisirs de longue durée, ni de financer l'économie touristique d'un pays étranger.

    Le chômage est une assurance avec un but précis. Après on peut discuter des moyens mis en œuvres pour s'assurer du respect des conditions. Mais je ne suis pas choqué par ce gens de limitations.

    Si tu veux voyager longtemps rien ne t'empêche de ne pas toucher le chômage comme certains suspendent leur contrat de travail pour de très longs voyages s'ils en ont envie.

    Je ne pense pas que la limitation concerne tant de monde que ça et en particulier ceux qui ont le plus besoin de ces allocations chômage.

  • [^] # Re: Frais

    Posté par  (site web personnel) . En réponse au lien Le milliardaire Mark Cuban affirme que l'IA va pousser les entreprises à ne plus déposer de brevets, car chaque LLM pourra s'entraîner dessus [...]. Évalué à 6 (+3/-0).

    En fait chaque pays a ses règles. En France c'est la primauté à l'invention qui compte mais dans d'autres pays c'est la primauté au dépôt.

    La France aussi peut invalider un brevet s'il n'a pas été exploité dans les X premières années après le dépôt pour éviter les situations abusives mais tous les pays n'ont pas de telles clauses.

    Plus globalement les offices des brevets font un travail de vérification préalable assez mauvais. Notamment par rapport à l'état de l'art, les brevets logiciels en Europe, etc.

    Cependant je trouve l'argumentaire de l'article assez mauvais. IA ou pas, ce qu'il dit était faisable et je dirais même que c'est la force du brevet : on garantie un monopole temporaire sur une technologie en contre partie de la rendre publique. Pour beaucoup d'invention garder le secret n'a pas de sens car beaucoup de choses peuvent se savoir en achetant le produit dans le commerce et en le décortiquant.

    Cela ne peut avoir de sens que dans certains domaines où la diffusion du produit est très limitée et contrôlée comme le domaine militaire ou certains secteurs industriels. Mais ils évitaient déjà les brevets dans ce cas donc ça ne change pas grand chose.

  • [^] # Re: 2025

    Posté par  (site web personnel) . En réponse au lien [HS] Non c’est Non, Monsieur Duplomb !. Évalué à 10 (+13/-0).

    Le PIB peut être critiqué en tant que métrique, mais dire qu'il n'est pas "pertinent", faut pas abuser.

    C'est surtout qu'un indicateur seul ne peut présenter qu'une vision biaisée de la situation. Le PIB ne fait pas exception.

    Concernant le "pays soviétique" je ne pense pas à un pays en particulier, c'est une question de système.

    Pourtant quand on regarde ton lien, aucun pays sous influence soviétique n'est près de dépasser la France en PIB par habitant en considérant la parité en pouvoir d'achat. La France est globalement dans la moyenne de l'UE, proche de l'Italie et de l'Espagne sur ces critères qui sont des pays riches et n'est devancée en fait que part des pays riches qui le sont depuis longtemps. La moyenne de l'UE est fortement influencée par le fait que les États riches de l'union sont aussi les plus peuplée, la Pologne faisant figure d'exception même si on peut noter que c'est l'un des pays les plus riches des pays de l'Est.

    Si on prend une vision plus large : https://en.wikipedia.org/wiki/List_of_countries_by_GDP_(PPP)_per_capita en excluant les micro États et pays pétroliers, la France n'est devancée que par les pays riches sur ce critère également. La France est même devant le Japon, la Corée du Sud, la Nouvelle-Zélande, le Royaume-Uni, fait jeu égal avec le Canada.

    En fait seuls les USA et l'Australie dans l'Occident (donc les pays riches historiques) font significativement mieux sur ce critère que la France. Qui sont quand même des pays disposant de ressources naturelles très favorables par ailleurs.

    Donc en objectivant un peu, où est le fameux décrochage ? Comment expliquer qu'avec notre régulation "si restrictive" on parvienne à faire mieux que de nombreux pays ne le faisant pas ?

    L'économie est de moins en moins libre, de moins en moins productive, et de plus en plus bureaucratique et la caste qui tient les rennes du pays (que ça soit dans le public ou le privé) est sclérosée avec un ascenseur social complètement bloqué

    Ce qui m'amuse avec ce genre de propos c'est que j'ai toujours l'impression qu'on retrouve ce discours… partout. Quand tu traverses une frontière, quelle qu'elle soit, ce discours revient dans le débat public national très régulièrement. La France ne se démarque pas spécialement.

  • [^] # Re: 5 partenaires

    Posté par  (site web personnel) . En réponse au lien Assez de prétendre que la technologie est neutre. Évalué à 4 (+1/-0).

    Ça pourrait être les pays européens qui ont une telle réglementation en place ou en ligne de mire concernant les réseaux sociaux :

    Prime Minister Pedro Sanchez has announced five measures to protect minors from the "digital Wild West". Similar initiatives are already in the pipeline in France, Portugal, Greece, Denmark, and Austria, but with bans on access to social networks at different ages

  • [^] # Re: L'IA dit et fait n'importe quoi ?

    Posté par  (site web personnel) . En réponse à la dépêche Saga OpenClaw (ClawdBot, Moltbot) : enjeux techniques, juridiques et éthiques d’un assistant IA open source. Évalué à 5 (+2/-0).

    Et par conséquent, pour les données, on a des fuites (obligatoirement, si ça envoit des prompts à chatgpt ou autre), ou pas ?

    Ce qui n'est d'ailleurs qu'un soucis des problèmes. En cas d'hallucination les conséquences peuvent être importantes ou encore s'il est accessible par l'extérieur car il lit la messagerie (courriel, chat, service web, etc.) il peut être facile de lui demander de faire des actions à tes dépends.

    Cet outil est le plus pertinent quand il a accès à toutes tes infos ou données mais du coup ça le rend terriblement vulnérable et peut avoir des conséquences bien lourdes.

    Par conception c'est un soucis.

  • [^] # Re: Utile pour le oneshot

    Posté par  (site web personnel) . En réponse au journal Retour d'expérience sur le développement d'une application par l'utilisation d'IA. Évalué à 4 (+1/-0).

    D'où l'intérêt de savoir rédiger un bon agent.md.

    Ça ne suffit pas, chaque interaction le nécessite.

    j'ai l'impression que les gens qui se plaignent que leur LLM fasse n'importe quoi l'ont testé en mode copier-coller dans l'interface web, sans jamais lui donner de guidelines. Donc le voici de nouveau. C'est salvateur si on veut obtenir des résultats

    Mais même en s'en servant "bien" les résultats faux, bancals ou surprenants arrivent. Ce serait se mettre des œillères de ne voir quand cela fonctionne bien et ignorer les limitations aussi bien réelles.

    C'est d'ailleurs tout le risque si tu le confis à des personnes non expertes du domaine où il est employé ou si celui ci fait une confiance aveugle et ne vérifie pas assez : ne pas voir quand ça part en vrille.