C'est un problème que j'ai eu récemment et quelques fois sur différents modèles. À priori pas trop difficile à régler si c'est bien ça.
Les ordinateurs sont sensibles à la chaleur, il y a des tas de sécurité en place pour limiter sa production avant d'éventuellement couper l'ordinateur sans sommation si les mesures précédentes ne fonctionnent pas.
En effet, si l'ordinateur chauffe un peu trop, il va réduire la fréquence du processeur et du GPU. Cela va dégrader significativement les performances s'il doit tourner à la fréquence minimale en permanence d'où tes ralentissements. Et cela est conforme avec le fait que les performances se dégradent au bout de quelques secondes, au début l'ordinateur est probablement assez frais pour ne pas recourir à cela.
Il y a trois choses à regarder / corriger :
D'abord s'assurer que le ventilateur tourne bien
Dépoussiérer l'ordinateur et les ventilateurs, ce sont de vrais aspirateurs à poussière et ça peut vite s'encrasser
Changer la pâte thermique du CPU / GPU
La pâte thermique est une petite pâte qu'on met entre le processeur et le radiateur pour avoir un échange thermique optimal. Mais suivant la quantité mise à l'usine et d'autres facteurs cette pâte s'use, se rétracte et ne fonctionne plus aussi bien et il faut la changer.
C'est une opération peu coûteuse et relativement simple à faire si tu peux facilement enlever le radiateurs du CPU (ce qui dépend des modèles). Selon les modèles le radiateur fait un long chemin jusqu'au ventilateur et peut s'encrasser à la jonction aussi, ne pas hésiter à aspirer la poussière.
C'est amusant car tu t'évertues à prôner la prévention et à responsabiliser les individus et quand l'État diffuse un message qui va dans ce sens tu les traites d'incapables et que cela n'aura aucun effet.
Tu sais très bien que faire ce boulot à la main est délirant
Franchement avec les données de l'OCDE ton tableau n'est pas hors de portée à faire à la main hein. La preuve j'ia pu pointer une incohérence entre ton tableau et ce qu'ils disaient…
Je ne sais pas d'ou tu sors cela, d'expérience, je n ai pas encore vu d'erreurs sur ce sujet.
Et donc les erreurs dans ton tableau initial c'est quoi ?
L’article dévoile l’une des astuces développées par des législateurs corrompus : en tant qu’auxiliaires technologiques ces ingrédients n’ont pas à être mentionnés.
Mouais, dire que cette disposition relève de la corruption d'entrée de jeu est peut être fort du café.
Il y a des raisons derrière ce genre de dispositions légales, notamment pratiques pour le consommateur comme le producteur. Car si tu t'intéresses à ta santé il y a des tas de choses qui entrent en jeu et ce n'est pas mentionné non plus sur l'emballage et ne sont pas moins important que l'hexane :
Température des cuissons (qui peuvent générer des sous produits à partir des ingrédients de base)
Le conditionnement de tous les ingrédients à toutes les étapes de la chaînes
La composition de l'emballage exact final
Les matériaux dans la chaine de production en contacts avec les ingrédients
Etc.
Car tout ceci peuvent modifier la nature du produit final de manière plus ou moins importantes, souvent sous forme de traces. Mais c'est relativement impraticable et pour le consommateur cela pourrait ajouter de la confusion plus qu'une information utile.
Il est préférable plutôt d'analyser le produit en sortie pour déterminer s'il y a eu des contaminations dans la procédure à des niveaux présentant un risque pour la santé voire d'interdire un processus / composé s'il n'est pas jugé suffisamment sûr.
C'est quand même dommage de ne pas avoir vérifié si le tableau initial concordait avec les dites sources alors que c'est une faiblesse structure de l'outil en particulier pour des données chiffrées.
J'espère d'ailleurs que tu as vérifier les résultats du second avant de le poster.
Du coup perso j'ai moinsé, que tu utilises un chatbot je m'en fiche, mais tu dresses un tableau brut avec sans vérifier à minima les infos, et balancer des données brutes n'a pas je trouve beaucoup d'intérêt. Si tu voulais analyser pour extraire un élément intéressant, mets le dans le texte du journal, si c'était juste l'existence de la mesure un lien vers le site de l'OCDE suffisait.
Globalement ce qui faut se dire c'est qu'avoir un panorama complet de la situation d'un pays et de plusieurs pays nécessite plusieurs indicateurs. Avec un tableau unique comme ici tu as plus de questions qui se posent (et qui doivent être répondues avec d'autres mesures ou analyses) que de réponses.
Mon but est de comparer l'effort du pays, pas la qualité de service.
Mais même ça n'a pas beaucoup d'intérêt de voir cela de manière isolée.
Tu balances ton tableau publiquement, y'a un objectif, non ? Et comparer de manière brute ces chiffres n'a pas beaucoup d'intérêts car comme toujours un indicateur isolé ne dit pas grand chose finalement.
Ce genre de tableau en fait doit permettre de creuser la réflexion : pourquoi il y a des écarts, est-ce une différence politique, une différence de services rendues, une différence de structure de la population (jeune vs vieille), etc.
En général ce genre de chiffres brutes balancées ainsi sont souvent utilisées pour immédiatement embrayer "la France paye trop par rapport à d'autres" et justifier ainsi qu'on doive réduire la dépense sans se poser la question de ce qui peut expliquer cette variabilité entre états.
Donc pourquoi tu balances ce tableau sans plus de contexte ? Je pense que c'est intéressant de comprendre ton objectif. Et je pense que c'est essentiel en commentaire de recontextualiser un petit peu aussi ces chiffres pour éviter les interprétations simplistes qu'on a malheureusement trop souvent face à ce genre de données notamment dans la presse ou le milieu politique.
Les USA ont environ 7,2% et 5,7% du PIB de 2022 respectivement dépensés par le public et le privé pour la retraite.
Cela donne presque 13% du PIB pour ce poste de dépense, bien au delà de ce que le tableau rapporte car finalement proche de ce que les pays européens dépensent.
Donc je pense que ces chiffres sont à revérifier.
Par ailleurs, il faut faire attention aussi au scope :
Conditions d'accès à ces dépenses ou ventilation des dépenses, ce n'est pas parce que tu dépenses en proportion de manière similaire qu'un autre pays que l'impact pour la dite population est la même
Faut prendre en compte également la répartition de la population, si tu as peu de jeunes et beaucoup de vieux tu dépenseras en théorie plus pour la retraite que pour l'éducation en proportion
Même si l'OCDE standardise pas mal de choses dans les calculs statistiques, les scopes sont probablement toujours un peu différent entre chaque pays pour la répartition des dépenses
En fait la question de la vente à pertes est souvent mal comprise.
En France tu n'as pas le droit d'être un supermarché, d'acheter un pot de Nutella à 5€ à Ferrero et le revendre à 4€ sur tes étales. Car c'est de la vente à perte.
Mais, tu es Sony, tu fais une Playstation, tu fixes le prix que tu veux pour la vendre. La seule contrainte est que le supermarché qui le revend le revend au moins au prix d'achat auprès de son fournisseur (et ainsi de suite jusqu'à Sony).
En même temps c'est logique. C'est quoi le coût réel d'une Playstation ? Impossible à dire.
De nombreux coûts de production sont fixes, donc le coût réel d'une Playstation dépend du nombre d'unités que tu vas vendre en réalité chose que tu ne sauras qu'après coup. Si on interdisait strictement la vente à perte, Sony devrait vendre sa première Playstation sortie d'usine à un prix exorbitant pour amortir les coûts fixes ce qui n'aurait aucun sens.
Donc Sony doit faire un pari pour le tarif de vente dès le départ. Ils ont une estimation des coûts fixes et variables, des cibles de vente pour atteindre la rentabilité mais sans aucune garantie d'y parvenir. Et si Sony n'en vend pas assez, il faut leur faire un procès ?
C'est encore plus compliqué en cas de possibilités de synergie, genre une usine qui peut produire facilement différents produits et dont le nombre de lignes de productions peuvent varier en fonction des besoins. On évalue comment ces coûts ?
Il faudrait faire ça de plus à l'échelle du produit entier, donc pour chaque composant qui entre dans la composition du produit final. Auprès de chaque fournisseur.
Bref, ce n'est pas très réaliste d'estimer le coût d'un produit et la notion de vente à perte en dehors du domaine purement commercial à savoir l'achat et revente de biens tels quels. D'où le fait que ce n'est réglementé nul part.
J’ai toutefois du mal à croire que pour un driver de lecture de périphérique, dont on se fout des droits j’imagine, cela est évolué au point que ce soit complètement différent en terme de logique.
Oui pour un pilote sauf si ça utilise un sous système compliqué qui a évolué a souvent peu besoin d'une refonte en profondeur. Le plus dur c'était de l'avoir fonctionnel à la base, après c'est le jeu de voir les évolutions d'API.
Ce serait un code plus fondamental tel qu'un sous système entier cela pourrait être une autre paire de manche.
Toutefois il dit bien qu’il s’est fait aidé par le LLM mais qu’une personne n’ayant jamais fait de driver noyau n’aurait jamais pu se faire aider. Il est probable que le temps investi par rapport au gain n’en valait pas la chandelle sans aide. En gros, seul, il aurait peut-être abandonné avant d’avoir quelque chose qui marche. Mais à deux cerveaux humains qui s’entraident ça aurait pu également fonctionner peut-être…
En fait son article est bizarre. De ce que j'ai compris le gars a quand même un bagage très honorable en C. Pour écrire un pilote noyau il n'y a pas besoin de beaucoup plus. Comme il le dit lui même, cela démystifie le noyau en un sens, le noyau n'est pas aussi mystique qu'un autre projet. Écrire un pilote noyau basique est limite plus simple que de contribuer à de nombreux projets qui ont l'air plus simple en apparence en espace utilisateur. Peut être que s'il avait fait tout tout seul cela ne lui aurait pas pris tant de temps que cela en plus avec des connaissances en C suffisante.
Je suis également étonné qu'il dise que faire cela lui aurait surtout nécessité de comprendre du code ancien et inutile. Il a peut être en partie raison, mais de l'autre il aurait malgré tout eu besoin de lire ou écrire du code noyau moderne ce qui est pour le coup plus utile. D'ailleurs il semble dire qu'il fera du code noyau récent à l'avenir donc ce n'est pas si inutile de se plonger dans ce genre d'exercices à mon sens car le volet moderne du code reste valorisable.
J'aime bien en tout cas la problématique de base que je trouve intéressante.
Je ne vois pas de raisons pour laquelle le CPU deviendrait secondaire à ce point là.
Le GPU a des inconvénients qui le rendent assez peu adaptés à réellement prendre le pas sur le CPU en dehors de quelques cas spécifiques.
La chimie reste de la chimie. Il n'y a pas de chimie distincte pour les médocs et la toxicité ou pour le reste du corps humain.
L'effet cocktail peut s'expliquer par d'interactions qui favorisent ou défavorisent les absorptions des molécules toxiques mais aussi parce qu'un composé seul peut être inoffensif mais en présence d'autre chose réagir et avoir des sous produits de réactions qui sont eux toxiques.
Le soucis c'est que c'est difficile à évaluer et de tester tous les combos. Surtout que notre corps régule beaucoup de composés aussi à des fréquences variables.
Donc oui cet effet peut exister et il faut être humble devant nos connaissances à ce sujet.
Cependant cela ne veut pas dire qu'on ne sait rien ni que l'effet cocktail concerne tous les produits et tout le monde avec la même dangerosité
Même sans aller si loin, ce n'est pas pour rien non plus que :
Certains médicaments / compléments alimentaires doivent être pris avec de l'eau ou plutôt avec un repas gras suivant si c'est liposoluble ou non ;
Certains médicaments ne doivent pas être pris ensembles ou avec certains aliments pour éviter de se neutraliser en terme d'absorption ;
Que certains médicaments doivent être pris à jeun pour mieux contrôler le dosage reçu de manière effectif.
Le corps humain est très dynamique, il faut dire que c'est une succession de réactions chimiques très variés et à grande échelle. C'est très étonnant de penser que la toxicité puisse être une notion totalement indépendante de cette dynamique.
Leur papier est publique, si tu trouves des problèmes tu peux les décrire ici.
Ouais leur papier est certes public mais cela reste un communiqué de presse et non une étude scientifique.
La méthodologie précise est absente, de nombreuses données manquent comme le modèle employé et la taille du prompt médian et le type de requête que cela représente car entre un raisonnement et une requête basique il y a un monde.
De plus ce qui compte aussi, et ce n'est pas un détail, c'est la pollution et consommation globale qui compte et non par requête. Donnée aussi manquante.
Le simple fait qu'ils disent que les serveurs sont alimentés par des énergies renouvelables montre que c'est quand même un outil de communication plus qu'un exemple de rigueur scientifique, je doute fortement que leurs serveurs soient alimentés 100% par de l’électricité renouvelable qu'ils produisent, ils ont probablement un système de certificats pour affirmer cela ce qui est relativement malhonnête pour l'attribution des émissions.
Bref, leur article reste relativement opaque et quand tu ajoutes à cela que c'est produit par l'entreprise elle même, il faut quand même se méfier des résultats bruts. Le résultat n'est pas inintéressant mais il ne faut pas non plus considérer le résultat communiqué comme objectif et et scientifiquement valide.
De ce que j'avais lu concernant cette histoire, il existait des démonstrations de valeurs plus intéressantes dans la nature autour de cette question.
Et à la lecture du résultat il semble que ce n'est pas un problème si complexe pour un chercheur en maths, ni quelque chose qui demande de créer de nouveaux concepts, objets ou raisonnements. Un peu comme coder avec pour générer du code nouveau mais qui reste dans l'ordre du connu.
Ce n'est pas inintéressant comme résultat mais pas aussi renversant que certains le disent non plus.
J'ai infiniment plus de respect et d'émotion devant l'art génératif algorithmique ou il s'agit de faire avec économie de moyen et quelques idées mathématiques … même si c'est souvent sommaire et abstrait.
Le premier ressemble dans l'idée aux démos où tu génères de la musique, des images ou scènes à partir d'algorithmes avec pour objectif d'avoir des effets sympa qui consomment le moins de ressources possible tout en étant temps réels pour les arts dynamiques.
Y'a un côté artistique évidemment mais aussi technique qui demande souvent pas mal d'efforts pour trouver des compromis intéressant entre temps d'exécution, quantité de mémoire et effets obtenus. Un milieu très créatif et pas évident.
C'est bien qu'ils fournissent des chiffres et des progrès en ce sens par requête.
Cependant il y a quand même quelques oublis dans ce tableau.
Tout d'abord cela se base sur la requête médiane qui est probablement courte (genre une requête Google classique). Or les requêtes plus longues sont significativement plus gourmands et on pousse de plus en plus à s'en servir.
Certains modes de fonctionnement cumulent les usages, par exemple si Gemini fait des recherches sur Internet, il utilise aussi un moteur de recherches et des sites externes pour collecter des infos. Les bilans se cumulent et ne se compensent pas.
À mesure qu'ils ont des gains d'efficacité les gens s'en servent toujours plus, que ce soit par utilisateur comme collectivement. Pas pour rien qu'ils investissent tous dans beaucoup d'infrastructure pour tenir la montée en charge, que la consommation énergétique de ces entreprises a fortement augmenté et qu'ils ont tous repoussé leurs objectifs environnementaux.
Le bilan carbone de l'infra au global (construction des puces, etc.) n'est pas pris en compte non plus.
C'est pourtant au global que l'impact doit être mesuré car c’est ce qui compte vraiment, pas juste le bilan par requête même si c'est déjà ça.
Alors oui on peut comprendre mais ça demande un effort certain, beaucoup de mots ont changé d'orthographe, la manière d'écrire a clairement évolué en terme de style et beaucoup de mots ont aussi disparu depuis (et donc on en comprend pas immédiatement le sens, on doit souvent deviner).
Ce n'est pas pour rien que les collégiens ne lisent jamais Molière en texte d'origine mais toujours une version modernisée pour rendre cela plus digeste. Et même avec ça c'est facile de se faire avoir (évolutions culturelles et de vocabulaires obligent).
Cela est d'ailleurs valable pour des auteurs anciens dans d'autres langues.
Le "e" se prononce "i" et le "ai" se prononce "é". Deux nouvelles exceptions orthographiques en 5 lettres. Les mots "courriel" et "mél" n'introduisent pas de nouvelles difficultés orthographiques. (par contre, je crains qu'on repassera pour être encore compris dans 5 siècles)
Notons que c'est souvent le cas pour les néologismes transcrits tels quelles depuis une autre langue. sine die par exemple n'est pas une locution qui se prononce comme du français standard à partir de son orthographe. C'est le propre de ce mécanisme même si une francisation peut apparaître sur le temps long en changeant l'orthographe ou la prononciation mais cela n'a rien de systématique.
De toute façon si tout le monde dit et écrit email, l'avis de l'Académie Française n'empêchera pas son adoption et de fait son inclusion dans l'usage et dans le vocabulaire courant du français.
Cela ne permet pas d'influer significativement le chiffre de la France… à moins qu'il soit 10 fois pire… ce qui n'est pas le cas car les DOM/TOM, si certes sont relativement moins bien équipé (côte hôpitaux, comme PIB ou infrastructure), ne sont pas dans un état catastrophique.
Les DOM-TOM ont une mortalité infantile comprise entre 6,7 et 8,9 pour milles, je rappelle que la moyenne nationale c'est 3,9. Il y a donc un facteur deux très net en jeu. Rien que cet écart explique 0,2 pour mille de différence à l'échelle nationale (ce qui est l'ordre de grandeur de l'augmentation dont on parle ici tout de même).
Le pire département métropolitain est la Seine St Dennis avec 5,4 pour mille. Seulement trois départements qui dépassent les 5.
Alors oui ça n'explique pas tout, mais il ne faut pas non plus fermer les yeux. Car on voit que très clairement qu'ils n'ont pas les mêmes ressources que nous pour gérer la santé (cela se voit sur d'autres indicateurs, pas juste la mortalité infantile). Ce n'est pas un hasard si les cinq départements d'outre mer ont un tel écart avec la métropole, c'est un problème malheureusement courant et il est honteux de les laisser dans une telle situation.
En outre la France n'est pas le seul pays à avoir des DOM/TOM. Le Groenland DOM/TOM des pays bas
Le Groenland est très peu habité et a un taux de fécondité similaire au Danemark, ce n'est pas le cas de notre Outre Mer qui est bien plus habité et avec une natalité plus élevée.
Pour les Pays-Bas de même l'écart est aussi important. Même le moins peuplé Mayotte l'est deux fois plus que leur plus peuplé à savoir Curaçao.
Bref, faut se reposer un peu plus sur les calculs pour comparer.
Il est certainement plus difficile à gérer que nos DOM/TOM tropicaux (Imagine toi habiter à 1000 km de l'hôpital le plus proche sur une île glacée…).
Pourtant leur mortalité infantile est dans les mêmes eaux. Donc qu'en conclure ? Sans doute qu'on gère mal la situation là bas faute d'infra, ressources ou de personnel adéquat ?
Ce que je dis, c'est juste que les DOM/TOM ne sont pas une excuse pour avoir de mauvais chiffres.
Comme je le montre, ce n'est pas la seule explication mais l'ignorer serait une erreur.
Ce que l'INSEE montre c'est que quelques départements ont des résultats bien plus faibles que les autres et le fait qu'ils soient probablement des zones relativement pauvres devraient être un indicateur que le problème est lié.
Mais cela montre aussi qu'en allouant les ressources à ces quelques territoires on pourrait largement améliorer le résultat global, probablement plus simple qu'en ayant des mesures qui couvrent tout le territoire.
Puis si tu améliorer la gestion de la mortalité infantile dans ces territoires, nul doute que le bénéfice se verrait pour d'autres indicateurs de santé.
Évidemment, c'est facile de dire que c'était pire avant, je peux même te prédire que ça va progresser.
Je rappelle juste que la régressé observée reste quand même dans des valeurs qu'on observe depuis 20 ans qui sont les meilleurs de l'Histoire du pays. Donc comparer à il y a 30 ans où la situation était déjà bonne on reste dans une meilleure posture.
C'est bien de le garder en tête, oui il y a une régression et cela doit servir à comprendre ce qui se passe et à adapter les dispositifs mais cela ne signifie pas pour autant que c'est la fin.
Gnome est bien connu pour passer son temps à casser la compatibiité entre les diverses versions de ses API.
La seule chose que GNOME casse régulièrement c'est l'API de ses extensions, et encore c'est plus stable maintenant.
Beeaucoup d'applis Gnome passsent lleur temps à "évoluer" en supprimant des fonctionnalités.
C'est plutôt faux ça en vrai. Il y a eu quelques cas mais comme dans tout logiciel en vrai. La question des fonctionnalité est toujours un compromis entre utilité / effort de maintenance / simplicité d'utilisation. Parfois retirer une fonctionnalité peu utilisée mais qui complique la vie des utilisateurs ou des développeurs c'est la meilleure chose à faire.
Systemd passe son temps à tout recoder (DNS, Date/time, etc …) pour des trucs qui marchent moins bien que les applis qu'ils sont censés "remplacer" Et le problème avec systemD, c'est que tu ne peux pas virer ces trucs : tu es juste contrant de les désactiver quand tu ne veux pas t'en servir, et t'es pas à l'abri d'une réactivation sans prévenir à la prochaine mise à jour.
Je me sers de systemd tous les jours à la maison et au travail et c'est un bonheur par rapport à avant. Et mon boulot c'est de maintenir des firmware donc des "distro maison".
Alors oui ce n'est pas parfait mais on est loin du portrait que tu dresses.
Donc ouil l'enshitifcation est bien présente dans le logiciel libre.
L'emmerdification c'est valoriser le bilan financier de l'entreprise au détriment des utilisateurs.
systemd et GNOME ne sont pas dans ce cadre, ils font des choix qui conviennent à énormément de monde mais bien sûr pas à tous.
Perso j'ai aimé GNOME 2, mais j'adore encore plus GNOME 3. C'est vraiment mon environnement idéal. Et j'en connais plein qui partagent le même point de vue.
Mais je trouve ça super que pour certains Xfce, KDE ou autre est la meilleure solution. C'est l'avantage du libre, on a le choix. Un logiciel unique ne peut pas satisfaire tout le monde à la perfection.
ouias c'est ce que j'aimerais faire avec suystemd. Je demande pas grand chose, juste pouvoir virer les briques qui ne m'intéressent pas.
Tu peux, mais après si la distro ne le propose pas le soucis est la distro et pas systemd.
C'est pas anodin que sa principale critique contre Julia c'est de ne pas être un académique/expert reconnu. Bref ça tourne autour de la légitimité à être producteur-transmetteur de savoir, mais toujours dans une vision descendante et hiérarchique de la connaissance. Bref petite guéguerre entre petites bourgeoisies culturelle et économique.
Pour moi ce n'est pas la principale critique qu'il adresse à Julia, c'est même presque du détail.
Résumons rapidement les gros arguments :
Quand il parle des LLMs, tout ce qui dit montre une mauvaise compréhension de leur fonctionnement qu'on peut difficilement attribuer à un objectif de vulgarisation (on peut être beaucoup plus justes tout en restant simple) ;
Il cite des études anciennes dont il déforme la porté et le protocole pour valoriser son propos ;
Il est vendu comme co créateur de Siri mais manifestement aucun élément tangible ne montre que c'est le cas ;
Il raconte des anecdotes autour de Siri qui avec les informations disponibles peuvent montrer que ce n'est pas très crédible ;
Il prétend qu'en tant que mathématicien il va faire une démo de maths de son propos mais son raisonnement n'a rien d'une démo de maths et en effet son statut en tant que mathématicien est douteux ;
Difficile de rester expert quand tu fais 150 interventions / conférences par an, tu de détaches forcément de l'expertise.
Donc je ne trouve pas que la remarque la plus pertinente et forte soit d'ordre du diplôme. C'est bien au delà de ça.
# Soucis de chaleur
Posté par Renault (site web personnel) . En réponse au message Pourquoi mon ordinateur freeze ?. Évalué à 9.
C'est un problème que j'ai eu récemment et quelques fois sur différents modèles. À priori pas trop difficile à régler si c'est bien ça.
Les ordinateurs sont sensibles à la chaleur, il y a des tas de sécurité en place pour limiter sa production avant d'éventuellement couper l'ordinateur sans sommation si les mesures précédentes ne fonctionnent pas.
En effet, si l'ordinateur chauffe un peu trop, il va réduire la fréquence du processeur et du GPU. Cela va dégrader significativement les performances s'il doit tourner à la fréquence minimale en permanence d'où tes ralentissements. Et cela est conforme avec le fait que les performances se dégradent au bout de quelques secondes, au début l'ordinateur est probablement assez frais pour ne pas recourir à cela.
Il y a trois choses à regarder / corriger :
La pâte thermique est une petite pâte qu'on met entre le processeur et le radiateur pour avoir un échange thermique optimal. Mais suivant la quantité mise à l'usine et d'autres facteurs cette pâte s'use, se rétracte et ne fonctionne plus aussi bien et il faut la changer.
C'est une opération peu coûteuse et relativement simple à faire si tu peux facilement enlever le radiateurs du CPU (ce qui dépend des modèles). Selon les modèles le radiateur fait un long chemin jusqu'au ventilateur et peut s'encrasser à la jonction aussi, ne pas hésiter à aspirer la poussière.
[^] # Re: Maladie tropicale … plus tant tropicale
Posté par Renault (site web personnel) . En réponse au journal ALERTE SANITAIRE : les moustiques ça pique. Évalué à 9.
C'est amusant car tu t'évertues à prôner la prévention et à responsabiliser les individus et quand l'État diffuse un message qui va dans ce sens tu les traites d'incapables et que cela n'aura aucun effet.
[^] # Re: Maladie tropicale … plus tant tropicale
Posté par Renault (site web personnel) . En réponse au journal ALERTE SANITAIRE : les moustiques ça pique. Évalué à 2.
Pourtant c'est courant dans le Sud de la France que des gens ne fassent pas spécialement attention à cela.
[^] # Re: Maladie tropicale … plus tant tropicale
Posté par Renault (site web personnel) . En réponse au journal ALERTE SANITAIRE : les moustiques ça pique. Évalué à 10.
Mouais, je connais des gens en bonne santé hospitalisés pour la dengue et le chikungunya. Chose que je n'ai jamais croisé pour une grippe.
Donc je ne pense pas que pour la population qui s'en tirent bien avec une grippe peuvent considérer que ces maladies sont la même chose.
Et pour les personnes fragiles face à la grippe le vaccin est efficace ce qui diminue les risques également.
[^] # Re: -16...
Posté par Renault (site web personnel) . En réponse au journal Comparaison de dépenses entre pays. Évalué à 4. Dernière modification le 22 septembre 2025 à 10:50.
Franchement avec les données de l'OCDE ton tableau n'est pas hors de portée à faire à la main hein. La preuve j'ia pu pointer une incohérence entre ton tableau et ce qu'ils disaient…
Et donc les erreurs dans ton tableau initial c'est quoi ?
[^] # Re: Open flood facts, yuka…
Posté par Renault (site web personnel) . En réponse au lien L'hexane, un produit neurotoxique encore utilisé par l'industrie agroalimentaire. Évalué à 6.
Mouais, dire que cette disposition relève de la corruption d'entrée de jeu est peut être fort du café.
Il y a des raisons derrière ce genre de dispositions légales, notamment pratiques pour le consommateur comme le producteur. Car si tu t'intéresses à ta santé il y a des tas de choses qui entrent en jeu et ce n'est pas mentionné non plus sur l'emballage et ne sont pas moins important que l'hexane :
Car tout ceci peuvent modifier la nature du produit final de manière plus ou moins importantes, souvent sous forme de traces. Mais c'est relativement impraticable et pour le consommateur cela pourrait ajouter de la confusion plus qu'une information utile.
Il est préférable plutôt d'analyser le produit en sortie pour déterminer s'il y a eu des contaminations dans la procédure à des niveaux présentant un risque pour la santé voire d'interdire un processus / composé s'il n'est pas jugé suffisamment sûr.
[^] # Re: -16...
Posté par Renault (site web personnel) . En réponse au journal Comparaison de dépenses entre pays. Évalué à 4.
C'est quand même dommage de ne pas avoir vérifié si le tableau initial concordait avec les dites sources alors que c'est une faiblesse structure de l'outil en particulier pour des données chiffrées.
J'espère d'ailleurs que tu as vérifier les résultats du second avant de le poster.
Du coup perso j'ai moinsé, que tu utilises un chatbot je m'en fiche, mais tu dresses un tableau brut avec sans vérifier à minima les infos, et balancer des données brutes n'a pas je trouve beaucoup d'intérêt. Si tu voulais analyser pour extraire un élément intéressant, mets le dans le texte du journal, si c'était juste l'existence de la mesure un lien vers le site de l'OCDE suffisait.
[^] # Re: Attention aux hallucinations et au scope
Posté par Renault (site web personnel) . En réponse au journal Comparaison de dépenses entre pays. Évalué à 3.
Globalement ce qui faut se dire c'est qu'avoir un panorama complet de la situation d'un pays et de plusieurs pays nécessite plusieurs indicateurs. Avec un tableau unique comme ici tu as plus de questions qui se posent (et qui doivent être répondues avec d'autres mesures ou analyses) que de réponses.
[^] # Re: Attention aux hallucinations et au scope
Posté par Renault (site web personnel) . En réponse au journal Comparaison de dépenses entre pays. Évalué à 10. Dernière modification le 19 septembre 2025 à 10:19.
Mais même ça n'a pas beaucoup d'intérêt de voir cela de manière isolée.
Tu balances ton tableau publiquement, y'a un objectif, non ? Et comparer de manière brute ces chiffres n'a pas beaucoup d'intérêts car comme toujours un indicateur isolé ne dit pas grand chose finalement.
Ce genre de tableau en fait doit permettre de creuser la réflexion : pourquoi il y a des écarts, est-ce une différence politique, une différence de services rendues, une différence de structure de la population (jeune vs vieille), etc.
En général ce genre de chiffres brutes balancées ainsi sont souvent utilisées pour immédiatement embrayer "la France paye trop par rapport à d'autres" et justifier ainsi qu'on doive réduire la dépense sans se poser la question de ce qui peut expliquer cette variabilité entre états.
Donc pourquoi tu balances ce tableau sans plus de contexte ? Je pense que c'est intéressant de comprendre ton objectif. Et je pense que c'est essentiel en commentaire de recontextualiser un petit peu aussi ces chiffres pour éviter les interprétations simplistes qu'on a malheureusement trop souvent face à ce genre de données notamment dans la presse ou le milieu politique.
# Attention aux hallucinations et au scope
Posté par Renault (site web personnel) . En réponse au journal Comparaison de dépenses entre pays. Évalué à 10.
Si on regarde le chiffre des retraites des USA à partir de ce lien https://www.oecd.org/fr/data/indicators/pension-spending.html
Les USA ont environ 7,2% et 5,7% du PIB de 2022 respectivement dépensés par le public et le privé pour la retraite.
Cela donne presque 13% du PIB pour ce poste de dépense, bien au delà de ce que le tableau rapporte car finalement proche de ce que les pays européens dépensent.
Donc je pense que ces chiffres sont à revérifier.
Par ailleurs, il faut faire attention aussi au scope :
[^] # Re: Vrai soucis pour définir sa propre rentabilité
Posté par Renault (site web personnel) . En réponse au lien La tech au bord du gouffre financier . Évalué à 10.
En fait la question de la vente à pertes est souvent mal comprise.
En France tu n'as pas le droit d'être un supermarché, d'acheter un pot de Nutella à 5€ à Ferrero et le revendre à 4€ sur tes étales. Car c'est de la vente à perte.
Mais, tu es Sony, tu fais une Playstation, tu fixes le prix que tu veux pour la vendre. La seule contrainte est que le supermarché qui le revend le revend au moins au prix d'achat auprès de son fournisseur (et ainsi de suite jusqu'à Sony).
En même temps c'est logique. C'est quoi le coût réel d'une Playstation ? Impossible à dire.
De nombreux coûts de production sont fixes, donc le coût réel d'une Playstation dépend du nombre d'unités que tu vas vendre en réalité chose que tu ne sauras qu'après coup. Si on interdisait strictement la vente à perte, Sony devrait vendre sa première Playstation sortie d'usine à un prix exorbitant pour amortir les coûts fixes ce qui n'aurait aucun sens.
Donc Sony doit faire un pari pour le tarif de vente dès le départ. Ils ont une estimation des coûts fixes et variables, des cibles de vente pour atteindre la rentabilité mais sans aucune garantie d'y parvenir. Et si Sony n'en vend pas assez, il faut leur faire un procès ?
C'est encore plus compliqué en cas de possibilités de synergie, genre une usine qui peut produire facilement différents produits et dont le nombre de lignes de productions peuvent varier en fonction des besoins. On évalue comment ces coûts ?
Il faudrait faire ça de plus à l'échelle du produit entier, donc pour chaque composant qui entre dans la composition du produit final. Auprès de chaque fournisseur.
Bref, ce n'est pas très réaliste d'estimer le coût d'un produit et la notion de vente à perte en dehors du domaine purement commercial à savoir l'achat et revente de biens tels quels. D'où le fait que ce n'est réglementé nul part.
[^] # Re: Lu
Posté par Renault (site web personnel) . En réponse au lien Using Claude Code to modernize a 25-year-old kernel driver. Évalué à 5.
Oui pour un pilote sauf si ça utilise un sous système compliqué qui a évolué a souvent peu besoin d'une refonte en profondeur. Le plus dur c'était de l'avoir fonctionnel à la base, après c'est le jeu de voir les évolutions d'API.
Ce serait un code plus fondamental tel qu'un sous système entier cela pourrait être une autre paire de manche.
En fait son article est bizarre. De ce que j'ai compris le gars a quand même un bagage très honorable en C. Pour écrire un pilote noyau il n'y a pas besoin de beaucoup plus. Comme il le dit lui même, cela démystifie le noyau en un sens, le noyau n'est pas aussi mystique qu'un autre projet. Écrire un pilote noyau basique est limite plus simple que de contribuer à de nombreux projets qui ont l'air plus simple en apparence en espace utilisateur. Peut être que s'il avait fait tout tout seul cela ne lui aurait pas pris tant de temps que cela en plus avec des connaissances en C suffisante.
Je suis également étonné qu'il dise que faire cela lui aurait surtout nécessité de comprendre du code ancien et inutile. Il a peut être en partie raison, mais de l'autre il aurait malgré tout eu besoin de lire ou écrire du code noyau moderne ce qui est pour le coup plus utile. D'ailleurs il semble dire qu'il fera du code noyau récent à l'avenir donc ce n'est pas si inutile de se plonger dans ce genre d'exercices à mon sens car le volet moderne du code reste valorisable.
J'aime bien en tout cas la problématique de base que je trouve intéressante.
[^] # Re: Aucune légitimité
Posté par Renault (site web personnel) . En réponse au lien B. Kernighan (co-créateur d'Unix) sur Rust : « Je ne pense pas qu'il va remplacer C tout de suite ». Évalué à 4.
Je ne vois pas de raisons pour laquelle le CPU deviendrait secondaire à ce point là.
Le GPU a des inconvénients qui le rendent assez peu adaptés à réellement prendre le pas sur le CPU en dehors de quelques cas spécifiques.
[^] # Re: 46% sur 60 testé
Posté par Renault (site web personnel) . En réponse au lien 46 % des bornes de recharge électriques dépassent les seuils. Évalué à 6.
Quel rapport ?
La chimie reste de la chimie. Il n'y a pas de chimie distincte pour les médocs et la toxicité ou pour le reste du corps humain.
L'effet cocktail peut s'expliquer par d'interactions qui favorisent ou défavorisent les absorptions des molécules toxiques mais aussi parce qu'un composé seul peut être inoffensif mais en présence d'autre chose réagir et avoir des sous produits de réactions qui sont eux toxiques.
Le soucis c'est que c'est difficile à évaluer et de tester tous les combos. Surtout que notre corps régule beaucoup de composés aussi à des fréquences variables.
Donc oui cet effet peut exister et il faut être humble devant nos connaissances à ce sujet.
Cependant cela ne veut pas dire qu'on ne sait rien ni que l'effet cocktail concerne tous les produits et tout le monde avec la même dangerosité
[^] # Re: 46% sur 60 testé
Posté par Renault (site web personnel) . En réponse au lien 46 % des bornes de recharge électriques dépassent les seuils. Évalué à 7.
Même sans aller si loin, ce n'est pas pour rien non plus que :
Le corps humain est très dynamique, il faut dire que c'est une succession de réactions chimiques très variés et à grande échelle. C'est très étonnant de penser que la toxicité puisse être une notion totalement indépendante de cette dynamique.
[^] # Re: bof
Posté par Renault (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 6.
Ouais leur papier est certes public mais cela reste un communiqué de presse et non une étude scientifique.
La méthodologie précise est absente, de nombreuses données manquent comme le modèle employé et la taille du prompt médian et le type de requête que cela représente car entre un raisonnement et une requête basique il y a un monde.
De plus ce qui compte aussi, et ce n'est pas un détail, c'est la pollution et consommation globale qui compte et non par requête. Donnée aussi manquante.
Le simple fait qu'ils disent que les serveurs sont alimentés par des énergies renouvelables montre que c'est quand même un outil de communication plus qu'un exemple de rigueur scientifique, je doute fortement que leurs serveurs soient alimentés 100% par de l’électricité renouvelable qu'ils produisent, ils ont probablement un système de certificats pour affirmer cela ce qui est relativement malhonnête pour l'attribution des émissions.
Bref, leur article reste relativement opaque et quand tu ajoutes à cela que c'est produit par l'entreprise elle même, il faut quand même se méfier des résultats bruts. Le résultat n'est pas inintéressant mais il ne faut pas non plus considérer le résultat communiqué comme objectif et et scientifiquement valide.
[^] # Re: bof
Posté par Renault (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 6.
De ce que j'avais lu concernant cette histoire, il existait des démonstrations de valeurs plus intéressantes dans la nature autour de cette question.
Et à la lecture du résultat il semble que ce n'est pas un problème si complexe pour un chercheur en maths, ni quelque chose qui demande de créer de nouveaux concepts, objets ou raisonnements. Un peu comme coder avec pour générer du code nouveau mais qui reste dans l'ordre du connu.
Ce n'est pas inintéressant comme résultat mais pas aussi renversant que certains le disent non plus.
[^] # Re: bof
Posté par Renault (site web personnel) . En réponse au lien Les « IA bros » ne comprennent rien à la création – une erreur indépendante de l’état actuel des IA. Évalué à 7.
Le premier ressemble dans l'idée aux démos où tu génères de la musique, des images ou scènes à partir d'algorithmes avec pour objectif d'avoir des effets sympa qui consomment le moins de ressources possible tout en étant temps réels pour les arts dynamiques.
Y'a un côté artistique évidemment mais aussi technique qui demande souvent pas mal d'efforts pour trouver des compromis intéressant entre temps d'exécution, quantité de mémoire et effets obtenus. Un milieu très créatif et pas évident.
# Effet rebond tout ça
Posté par Renault (site web personnel) . En réponse au lien "the median Gemini Apps text prompt uses 0.24 watt-hours (Wh) of energy, emits 0.03 grams of co2". Évalué à 8.
C'est bien qu'ils fournissent des chiffres et des progrès en ce sens par requête.
Cependant il y a quand même quelques oublis dans ce tableau.
Tout d'abord cela se base sur la requête médiane qui est probablement courte (genre une requête Google classique). Or les requêtes plus longues sont significativement plus gourmands et on pousse de plus en plus à s'en servir.
Certains modes de fonctionnement cumulent les usages, par exemple si Gemini fait des recherches sur Internet, il utilise aussi un moteur de recherches et des sites externes pour collecter des infos. Les bilans se cumulent et ne se compensent pas.
À mesure qu'ils ont des gains d'efficacité les gens s'en servent toujours plus, que ce soit par utilisateur comme collectivement. Pas pour rien qu'ils investissent tous dans beaucoup d'infrastructure pour tenir la montée en charge, que la consommation énergétique de ces entreprises a fortement augmenté et qu'ils ont tous repoussé leurs objectifs environnementaux.
Le bilan carbone de l'infra au global (construction des puces, etc.) n'est pas pris en compte non plus.
C'est pourtant au global que l'impact doit être mesuré car c’est ce qui compte vraiment, pas juste le bilan par requête même si c'est déjà ça.
[^] # Re: Intérêt du débat ?
Posté par Renault (site web personnel) . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à 4.
Pépin le Bref (donc Pépin le Brèfle n'existe pas).
[^] # Re: De toute façon, ce qui compte pour une langue, c’est fait qu’elle soit parlée !
Posté par Renault (site web personnel) . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à 6.
Euh, pardon ? Lire Molière, Racine ou Rabelais dans le texte original donc sans aucune adaptation en français moderne est pénible : https://fr.wikisource.org/wiki/Gargantua/%C3%89dition_Juste,_1535
Alors oui on peut comprendre mais ça demande un effort certain, beaucoup de mots ont changé d'orthographe, la manière d'écrire a clairement évolué en terme de style et beaucoup de mots ont aussi disparu depuis (et donc on en comprend pas immédiatement le sens, on doit souvent deviner).
Ce n'est pas pour rien que les collégiens ne lisent jamais Molière en texte d'origine mais toujours une version modernisée pour rendre cela plus digeste. Et même avec ça c'est facile de se faire avoir (évolutions culturelles et de vocabulaires obligent).
Cela est d'ailleurs valable pour des auteurs anciens dans d'autres langues.
Notons que c'est souvent le cas pour les néologismes transcrits tels quelles depuis une autre langue. sine die par exemple n'est pas une locution qui se prononce comme du français standard à partir de son orthographe. C'est le propre de ce mécanisme même si une francisation peut apparaître sur le temps long en changeant l'orthographe ou la prononciation mais cela n'a rien de systématique.
De toute façon si tout le monde dit et écrit email, l'avis de l'Académie Française n'empêchera pas son adoption et de fait son inclusion dans l'usage et dans le vocabulaire courant du français.
[^] # Re: pistes
Posté par Renault (site web personnel) . En réponse au lien Face au taux de mortalité infantile en FR, l'un des + élevé de l'UE, des hypothèses faute de mieux. Évalué à 3.
Tu as regardé les chiffres de l'INSEE ou pas ?
https://www.insee.fr/fr/statistiques/7627069#tableau-figure1
Les DOM-TOM ont une mortalité infantile comprise entre 6,7 et 8,9 pour milles, je rappelle que la moyenne nationale c'est 3,9. Il y a donc un facteur deux très net en jeu. Rien que cet écart explique 0,2 pour mille de différence à l'échelle nationale (ce qui est l'ordre de grandeur de l'augmentation dont on parle ici tout de même).
Le pire département métropolitain est la Seine St Dennis avec 5,4 pour mille. Seulement trois départements qui dépassent les 5.
Alors oui ça n'explique pas tout, mais il ne faut pas non plus fermer les yeux. Car on voit que très clairement qu'ils n'ont pas les mêmes ressources que nous pour gérer la santé (cela se voit sur d'autres indicateurs, pas juste la mortalité infantile). Ce n'est pas un hasard si les cinq départements d'outre mer ont un tel écart avec la métropole, c'est un problème malheureusement courant et il est honteux de les laisser dans une telle situation.
Le Groenland est très peu habité et a un taux de fécondité similaire au Danemark, ce n'est pas le cas de notre Outre Mer qui est bien plus habité et avec une natalité plus élevée.
Pour les Pays-Bas de même l'écart est aussi important. Même le moins peuplé Mayotte l'est deux fois plus que leur plus peuplé à savoir Curaçao.
Bref, faut se reposer un peu plus sur les calculs pour comparer.
Pourtant leur mortalité infantile est dans les mêmes eaux. Donc qu'en conclure ? Sans doute qu'on gère mal la situation là bas faute d'infra, ressources ou de personnel adéquat ?
Comme je le montre, ce n'est pas la seule explication mais l'ignorer serait une erreur.
Ce que l'INSEE montre c'est que quelques départements ont des résultats bien plus faibles que les autres et le fait qu'ils soient probablement des zones relativement pauvres devraient être un indicateur que le problème est lié.
Mais cela montre aussi qu'en allouant les ressources à ces quelques territoires on pourrait largement améliorer le résultat global, probablement plus simple qu'en ayant des mesures qui couvrent tout le territoire.
Puis si tu améliorer la gestion de la mortalité infantile dans ces territoires, nul doute que le bénéfice se verrait pour d'autres indicateurs de santé.
Je rappelle juste que la régressé observée reste quand même dans des valeurs qu'on observe depuis 20 ans qui sont les meilleurs de l'Histoire du pays. Donc comparer à il y a 30 ans où la situation était déjà bonne on reste dans une meilleure posture.
C'est bien de le garder en tête, oui il y a une régression et cela doit servir à comprendre ce qui se passe et à adapter les dispositifs mais cela ne signifie pas pour autant que c'est la fin.
[^] # Re: Il y a quand même un moyen bien plus efficace pour éviter de se fatiguer à tout ça ....
Posté par Renault (site web personnel) . En réponse à la dépêche GNOME Stop Me Now. Évalué à 10.
La seule chose que GNOME casse régulièrement c'est l'API de ses extensions, et encore c'est plus stable maintenant.
C'est plutôt faux ça en vrai. Il y a eu quelques cas mais comme dans tout logiciel en vrai. La question des fonctionnalité est toujours un compromis entre utilité / effort de maintenance / simplicité d'utilisation. Parfois retirer une fonctionnalité peu utilisée mais qui complique la vie des utilisateurs ou des développeurs c'est la meilleure chose à faire.
Je me sers de systemd tous les jours à la maison et au travail et c'est un bonheur par rapport à avant. Et mon boulot c'est de maintenir des firmware donc des "distro maison".
Alors oui ce n'est pas parfait mais on est loin du portrait que tu dresses.
L'emmerdification c'est valoriser le bilan financier de l'entreprise au détriment des utilisateurs.
systemd et GNOME ne sont pas dans ce cadre, ils font des choix qui conviennent à énormément de monde mais bien sûr pas à tous.
Perso j'ai aimé GNOME 2, mais j'adore encore plus GNOME 3. C'est vraiment mon environnement idéal. Et j'en connais plein qui partagent le même point de vue.
Mais je trouve ça super que pour certains Xfce, KDE ou autre est la meilleure solution. C'est l'avantage du libre, on a le choix. Un logiciel unique ne peut pas satisfaire tout le monde à la perfection.
Tu peux, mais après si la distro ne le propose pas le soucis est la distro et pas systemd.
[^] # Re: Mr Phi est un expert en IA ?
Posté par Renault (site web personnel) . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 10.
Pour moi ce n'est pas la principale critique qu'il adresse à Julia, c'est même presque du détail.
Résumons rapidement les gros arguments :
Donc je ne trouve pas que la remarque la plus pertinente et forte soit d'ordre du diplôme. C'est bien au delà de ça.
[^] # Re: Mr Phi est un expert en IA ?
Posté par Renault (site web personnel) . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 10.
En l’occurrence sa compréhension des LLM n'est pas mauvaise jusqu'ici et ses arguments à l'encontre de Julia sont pour la plupart pertinentes.
Sans dire que tout ce qu'il fait est parfait je ne trouve pas qu'il soit tombé dans un travers où il dit vraiment n'importe quoi.