je doute fortement, vu la poule aux oeufs d'or que son l'itinérance 2/3G pour les opérateurs qui la sous louent aux mvno (contrats très juteux) que orange/byg/sfr s'adonnent à une extinction complète pour 2028 à la fois en 2/3G.
mon interprétation :
seule la 3G sera éteinte, conservant la 2G par sécurité
Et cela ne fait aucun sens d'annoncer une coupure totale pour eux et pas pour les MVNO ou Free, car ces antennes devraient être allumées pour desservir par moins de clients ? Pourquoi ils ne garderaient pas ces antennes pour leurs clients ? Ils n'ont rien à gagner. En coupant pour tous les clients ils gagnent en énergie, en maintenance et peuvent réutiliser le spectre libéré pour améliorer la connectivité 4G / 5G (et vendre les abonnements liés qui sont je pense en moyenne plus cher).
Mais là c'est bien différent, à nouveau ca s'impose aux abonnés aux nom des sacro saintes économies financières ; j'en connais plus d'un qui risque de rendre son tablier.. enfin son mobile, et s'extirper de l'ultraconnexion vendue au quotidien, refusant de se faire "imposer" la 4/5G. Mais c'est un choix.
Rien n'empêche d'avoir un téléphone simple avec 4G ou 5G.
Par exemple en regardant rapidement sur le site de Orange, les 3 modèles proposés pour ce genre de téléphones sont compatibles 4G et VoLTE (mais pas 4G+ ou 5G) :
Ce sont clairement des téléphones portables classiques sans une multitude d'applications ou d'applications ultra connectées. Plutôt dédiées aux appels ou SMS et quelques actions simples.
Par ailleurs d'ici 5 ans (car la date cible c'est bien 2028, pas 2023 en France), on peut supposer que beaucoup des téléphones 2G ou 3G actuellement en services seront naturellement remplacés. Réduisant de fait le coût et la nécessité d'une transition pour ces usagers. D'autant qu'il semble bien qu'Orange ne vend plus de téléphone sans support 4G aujourd'hui (et je suis presque sûr que les autres opérateurs font de même depuis quelques temps).
Par ailleurs cela n'a rien de novateur, je ne vois pas en quoi tu considères que c'est différent. Plus de Minitel c'est aussi des millions d'unités à jeter à la poubelle, pareil pour des faxs ou les modems 56k. En quoi le mobile serait différent ? Mystère. Honnêtement je trouve qu'ils ont quand même attendu longtemps, cela signifie qu'ils ont gardé pendant 15 ans la compatibilité avec les protocoles pré-4G depuis le début de son déploiement (fin 2012-2013 en France). Sachant que les téléphones sont remplacés en moyenne tous les 2 à 5 ans, cela laisse quand même pas mal de générations pour effectuer la transition en douceur.
Du fait qu'il existe de plus en plus de feature phone compatibles 4G et VoLTE en circulation, je pense que beaucoup surestime la quantité de téléphones à remplacer en 2028. Ce n'est pas parce que ton entourage a un téléphone de ce type qu'il ne fonctionnera plus à cette échéance, s'il n'a pas été remplacé entre temps par ailleurs.
donc aux usa, pour que ca capte, 4/5G obligatoires ; pour téléphoner, volte obligatoire, ce qui laisse des mobiles et autres dumbphones sur le bas coté, c'est un fait ; seul tmobile semble avoir encore quelques antennes 2/3G pour certains abonnements, dans certaines villes, jusqu'à l'été 2024 maximum (ils ont prolongé deux fois)
Avec une solution qui coûte moins de 40€, ça reste acceptable.
Le but est que tu as un processeur classique, avec un système classique d'un côté (ici un Linux par exemple).
Et tu as à côté un processeur orienté temps réel avec un système temps réel dessus, souvent bien plus limité dans ses tâches et possibilités (dialoguer avec certains composants qui ont des contraintes temps réels, faire quelques calculs spécifiques, etc.). Souvent ils peuvent partager un bout de mémoire ou utiliser un bus spécifique pour échanger des données entre eux.
Linux dans ce cas ci n'est pas spécialement au courant du processeur M4 à côté, il initialise juste de quoi dialoguer avec, mais ce qui tourne dessus et comment n'est pas de son ressort.
C'est un problème politique et social et non climatique.
On a largement de quoi nourrir la Terre entière, il y a une surproduction alimentaire, le problème c'est l'inégalité dans son accès. Les pauvres ne peuvent se nourrir à leur faim et bien des pays mangent trop et mal ce qui est aussi un problème de santé publique.
Rappelons-nous le désastre annoncé que devait être le cas de la Suède qui ne faisait pas les chose « comme il le faut », et dont finalement la mortalité par habitant est bien plus faible que certains des pays « donneurs de leçons » qu’ont été la France ou le Royaume-Uni (source). https://linuxfr.org/redaction/news/email-principe-fonctionnement-migration
Comparer des chiffres bruts comme ça n'est pas forcément très intéressant.
Dans la pandémie il y a plusieurs facteurs à prendre en compte :
Densité de population
Culture (la bise à la française vs pays nordiques avec des liens plus froids)
Le suivi des recommandations (est-ce que le suédois moyen respecte mieux les conseils étatiques que le français moyen ?)
L'état des services hospitaliers en nombre de médecins et d'appareils par habitant, de même que la santé globale de la population et son âge
Les critères utilisés pour définir si un patient est considéré comme mort covid ou pas qui varient beaucoup entre les pays
Donc comparer la France ou le Royaume-Uni avec la Suède frontalement est probablement peu pertinent. car bien des choses peuvent expliquer ces écarts.
Deux ans après, quel est le bilan ? Avec 17 000 morts liés au Covid-19 pour 10 millions d’habitants, le pays affiche un taux de mortalité légèrement inférieur à la moyenne européenne. Mais le tableau est nettement moins reluisant si on le compare à celui de ses voisins nordiques. Proportionnellement à sa population, la Suède totalise deux fois plus de décès qu’au Danemark, quatre fois plus qu’en Finlande et six fois plus qu’en Norvège.
Des pays voisins et bien plus similaires à la Suède ont donc un grand écart avec leur stratégie de confinement. Donc je ne dirais pas que dans l'absolu la Suède a bien géré la situation, elle aurait probablement pu sauver des vies sans pour autant nuire drastiquement à l'ensemble de sa population. Elle a fait un choix, heureusement qu'ils s'en sont bien sortis, car on a eu la situation en Inde et au Brésil en particulier où c'était dramatique. ET bien des pays occidentaux étaient proches de la catastrophe mais finalement le pire a été sans doute évité.
Perso je me demande surtout ce que tout ceci aurait donné si les enfants étaient aussi touchés que les personnes âgées. Car on a eu de la chance que les enfants et même les bébés soient plutôt épargnés alors que d'habitude les deux extrêmes niveau âges sont sensibles à ce genre d'infection. Et je pense qu'honnêtement la population n'est pas prête à affronter ce genre de scénario.
Sachant qu'une bonne part de cette nourriture fini à la poubelle ou pour nourrir des animaux (dont on se nourri derrière en partie), il y a une belle marge de progression.
Cela signifie surtout qu'il sera difficile de manger comme aujourd'hui (ou pire, plus de consommation de viande à l'échelle mondiale) pas qu'il soit impossible de nourrir tout ce beau monde avec un régime plus vertueux environnementalement parlant.
Ici au collège en début d'année on nous assure que le cahier de texte sera toujours bien utilisé et rempli, et que Pronote c'est juste "en plus" et "bien pratique pour les absents qui peuvent rattraper" (oui on me ressort toujours cet unique argument fallacieux).
Je ne vois pas en quoi c'est fallacieux, c'est bien utile et plus fiable que de tout laisser reposer sur le dos d'un copain (quand tu en as un qui se dévoue qui peut le faire sérieusement, ça m'est déjà arrivé et c'est vraiment un problème).
Oui parce que comme chaque année on a une campagne sur les méfaits des écrans puis une autre sur les méfaits des réseaux sociaux : du coup mes gamins n'ont pas accès à Internet la semaine, ils n'ont pas de smartphone au collège (oui ils vont bien, merci), ben ils doivent solliciter leur père ou leur mère qui mesure bien leur dépendance à ce fil à la patte numérique.
Et si jamais ils doivent faire un devoir et qu'Internet les aide voire est nécessaire, tu fais comment ? :D
Plus sérieusement, je trouve que tu jettes un peu ici le bébé avec l'eau du bain. Ce n'est pas parce qu'il faut avoir un usage raisonné du numérique qu'il faut le bannir. Le tout est de trouver un équilibre, vérifier des trucs en lien avec les cours qui prennent 5 minutes en rentrant de classe cela ne me semble pas problématique à cet égard.
quelques rares coup de pute de profs qui ont mis des devoirs uniquement sur pronote sans prévenir les élèves (désolé, je pense que ça mérite ce niveau de grossièreté). Ca n'arrive que 2 ou 3 fois par an, mais ça ruine tout : l'élève n'a plus aucune confiance dans la transmission avec le prof et son cahier de texte, et pronote devient 1/ la voix de son maître, 2/ la possibilité qu'un devoir apparaisse comme ça par surprise la veille pour le lendemain.
Du coup le problème n'est pas la technologie, le problème est le prof ici. Et un problème humain peut se régler autrement qu'en rejetant une solution technique.
Déjà ce problème existe aussi sans Pronote. Le prof qui met un contrôle costaud le même jour que d'autres cours, ou qui donne un devoir long du jour au lendemain, ou un weekend où tu as 2-3 devoir maison bien costauds et notés à rendre pour le lundi. Tout cela je l'ai vécu, sans Pronote car cela n'existait pas à l'époque. Et cela s'est réglé car les profs sont des humains en général bienveillants et compréhensifs. Si tu leur expliques la situation, en général ils trouvent une autre date par exemple pour éviter que les élèves soient surchargés (car un prof n'a aucun intérêt à ce que les élèves merdent leur contrôle car il y en a 3 le même jour). Puis il est arrivé que des parents fassent un mot pour expliquer que l'élève 'na pas pu le faire à cause de différentes contraintes et le prof prend en compte en général la remarque et évite de reproduire la même chose plus tard dans l'année.
Je pense surtout que l'outil est mal maitrisé par les élèves, parents et profs et qu'il faut forcément du temps pour s'y faire et roder l'opération, avec certains cela sera probablement plus longs mais je ne vois rien d'impossible d'avoir un usage raisonné et profitable de l'outil pour en tirer les bénéfices sans les inconvénients.
Je précise que cet ENT/Pronote finit l'année avec environ 100 messages par gamin. Si recevoir 100 notifs par gamin par année scolaire c'est pas du délire, je ne sais pas ce que c'est.
Personnellement je ne visualise pas à quel point ce nombre est spécifiquement un problème, c'est l'équivalent de moins d'un message par jour scolaire par élève. Cela ne me semble pas aberrant à première vue, faudrait voir le contenu des messages surtout pour juger (et comparer à ce que cela implique, notamment avant, car bon je vois de plus en plus de parents prévenir l'absence d'un enfant par écrit que par téléphone par exemple, finalement c’est peut être mieux).
Tu peux en effet le mettre à jour avec le reste de tes Flatpak, tu peux aussi revenir facilement à une version précédente si tu veux en cas de problèmes.
Puis l'intégration avec le système est d'office meilleure (notamment la mise à disposition du .desktop pour qu'il soit dans les menus bien comme il faut sans efforts).
Et Firefox est une application complexe, faire en sorte qu'il fonctionne bien sous Flatpak aide sans doute aussi à améliorer les outils et l'écosystème ce qui sert pour d'autres applications.
Merci pour cette réponse. Je n'ai pas compris le sens des réponses précédentes.
Je pense qu'ils n'ont pas lu ton lien et faisaient référence au fait que euro est invariable sur les pièces / billets ce que certains ont abusivement généralisé au delà de ce contexte.
J'ai du mal à savoir si c'est un troll ou si tu ignores que les enseignants sont en train d'enseigner pendant les heures ouvrables, ce qui fait que les seuls créneaux pour communiquer (entre enseignants, avec l'administration, ou avec les parents d'élèves), c'est justement en dehors des heures ouvrables?
Bah non.
Les profs ne travaillent pas qu'en classe, ils ont aussi une salle des profs et du temps pour discuter avec d'autres enseignants ou leur administration, notamment durant les récréations, avant le début des cours, à la fin, ou lors d'un trou dans la journée à partir du secondaire. Ils ont aussi des journées dédiées à cela (les fameuses journées pédagogiques c'est une journée de travail pour les profs qui servent en parti à ça aussi).
Pour les parents, il y a moyen de discuter en récupérant ou en déposant l'enfant. Et si ça ne fonctionne pas car horaires incompatibles ça arrive, suffit de déposer un mot au prof via l'enfant pour fixer un rendez-vous téléphonique ou présentiel. Avant la connectivité permanente, c'était la seule façon de faire et ça fonctionne très bien. Il n'y a pas de situations où un élève (ou ses parents) doit contacter d'urgence un prof en dehors de ses heures de travail.
Pour la traduction, ça aide des traducteurs à faire une première passe vite fait pour ensuite lecture des 2 versions et adapter, ça reste plus rapide que de traduire à l'ancienne.
Ce n'est même pas sûr suivant le taux d'erreurs et les problématiques notamment de styles.
Car reformuler c'est souvent compliqué, parfois plus que de trouver de zéro la bonne formule car tu as un phénomène d'ancrage, et rendre le style cohérent peut vite devenir délicat en ayant besoin de retraduire pas mal de textes pourtant justes.
Mais ça, c'est aux gens du métier de tester et de voir le gain potentiel ou pas.
A l'opposé il existe des outils et des frameworks (GTK est souvent cité pour ça, mais ça a été aussi le cas de certains frameorks Javascript côté serveur ou côté client) qui ont eu quelques soucis de manque de rétrocompatibilité, pour lesquels les devs (enfin ceux que je connaissais) se sont plaint de devoir passer plus de temps à gérer les changements des couches basses et à réécrire du code qui fonctionnait très bien jusqu'aux changements en question plutôt que de développer leurs fonctionnalités (et manque de bol ils ont eu à ce moment là à gérer des changements sur plusieurs dépendances qui se sont étalées suffisamment longtemps pour que ça pénalise leur travail).
Tu crois que les développeurs de GTK s'amusent à réécrire leur API pour emmerder le monde ?
Les couches graphiques, que ce soit le matériel comme la gestion sous Linux (genre l'arrivée de Wayland) a nécessité de gros ajustements. De la même façon que OpenGL a été mis au placard pour privilégier une nouvelle API : Vulkan. C'est compliqué de maintenir en parallèle plusieurs versions de GTK, surtout qu'ils manquent de bras, et ce n'est pas facile de garder la rétrocompatibilité qui fonctionne bien tout en proposant de nouvelles fonctionnalités ou la prise en charge de nouveaux éléments.
Ce ne sont pas de mauvais développeurs, mais ils manquent de ressources et il y a plusieurs critères à prendre en compte pour tenir le bon équilibre. Et tout projet logiciel prend ce type de décisions, parfois le curseur est mis sur autre chose car la priorité du projet et ses ressources sont différents.
C'est dommage pour les développeurs impactés mais c'est la vie d'un projet logiciel qui veut ça, et il y a des alternatives avec des avantages et inconvénients propres si nécessaires.
Avant ça ne marchait peut-êtr pas e aussi bien qu'aujourd'hui, mais quand ça ne marchait pas, il y avait souvent moyen de corriger par soi-mốeme (au moins sur les systèmes de type Unix).
Cela dépend du problème, le manque d'intégration ou certains bogues oui certainement, mais beaucoup de soucis étaient tout aussi insolubles qu'aujourd'hui, car si le logiciel n'en fait qu'a sa tête ou n'a pas la fonction désirée, bah tu l'as dans l'os aussi.
Je pense personnellement que c'est mieux qu'on ait moins besoin de connaître son système parfaitement pour s'en servir. Sauf cas spécifiques, un ordinateur est un outil pour effectuer des tâches, ce qui compte c'est de faire ces tâches. Bidouiller de partout pour faire en sorte de faire ces tâches restent une perte de temps et il est préférable de rendre l'expérience la plus fluide et simple pour la majorité des utilisateurs même si la complexité globale fait que les quelques bidouilleurs qui auraient pu éventuellement se débrouiller avant perdent un peu en capacité de résoudre les problèmes.
Mais notons que c'est aussi cette standardisation, ces tests automatiques et cette intégration qui permet aussi d'améliorer la qualité globale.
tu dois ouvrir un rapport de bug parce que des choses qui étaient codés en script - que tu pouvais corrigetr - sont maintenant codés en binaire,
Franchement les scripts devenus des binaires cela concerne vraiment peu de composants en fait depuis 20-30 ans.
et parce que les développeurs et éditeurs laissent de moins en moins de contrôle aux utilisateurs sur ce qu'ils peuvent faire sur leur matériel ou leur logiciel.
Mouais, je ne pense pas que l'éditeur ou développeur, en particulier pour un logiciel libre se lève un matin en disant "je vais limiter le contrôle des utilisateurs artificiellement". D'ailleurs je ne suis pas spécialement convaincu par l'argument, les fonctionnalités de la plupart des logiciels sont bien plus nombreuses depuis 30 ans, de nombreux outils restent très fins dans leur configuration et leurs possibilités avec des scripts ou addons quand c'est pertinent.
Mais la complexité du système et du matériel, en partie à cause de nouveaux usages (comme le multimédia) mais aussi des préoccupations "nouvelles" (sécurité, réseau, etc.) ne permet pas d'avoir tout qui soit intelligible et facilement résolu ou compréhensible par le bidouilleur du coin.
Mais au final j'arrivais mieux à m'en sortir avant parce que je n'avais pas cette sensation de perte de contrôle que j'ai aujourd'hui.
Pour moi ce sentiment de contrôle est trompeur. Et surtout je pense que même avec ce contrôle, tu perdais au final bien plus de temps et cela nécessitait beaucoup plus de compétences pour faire des choses finalement basiques et automatisables. Personnellement je suis bien content de l'informatique aujourd'hui malgré ces défauts par endroit évidemment. De toute façon si tu veux un système simple et léger, ça existe encore, tu es libre de t'en servir d'ailleurs. Mais bizarrement je pense que tu ne t'en contenteras pas.
Oui mais es-tu plus heureux aujourd'hui devant ton ordi que hier ? J'en doute.
Oui.
Je me souviens de mes débuts avec Fedora Core 3 en 2005, c'était la vraie galère pour faire quoique ce soit. Passer des journées à configurer des trucs, à compiler des outils pas présents dans les dépôts, ça fonctionnait mal par dessus le marché avec une intégration très mauvaise. C'était clairement pas aussi stable, efficace et simple qu'aujourd'hui. Et ça prenait un temps de dingue pour beaucoup d'actions car le disque dur et le processeur étaient lents.
Et je fais des choses que je ne faisais pas à l'époque. Et je préfère mater les films / séries / vidéo de chatons dans les formats actuels que le 720p de l'époque (et encore, ça c'était 2005, je te laisse imaginer 7 ans avant).
Et à l'époque je ne faisais rien de sensible, je n'irais clairement pas sur le site de ma banque sans chiffrement, je n'irais pas non plus si les applications avaient un accès libre à la mémoire ou au buffer graphique, etc.
Et je joue à des jeux vidéos qui imposent un minimum de réalisme pour être immersif, j'aime bien les jeux de fins des années 90 aussi, mais clairement pour d'autres il faut bien plus que ce qui était possible à l'époque.
Des systèmes légers et très simples qui ont les possibilités des années 90 ou début des années 2000 il y en a, mais bizarrement pas grand monde ne semble si attiré que ça. D'ailleurs en général les gens qui semblent s'intéresser à l'usage de très vieilles machines le font plus pour une raison financière que par choix par rapport au cas d'usage.
Mais bon, classique, c'était mieux avant alors qu'en réalité c'est plus compliqué. Des cas d'usages nouveaux sont bien apparus, des tas de choses étaient vraiment pourries et limitées, parfois on s'en fout car on est pas concerné (type accessibilité, internationalisation, prise en charge de matériel plus exotiques) mais ça concerne des gens, ou alors oui c'était possible mais moins fiable, moins flexibles, moins joli / ergonomique. Perso je me souviens bien de ces difficultés et je constate avec plaisir les progrès opérés depuis.
Mais on est d'accord, il y a des logiciels ou site web trop gourmands pour ce qu'ils font, mais ce n'est pas le cas de tous.
Alors on va me dire, si c'était si bien avant, pourquoi les utilisateurs n'utilisent pas encore leur vieux pentium 233mhz d'il y a 25ans. La vérité est que beaucoup le feraient si les mises à jour logiciels n'avaient pas rendu leur machine de plus en plus lente.
Bah voyons. C'est rigolo car il y a plein d'usages basiques qui justifient une plus grande consommation. La sécurité informatique, loin d'être parfaite, s'améliore et cela passe notamment par des couches d'abstractions et le chiffrement opérations gourmandes en mémoires et en cycles processeurs. Bon peut être que tu es fan de l'époque des BSOD car une application tapait au mauvais endroit, ou que pour toi une application sur ta machine peut savoir tout ce qui s'y passe que tu le veuilles ou non. Pas moi.
C'était aussi la douce époque où le plug and play était très peu répandues, les configurations étaient statiques, pour le matériel aussi. Des protocoles et des disques durs qui mettent une plombe pour la moindre opération. Des dizaines de minutes pour télécharger un pauvre exécutable de quelques Mio, c'est vrai que c'est fun. Moi aussi je regrette l'époque du disque dur qui gratte pour juste lancer Firefox.
Le multimédia était aussi peu répandu. Des vidéos en ligne ? Des images haute définition ? Non les photos de famille pixelisées c'était la bonne époque, la vraie.
Puis bon, ça fonctionnait pas trop mal en Europe et encore mieux aux USA quand tout reposait sur l'anglais voire l'alphabet latin. La traduction en dehors de grandes langues occidentales c'était une vaste blague.
Et comme si les logiciels ne proposaient pas de nouvelles fonctionnalités depuis. Ils sont bien plus simples et robustes qu'à l'époque (en tout cas pour les grands noms).
Et j'en passe.
Non vraiment, l'époque de Windows 98-2000 ne me manque pas des masses. C'était bien limité et il y a de bonnes raisons pour faire mieux et donc plus gourmand. Alors tout n'est pas rose, il y a toujours des applications trop gourmandes pour ce qu'elles font, des développeurs Web ou d'applications qui codent n'importe comment et ne se préoccupent de rien. Mais des applications ou site web pétées à l'époque, ça existait aussi. Et les usages ont évolué avec, l'usage de l'informatique s'est aussi bien diversifié et l'usage du multimédia et du réseau ont bien explosés par exemple et ce sont des postes gourmands en ressources. Même si dans le lot il y a forcément des personnes qui seraient satisfaits d'un Windows 98 pas connecté à Internet, et ils peuvent toujours s'en servir s'ils le veulent, mais bon si tu veux la dernière version de Firefox ça sera forcément plus compliquée.
Et ils ne le font pas. Ça n'est probablement pas pour rien.
Car c'est du boulot évidemment (et les contributions pour OpenSSH ou les distributions ne sont pas si abondantes), cela ne veut pas dire que ce serait une mauvaise chose de le faire.
Pour le reste, cela peut se résoudre, c'est du travail évidemment mais cela reste plus simple quand on essaye de définir une norme que quand on laisse tout le monde faire n'importe quoi. Je ne vois pas ce qu'il y a de mal à vouloir une amélioration sur ce point.
Pas du tout car c'est une question d'intégration logicielle fournie par une distribution, c'est donc totalement son rôle, c'est ce qu'elles font depuis le début.
Le taf des distributions c’est de… distribuer (et faire un peu d’intégration).
Et pour s'assurer que ce qui est fourni fonctionne et ne casse pas les installations existantes elles font beaucoup d'intégration justement. Si le but d'une distro c'était juste de compiler et de fournir un dépôt accessible, on en aurait pas autant et ça se saurait si c'était si simple.
C’est pas que le proprio-le-méchant-qui-veut-controler-la-machine-utilisateur. Le libre prend exactement la même voie : avec un système Linux “moderne” vous avez de moins en moins la main sur votre machine. Vous déléguez.
On utilise un ordinateur pour remplir des tâches, pas juste pour le plaisir de créer des liens symboliques. Et c'est entièrement le rôle des distributions que de faire ces choix et ce travail au bénéfice des utilisateurs. Si tu veux le contrôle (reste à savoir ce qu'on met derrière ce terme, on peut en dire tout et n'importe quoi), tu es toujours libre de le faire quitte à utiliser ta propre distribution si tu as envie.
Personnellement je suis bien content que Linux n'impose pas de compiler son propre noyau, que beaucoup de choses fonctionnent sans même y penser. C'était rigolo 5 minutes de configurer Xorg à la main pour avoir un affichage qui tourne, mais c'est quand même à la longue bien plus sympa d'avoir des systèmes qui gèrent le multi écran dynamiquement sans même qu'on ait à y passer 20 plombes à lire le manuel.
Donc non, c’est pas un argument, vu que j’arrive à le faire très bien en mode Unix old-school.
Ah l'argument, si moi j'y arrive tout le monde peut le faire.™ Tout le monde n'a pas l'expérience nécessaire d'une part, et ton cas d'usage ne peut être généralisé.
Bien sûr qu'il y a du BTP pour les antennes, mais moins car tu n'as pas à le faire pour les derniers kilomètres qui peuvent être mutualisés pour plusieurs abonnés.
Il voulait casser ssh quand même. Pas le truc sensible du tout. Je te laisse imaginer son délire…
Ce n'est pas casser SSH que de changer le chemin de sa configuration par défaut.
D'ailleurs une distribution ou un mainteneur pourrait faire la transition en douceur. Un script de post installation qui crée un lien symbolique entre l'ancien et le nouveau chemin, ou un patch pour que OpenSSH compilé sur Debian garde le chemin ~/.ssh par défaut quelques temps en prévenant quand c'est fini.
Ce sont des choses que les logiciels et distributions font en permanence, c'est d'ailleurs une partie de leur boulot. On a bien eu la mise à mort de /bin en faveur de /usr/bin, ce qui a prit du temps, et la prochaine étape est sans doute la mise à mort de /usr/lib64.
Bref, il y a moyen d'harmoniser sur le temps long, oui ce n'est pas agréable mais rien d'insurmontable non plus.
Il n’explique nul part pourquoi le fonctionnement actuel lui pose un réel vrai problème en pratique — on dirait plutôt un mec qui veut faire chier son monde “pour la beauté du geste”.
Il y a des bénéfices à essayer de clarifier tout cela. Pour la politique de sauvegarde des données ça permet de savoir qu'on a rien oublié, ou à l'inverse d'ignorer des choses dont on a pas envie de sauvegarder. Si tu veux repartir de 0 en terme de configuration sans perdre de données personnelles, cela devient trivial comme opération aussi. Alors que là comme la liste de dossiers ou de fichiers localisés un peu n'importe où est variable, la tâche n'est pas aisée pour automatiser ce genre d'opérations…
Mais par exemple si tu fais un bilan carbone d'une ligne de communication, la construction ou le renouvellement d'une ligne est très coûteuse. Le BTP associé à ces opérations est loin d'être négligeable. Cela est d'autant plus vrai si la zone considérée est peu dense (donc beaucoup de travaux publics pour peu d'abonnés en bout de ligne).
La communication a cet avantage non négligeable, le tout est de trouver le point d'équilibre, à partir de combien d'abonnés par kilomètre de ligne il vaut mieux privilégier le sans fil ou le filaire ? Est-ce qu'on ne peut pas baisser l'empreinte de ces travaux en profitant de la nécessiter de renouveler les équipements vétustes pour les mettre à niveau plutôt que de le faire le plus tôt possible ?
A GPU is mandatory to get a reasonable speed. Depending on the model size, the speed varies between a few kB/s to one hundred kB/s.
The same exact GPU model and program versions must be used for compression and decompression.
The model is frozen so it works only for text files in a language that the model has already seen.
Tu vois bien que niveau performances et flexibilité c'est finalement assez mauvais.
Je pense qu'il faut voir ça comme un jouet ou une démo plutôt qu'une révolution. ;)
Et voilà le fameux cliché, décroissance = retour au Moyen-Âge…
Non, c'est plutôt toi qui établi une relation décroissance qui impliquerait que la technologie ne serait pas partie de ce processus. Car tu critiquais justement une position raisonnable qui indique que même si la solution ne réside pas que dans la technologie, elle fait partie des solutions pour notre avenir.
Et c'est cela que je critique, car affirmer que la technologie n'a plus sa place dans notre avenir, c'est bien souhaiter un retour en arrière. Tu opposes les deux alors qu'il y a moyen de concilier les deux.
Il ne faut pas croire que tous ceux qui pensent que la technologie peut aider à résoudre nos problèmes ne pensent pas dans le même temps qu'il faut aussi changer nos habitudes et modes de vie.
Comme il dit, les innovations technologiques font parties de la solution, mais ne sont pas suffisantes. Donc il faudra aussi changer de mode de vie, mais pas forcément pour tout avec la même intensité.
[^] # Re: Explication ?
Posté par Renault (site web personnel) . En réponse au message Arrêt des réseaux 2G/3G = obsolescence programmée des terminaux incompatibles VoLTE ?. Évalué à 6. Dernière modification le 17 septembre 2023 à 23:23.
Pourtant quand on lit l'article suivant par exemple https://www.nextinpact.com/article/72420/lextinction-reseaux-2g-3g-diminuera-lempreinte-carbone-reseaux-mobiles-des-premiere-annee on parle bien d'une coupure avant 2030 des deux protocoles par 3 des 4 opérateurs nationaux.
Et cela ne fait aucun sens d'annoncer une coupure totale pour eux et pas pour les MVNO ou Free, car ces antennes devraient être allumées pour desservir par moins de clients ? Pourquoi ils ne garderaient pas ces antennes pour leurs clients ? Ils n'ont rien à gagner. En coupant pour tous les clients ils gagnent en énergie, en maintenance et peuvent réutiliser le spectre libéré pour améliorer la connectivité 4G / 5G (et vendre les abonnements liés qui sont je pense en moyenne plus cher).
En plus les MNVO a des parts de marché avec une tendance très baissière depuis le COVID : https://www.nextinpact.com/article/69778/la-part-marche-operateurs-virtuels-fond-comme-neige-au-soleil donc la tendance n'est pas bonne pour ces contrats.
Rien n'empêche d'avoir un téléphone simple avec 4G ou 5G.
Par exemple en regardant rapidement sur le site de Orange, les 3 modèles proposés pour ce genre de téléphones sont compatibles 4G et VoLTE (mais pas 4G+ ou 5G) :
Ce sont clairement des téléphones portables classiques sans une multitude d'applications ou d'applications ultra connectées. Plutôt dédiées aux appels ou SMS et quelques actions simples.
Par ailleurs d'ici 5 ans (car la date cible c'est bien 2028, pas 2023 en France), on peut supposer que beaucoup des téléphones 2G ou 3G actuellement en services seront naturellement remplacés. Réduisant de fait le coût et la nécessité d'une transition pour ces usagers. D'autant qu'il semble bien qu'Orange ne vend plus de téléphone sans support 4G aujourd'hui (et je suis presque sûr que les autres opérateurs font de même depuis quelques temps).
Par ailleurs cela n'a rien de novateur, je ne vois pas en quoi tu considères que c'est différent. Plus de Minitel c'est aussi des millions d'unités à jeter à la poubelle, pareil pour des faxs ou les modems 56k. En quoi le mobile serait différent ? Mystère. Honnêtement je trouve qu'ils ont quand même attendu longtemps, cela signifie qu'ils ont gardé pendant 15 ans la compatibilité avec les protocoles pré-4G depuis le début de son déploiement (fin 2012-2013 en France). Sachant que les téléphones sont remplacés en moyenne tous les 2 à 5 ans, cela laisse quand même pas mal de générations pour effectuer la transition en douceur.
Du fait qu'il existe de plus en plus de feature phone compatibles 4G et VoLTE en circulation, je pense que beaucoup surestime la quantité de téléphones à remplacer en 2028. Ce n'est pas parce que ton entourage a un téléphone de ce type qu'il ne fonctionnera plus à cette échéance, s'il n'a pas été remplacé entre temps par ailleurs.
Avec une solution qui coûte moins de 40€, ça reste acceptable.
[^] # Re: Plusieurs cas de figure
Posté par Renault (site web personnel) . En réponse au message Programmation des CPU/SOC contenant plusieurs coeurs de type différents. Évalué à 4.
Non, ce n'est pas comme ça que cela fonctionne.
Le but est que tu as un processeur classique, avec un système classique d'un côté (ici un Linux par exemple).
Et tu as à côté un processeur orienté temps réel avec un système temps réel dessus, souvent bien plus limité dans ses tâches et possibilités (dialoguer avec certains composants qui ont des contraintes temps réels, faire quelques calculs spécifiques, etc.). Souvent ils peuvent partager un bout de mémoire ou utiliser un bus spécifique pour échanger des données entre eux.
Linux dans ce cas ci n'est pas spécialement au courant du processeur M4 à côté, il initialise juste de quoi dialoguer avec, mais ce qui tourne dessus et comment n'est pas de son ressort.
[^] # Re: Comportement toxique ou personne toxique ?
Posté par Renault (site web personnel) . En réponse au lien Travail - Patrons toxiques : il faut en finir avec la “culture des connards”. Évalué à 5.
C'est un problème politique et social et non climatique.
On a largement de quoi nourrir la Terre entière, il y a une surproduction alimentaire, le problème c'est l'inégalité dans son accès. Les pauvres ne peuvent se nourrir à leur faim et bien des pays mangent trop et mal ce qui est aussi un problème de santé publique.
[^] # Re: Open Data
Posté par Renault (site web personnel) . En réponse au journal [HS][~Signet] Mise à participation du public pour le projet de mise en service du réacteur EPR[…]. Évalué à 10.
Donc comparer la France ou le Royaume-Uni avec la Suède frontalement est probablement peu pertinent. car bien des choses peuvent expliquer ces écarts.
Mais si on cite https://www.ouest-france.fr/europe/suede/covid-19-apres-deux-ans-sans-confinement-la-suede-fait-son-autocritique-1b64d0c0-9a57-11ec-9acb-1f509311c936
Deux ans après, quel est le bilan ? Avec 17 000 morts liés au Covid-19 pour 10 millions d’habitants, le pays affiche un taux de mortalité légèrement inférieur à la moyenne européenne. Mais le tableau est nettement moins reluisant si on le compare à celui de ses voisins nordiques. Proportionnellement à sa population, la Suède totalise deux fois plus de décès qu’au Danemark, quatre fois plus qu’en Finlande et six fois plus qu’en Norvège.
Des pays voisins et bien plus similaires à la Suède ont donc un grand écart avec leur stratégie de confinement. Donc je ne dirais pas que dans l'absolu la Suède a bien géré la situation, elle aurait probablement pu sauver des vies sans pour autant nuire drastiquement à l'ensemble de sa population. Elle a fait un choix, heureusement qu'ils s'en sont bien sortis, car on a eu la situation en Inde et au Brésil en particulier où c'était dramatique. ET bien des pays occidentaux étaient proches de la catastrophe mais finalement le pire a été sans doute évité.
Perso je me demande surtout ce que tout ceci aurait donné si les enfants étaient aussi touchés que les personnes âgées. Car on a eu de la chance que les enfants et même les bébés soient plutôt épargnés alors que d'habitude les deux extrêmes niveau âges sont sensibles à ce genre d'infection. Et je pense qu'honnêtement la population n'est pas prête à affronter ce genre de scénario.
[^] # Re: Comportement toxique ou personne toxique ?
Posté par Renault (site web personnel) . En réponse au lien Travail - Patrons toxiques : il faut en finir avec la “culture des connards”. Évalué à 3.
Sachant qu'une bonne part de cette nourriture fini à la poubelle ou pour nourrir des animaux (dont on se nourri derrière en partie), il y a une belle marge de progression.
Cela signifie surtout qu'il sera difficile de manger comme aujourd'hui (ou pire, plus de consommation de viande à l'échelle mondiale) pas qu'il soit impossible de nourrir tout ce beau monde avec un régime plus vertueux environnementalement parlant.
[^] # Re: Le telephone pro (ENT/Pronote)
Posté par Renault (site web personnel) . En réponse au journal Maltraitance informatique. Évalué à 2. Dernière modification le 12 septembre 2023 à 21:09.
Je ne vois pas en quoi c'est fallacieux, c'est bien utile et plus fiable que de tout laisser reposer sur le dos d'un copain (quand tu en as un qui se dévoue qui peut le faire sérieusement, ça m'est déjà arrivé et c'est vraiment un problème).
Et si jamais ils doivent faire un devoir et qu'Internet les aide voire est nécessaire, tu fais comment ? :D
Plus sérieusement, je trouve que tu jettes un peu ici le bébé avec l'eau du bain. Ce n'est pas parce qu'il faut avoir un usage raisonné du numérique qu'il faut le bannir. Le tout est de trouver un équilibre, vérifier des trucs en lien avec les cours qui prennent 5 minutes en rentrant de classe cela ne me semble pas problématique à cet égard.
Du coup le problème n'est pas la technologie, le problème est le prof ici. Et un problème humain peut se régler autrement qu'en rejetant une solution technique.
Déjà ce problème existe aussi sans Pronote. Le prof qui met un contrôle costaud le même jour que d'autres cours, ou qui donne un devoir long du jour au lendemain, ou un weekend où tu as 2-3 devoir maison bien costauds et notés à rendre pour le lundi. Tout cela je l'ai vécu, sans Pronote car cela n'existait pas à l'époque. Et cela s'est réglé car les profs sont des humains en général bienveillants et compréhensifs. Si tu leur expliques la situation, en général ils trouvent une autre date par exemple pour éviter que les élèves soient surchargés (car un prof n'a aucun intérêt à ce que les élèves merdent leur contrôle car il y en a 3 le même jour). Puis il est arrivé que des parents fassent un mot pour expliquer que l'élève 'na pas pu le faire à cause de différentes contraintes et le prof prend en compte en général la remarque et évite de reproduire la même chose plus tard dans l'année.
Je pense surtout que l'outil est mal maitrisé par les élèves, parents et profs et qu'il faut forcément du temps pour s'y faire et roder l'opération, avec certains cela sera probablement plus longs mais je ne vois rien d'impossible d'avoir un usage raisonné et profitable de l'outil pour en tirer les bénéfices sans les inconvénients.
Personnellement je ne visualise pas à quel point ce nombre est spécifiquement un problème, c'est l'équivalent de moins d'un message par jour scolaire par élève. Cela ne me semble pas aberrant à première vue, faudrait voir le contenu des messages surtout pour juger (et comparer à ce que cela implique, notamment avant, car bon je vois de plus en plus de parents prévenir l'absence d'un enfant par écrit que par téléphone par exemple, finalement c’est peut être mieux).
[^] # Re: Flatpak
Posté par Renault (site web personnel) . En réponse au lien Ayé Firefox flatpak sous GNOME Wayland av. une version Debian récente a un rendu correct des polices. Évalué à 5.
Tu peux en effet le mettre à jour avec le reste de tes Flatpak, tu peux aussi revenir facilement à une version précédente si tu veux en cas de problèmes.
Puis l'intégration avec le système est d'office meilleure (notamment la mise à disposition du .desktop pour qu'il soit dans les menus bien comme il faut sans efforts).
Et Firefox est une application complexe, faire en sorte qu'il fonctionne bien sous Flatpak aide sans doute aussi à améliorer les outils et l'écosystème ce qui sert pour d'autres applications.
[^] # Re: Je confirme
Posté par Renault (site web personnel) . En réponse au journal Les dangers des traductions et résumés automatiques par IA : un exemple. Évalué à 5.
Je pense qu'ils n'ont pas lu ton lien et faisaient référence au fait que euro est invariable sur les pièces / billets ce que certains ont abusivement généralisé au delà de ce contexte.
[^] # Re: Le telephone pro
Posté par Renault (site web personnel) . En réponse au journal Maltraitance informatique. Évalué à 10.
Bah non.
Les profs ne travaillent pas qu'en classe, ils ont aussi une salle des profs et du temps pour discuter avec d'autres enseignants ou leur administration, notamment durant les récréations, avant le début des cours, à la fin, ou lors d'un trou dans la journée à partir du secondaire. Ils ont aussi des journées dédiées à cela (les fameuses journées pédagogiques c'est une journée de travail pour les profs qui servent en parti à ça aussi).
Pour les parents, il y a moyen de discuter en récupérant ou en déposant l'enfant. Et si ça ne fonctionne pas car horaires incompatibles ça arrive, suffit de déposer un mot au prof via l'enfant pour fixer un rendez-vous téléphonique ou présentiel. Avant la connectivité permanente, c'était la seule façon de faire et ça fonctionne très bien. Il n'y a pas de situations où un élève (ou ses parents) doit contacter d'urgence un prof en dehors de ses heures de travail.
[^] # Re: Je confirme
Posté par Renault (site web personnel) . En réponse au journal Les dangers des traductions et résumés automatiques par IA : un exemple. Évalué à 7.
Ce n'est même pas sûr suivant le taux d'erreurs et les problématiques notamment de styles.
Car reformuler c'est souvent compliqué, parfois plus que de trouver de zéro la bonne formule car tu as un phénomène d'ancrage, et rendre le style cohérent peut vite devenir délicat en ayant besoin de retraduire pas mal de textes pourtant justes.
Mais ça, c'est aux gens du métier de tester et de voir le gain potentiel ou pas.
[^] # Re: L'histoire se répète
Posté par Renault (site web personnel) . En réponse au lien Flatpak is not the future et pourquoi l'auteur pense qu'on devrait développer pour GTK3 et pas GTK4. Évalué à 3.
Pas forcément pour une partie de l'API.
Une autre partie de l'API tient bien d'autres considérations aussi, les principes de design et en particulier des applications GNOME ont aussi évolué.
[^] # Re: L'histoire se répète
Posté par Renault (site web personnel) . En réponse au lien Flatpak is not the future et pourquoi l'auteur pense qu'on devrait développer pour GTK3 et pas GTK4. Évalué à 4.
Tu crois que les développeurs de GTK s'amusent à réécrire leur API pour emmerder le monde ?
Les couches graphiques, que ce soit le matériel comme la gestion sous Linux (genre l'arrivée de Wayland) a nécessité de gros ajustements. De la même façon que OpenGL a été mis au placard pour privilégier une nouvelle API : Vulkan. C'est compliqué de maintenir en parallèle plusieurs versions de GTK, surtout qu'ils manquent de bras, et ce n'est pas facile de garder la rétrocompatibilité qui fonctionne bien tout en proposant de nouvelles fonctionnalités ou la prise en charge de nouveaux éléments.
Ce ne sont pas de mauvais développeurs, mais ils manquent de ressources et il y a plusieurs critères à prendre en compte pour tenir le bon équilibre. Et tout projet logiciel prend ce type de décisions, parfois le curseur est mis sur autre chose car la priorité du projet et ses ressources sont différents.
C'est dommage pour les développeurs impactés mais c'est la vie d'un projet logiciel qui veut ça, et il y a des alternatives avec des avantages et inconvénients propres si nécessaires.
[^] # Re: Flatseal
Posté par Renault (site web personnel) . En réponse au journal "dérives sécuritaires" : inconvénients des flatpacks, snap ou environnements sandbox.. Évalué à 4.
Cela dépend du problème, le manque d'intégration ou certains bogues oui certainement, mais beaucoup de soucis étaient tout aussi insolubles qu'aujourd'hui, car si le logiciel n'en fait qu'a sa tête ou n'a pas la fonction désirée, bah tu l'as dans l'os aussi.
Je pense personnellement que c'est mieux qu'on ait moins besoin de connaître son système parfaitement pour s'en servir. Sauf cas spécifiques, un ordinateur est un outil pour effectuer des tâches, ce qui compte c'est de faire ces tâches. Bidouiller de partout pour faire en sorte de faire ces tâches restent une perte de temps et il est préférable de rendre l'expérience la plus fluide et simple pour la majorité des utilisateurs même si la complexité globale fait que les quelques bidouilleurs qui auraient pu éventuellement se débrouiller avant perdent un peu en capacité de résoudre les problèmes.
Mais notons que c'est aussi cette standardisation, ces tests automatiques et cette intégration qui permet aussi d'améliorer la qualité globale.
Franchement les scripts devenus des binaires cela concerne vraiment peu de composants en fait depuis 20-30 ans.
Mouais, je ne pense pas que l'éditeur ou développeur, en particulier pour un logiciel libre se lève un matin en disant "je vais limiter le contrôle des utilisateurs artificiellement". D'ailleurs je ne suis pas spécialement convaincu par l'argument, les fonctionnalités de la plupart des logiciels sont bien plus nombreuses depuis 30 ans, de nombreux outils restent très fins dans leur configuration et leurs possibilités avec des scripts ou addons quand c'est pertinent.
Mais la complexité du système et du matériel, en partie à cause de nouveaux usages (comme le multimédia) mais aussi des préoccupations "nouvelles" (sécurité, réseau, etc.) ne permet pas d'avoir tout qui soit intelligible et facilement résolu ou compréhensible par le bidouilleur du coin.
Pour moi ce sentiment de contrôle est trompeur. Et surtout je pense que même avec ce contrôle, tu perdais au final bien plus de temps et cela nécessitait beaucoup plus de compétences pour faire des choses finalement basiques et automatisables. Personnellement je suis bien content de l'informatique aujourd'hui malgré ces défauts par endroit évidemment. De toute façon si tu veux un système simple et léger, ça existe encore, tu es libre de t'en servir d'ailleurs. Mais bizarrement je pense que tu ne t'en contenteras pas.
[^] # Re: Flatseal
Posté par Renault (site web personnel) . En réponse au journal "dérives sécuritaires" : inconvénients des flatpacks, snap ou environnements sandbox.. Évalué à 5.
Oui.
Je me souviens de mes débuts avec Fedora Core 3 en 2005, c'était la vraie galère pour faire quoique ce soit. Passer des journées à configurer des trucs, à compiler des outils pas présents dans les dépôts, ça fonctionnait mal par dessus le marché avec une intégration très mauvaise. C'était clairement pas aussi stable, efficace et simple qu'aujourd'hui. Et ça prenait un temps de dingue pour beaucoup d'actions car le disque dur et le processeur étaient lents.
Et je fais des choses que je ne faisais pas à l'époque. Et je préfère mater les films / séries / vidéo de chatons dans les formats actuels que le 720p de l'époque (et encore, ça c'était 2005, je te laisse imaginer 7 ans avant).
Et à l'époque je ne faisais rien de sensible, je n'irais clairement pas sur le site de ma banque sans chiffrement, je n'irais pas non plus si les applications avaient un accès libre à la mémoire ou au buffer graphique, etc.
Et je joue à des jeux vidéos qui imposent un minimum de réalisme pour être immersif, j'aime bien les jeux de fins des années 90 aussi, mais clairement pour d'autres il faut bien plus que ce qui était possible à l'époque.
Des systèmes légers et très simples qui ont les possibilités des années 90 ou début des années 2000 il y en a, mais bizarrement pas grand monde ne semble si attiré que ça. D'ailleurs en général les gens qui semblent s'intéresser à l'usage de très vieilles machines le font plus pour une raison financière que par choix par rapport au cas d'usage.
Mais bon, classique, c'était mieux avant alors qu'en réalité c'est plus compliqué. Des cas d'usages nouveaux sont bien apparus, des tas de choses étaient vraiment pourries et limitées, parfois on s'en fout car on est pas concerné (type accessibilité, internationalisation, prise en charge de matériel plus exotiques) mais ça concerne des gens, ou alors oui c'était possible mais moins fiable, moins flexibles, moins joli / ergonomique. Perso je me souviens bien de ces difficultés et je constate avec plaisir les progrès opérés depuis.
Mais on est d'accord, il y a des logiciels ou site web trop gourmands pour ce qu'ils font, mais ce n'est pas le cas de tous.
[^] # Re: Flatseal
Posté par Renault (site web personnel) . En réponse au journal "dérives sécuritaires" : inconvénients des flatpacks, snap ou environnements sandbox.. Évalué à 7.
Bah voyons. C'est rigolo car il y a plein d'usages basiques qui justifient une plus grande consommation. La sécurité informatique, loin d'être parfaite, s'améliore et cela passe notamment par des couches d'abstractions et le chiffrement opérations gourmandes en mémoires et en cycles processeurs. Bon peut être que tu es fan de l'époque des BSOD car une application tapait au mauvais endroit, ou que pour toi une application sur ta machine peut savoir tout ce qui s'y passe que tu le veuilles ou non. Pas moi.
C'était aussi la douce époque où le plug and play était très peu répandues, les configurations étaient statiques, pour le matériel aussi. Des protocoles et des disques durs qui mettent une plombe pour la moindre opération. Des dizaines de minutes pour télécharger un pauvre exécutable de quelques Mio, c'est vrai que c'est fun. Moi aussi je regrette l'époque du disque dur qui gratte pour juste lancer Firefox.
Le multimédia était aussi peu répandu. Des vidéos en ligne ? Des images haute définition ? Non les photos de famille pixelisées c'était la bonne époque, la vraie.
Puis bon, ça fonctionnait pas trop mal en Europe et encore mieux aux USA quand tout reposait sur l'anglais voire l'alphabet latin. La traduction en dehors de grandes langues occidentales c'était une vaste blague.
Et comme si les logiciels ne proposaient pas de nouvelles fonctionnalités depuis. Ils sont bien plus simples et robustes qu'à l'époque (en tout cas pour les grands noms).
Et j'en passe.
Non vraiment, l'époque de Windows 98-2000 ne me manque pas des masses. C'était bien limité et il y a de bonnes raisons pour faire mieux et donc plus gourmand. Alors tout n'est pas rose, il y a toujours des applications trop gourmandes pour ce qu'elles font, des développeurs Web ou d'applications qui codent n'importe comment et ne se préoccupent de rien. Mais des applications ou site web pétées à l'époque, ça existait aussi. Et les usages ont évolué avec, l'usage de l'informatique s'est aussi bien diversifié et l'usage du multimédia et du réseau ont bien explosés par exemple et ce sont des postes gourmands en ressources. Même si dans le lot il y a forcément des personnes qui seraient satisfaits d'un Windows 98 pas connecté à Internet, et ils peuvent toujours s'en servir s'ils le veulent, mais bon si tu veux la dernière version de Firefox ça sera forcément plus compliquée.
[^] # Re: Ce troll de compèt c’est pour vendredi ?
Posté par Renault (site web personnel) . En réponse au lien $HOME, Not So Sweet $HOME. Évalué à 9.
Car c'est du boulot évidemment (et les contributions pour OpenSSH ou les distributions ne sont pas si abondantes), cela ne veut pas dire que ce serait une mauvaise chose de le faire.
Pour le reste, cela peut se résoudre, c'est du travail évidemment mais cela reste plus simple quand on essaye de définir une norme que quand on laisse tout le monde faire n'importe quoi. Je ne vois pas ce qu'il y a de mal à vouloir une amélioration sur ce point.
[^] # Re: Ce troll de compèt c’est pour vendredi ?
Posté par Renault (site web personnel) . En réponse au lien $HOME, Not So Sweet $HOME. Évalué à 10.
Pas du tout car c'est une question d'intégration logicielle fournie par une distribution, c'est donc totalement son rôle, c'est ce qu'elles font depuis le début.
Et pour s'assurer que ce qui est fourni fonctionne et ne casse pas les installations existantes elles font beaucoup d'intégration justement. Si le but d'une distro c'était juste de compiler et de fournir un dépôt accessible, on en aurait pas autant et ça se saurait si c'était si simple.
On utilise un ordinateur pour remplir des tâches, pas juste pour le plaisir de créer des liens symboliques. Et c'est entièrement le rôle des distributions que de faire ces choix et ce travail au bénéfice des utilisateurs. Si tu veux le contrôle (reste à savoir ce qu'on met derrière ce terme, on peut en dire tout et n'importe quoi), tu es toujours libre de le faire quitte à utiliser ta propre distribution si tu as envie.
Personnellement je suis bien content que Linux n'impose pas de compiler son propre noyau, que beaucoup de choses fonctionnent sans même y penser. C'était rigolo 5 minutes de configurer Xorg à la main pour avoir un affichage qui tourne, mais c'est quand même à la longue bien plus sympa d'avoir des systèmes qui gèrent le multi écran dynamiquement sans même qu'on ait à y passer 20 plombes à lire le manuel.
Ah l'argument, si moi j'y arrive tout le monde peut le faire.™ Tout le monde n'a pas l'expérience nécessaire d'une part, et ton cas d'usage ne peut être généralisé.
[^] # Re: C'est un pas à passer qui prendra du temps, mais qui a mon avis a beaucoup d'intéret.
Posté par Renault (site web personnel) . En réponse au message Popularité de la 5G ?. Évalué à 4.
Bien sûr qu'il y a du BTP pour les antennes, mais moins car tu n'as pas à le faire pour les derniers kilomètres qui peuvent être mutualisés pour plusieurs abonnés.
[^] # Re: Ce troll de compèt c’est pour vendredi ?
Posté par Renault (site web personnel) . En réponse au lien $HOME, Not So Sweet $HOME. Évalué à 10. Dernière modification le 18 août 2023 à 10:10.
Ce n'est pas casser SSH que de changer le chemin de sa configuration par défaut.
D'ailleurs une distribution ou un mainteneur pourrait faire la transition en douceur. Un script de post installation qui crée un lien symbolique entre l'ancien et le nouveau chemin, ou un patch pour que OpenSSH compilé sur Debian garde le chemin
~/.ssh
par défaut quelques temps en prévenant quand c'est fini.Ce sont des choses que les logiciels et distributions font en permanence, c'est d'ailleurs une partie de leur boulot. On a bien eu la mise à mort de
/bin
en faveur de/usr/bin
, ce qui a prit du temps, et la prochaine étape est sans doute la mise à mort de/usr/lib64
.Bref, il y a moyen d'harmoniser sur le temps long, oui ce n'est pas agréable mais rien d'insurmontable non plus.
Il y a des bénéfices à essayer de clarifier tout cela. Pour la politique de sauvegarde des données ça permet de savoir qu'on a rien oublié, ou à l'inverse d'ignorer des choses dont on a pas envie de sauvegarder. Si tu veux repartir de 0 en terme de configuration sans perdre de données personnelles, cela devient trivial comme opération aussi. Alors que là comme la liste de dossiers ou de fichiers localisés un peu n'importe où est variable, la tâche n'est pas aisée pour automatiser ce genre d'opérations…
[^] # Re: C'est un pas à passer qui prendra du temps, mais qui a mon avis a beaucoup d'intéret.
Posté par Renault (site web personnel) . En réponse au message Popularité de la 5G ?. Évalué à 3.
Ça c'est le bilan énergétique à l'usage.
Mais par exemple si tu fais un bilan carbone d'une ligne de communication, la construction ou le renouvellement d'une ligne est très coûteuse. Le BTP associé à ces opérations est loin d'être négligeable. Cela est d'autant plus vrai si la zone considérée est peu dense (donc beaucoup de travaux publics pour peu d'abonnés en bout de ligne).
La communication a cet avantage non négligeable, le tout est de trouver le point d'équilibre, à partir de combien d'abonnés par kilomètre de ligne il vaut mieux privilégier le sans fil ou le filaire ? Est-ce qu'on ne peut pas baisser l'empreinte de ces travaux en profitant de la nécessiter de renouveler les équipements vétustes pour les mettre à niveau plutôt que de le faire le plus tôt possible ?
[^] # Re: Ai-je bien compris
Posté par Renault (site web personnel) . En réponse au lien Fabrice Bellard : Text Compression using Large Language Models. Évalué à 7.
Enfin quand tu vois les limitations :
Tu vois bien que niveau performances et flexibilité c'est finalement assez mauvais.
Je pense qu'il faut voir ça comme un jouet ou une démo plutôt qu'une révolution. ;)
[^] # Re: Certaines idées cornucopianistes ne sont pas foncièrement mauvaises, mais...
Posté par Renault (site web personnel) . En réponse au lien Les cornucopiens sont parmi nous ! Mais qui sont-ils ?. Évalué à 4. Dernière modification le 13 août 2023 à 15:58.
Non, c'est plutôt toi qui établi une relation décroissance qui impliquerait que la technologie ne serait pas partie de ce processus. Car tu critiquais justement une position raisonnable qui indique que même si la solution ne réside pas que dans la technologie, elle fait partie des solutions pour notre avenir.
Et c'est cela que je critique, car affirmer que la technologie n'a plus sa place dans notre avenir, c'est bien souhaiter un retour en arrière. Tu opposes les deux alors qu'il y a moyen de concilier les deux.
Il ne faut pas croire que tous ceux qui pensent que la technologie peut aider à résoudre nos problèmes ne pensent pas dans le même temps qu'il faut aussi changer nos habitudes et modes de vie.
[^] # Re: Certaines idées cornucopianistes ne sont pas foncièrement mauvaises, mais...
Posté par Renault (site web personnel) . En réponse au lien Les cornucopiens sont parmi nous ! Mais qui sont-ils ?. Évalué à 4.
Je ne vois toujours pas la contradiction.
Oui le monde entier ne peut pas vivre comme un occidental moyen de 2023. C'est évident. Les comportements doivent changer à l'échelle du monde.
Cela ne veut pas dire qu'en 2100 (ou plus tard) on vivra (ou qu'on doit) vivre comme au Moyen-Âge et que toute technologie aura ou devra disparaître.
[^] # Re: Certaines idées cornucopianistes ne sont pas foncièrement mauvaises, mais...
Posté par Renault (site web personnel) . En réponse au lien Les cornucopiens sont parmi nous ! Mais qui sont-ils ?. Évalué à 6.
Je ne vois pas la contradiction là dedans.
Comme il dit, les innovations technologiques font parties de la solution, mais ne sont pas suffisantes. Donc il faudra aussi changer de mode de vie, mais pas forcément pour tout avec la même intensité.
[^] # Re: Support de Wayland?
Posté par Renault (site web personnel) . En réponse au lien Window Maker vient de sortir en version 0.96.0 . Évalué à 5.
XWayland tourne au dessus d'un compositeur Wayland, donc au dessus d'un DE.
C'est à WindowMaker de le fournir en fait, ça n'a pas de sens de reposer dessus.