Euh, ça veut juste dire que tu as d'autres limites que l'énergie, pas que l'énergie est en quantité illimitée :-)
Il n'y a aucune raison de considérer qu'une usine d'iPhones produise plus d'iPhones si l'électricité était plus abondante, par exemple. Par contre, s'il y a des coupures d'électricité tous les 3 jours, elle va produire moins.
Or les femmes ont cette « élégance de l’écoute », plus que les hommes qui « ont tendance malheureusement à rivaliser pour prendre la parole, au lieu d’écouter. ».
C'est quand même dommage d'associer le féminisme à cet espèce d'essentialisme naïf basé sur des préjugés. On n'est pas loin des débilités du style "Les hommes ont une meilleure orientation dans l'espace parce que les hommes préhistoriques chassaient pendant que les femmes s’occupaient des enfants."
Si c'était vrai que le groupe fonctionne mieux s'il y a plus de gens qui écoutent, alors la bonne catégorisation serait "à l'écoute" ou "prend la parole", pas "femme" et "homme".
Et maintenant, il y a même mieux entre ces deux modules : algébriquement, ces deux structures sont totalement isomorphes (comme pour Descartes et Bessel dans la fable de Reynolds). Autrement dit, elles sont complétement équivalentes pour l'utilisateur et, en tant qu'implémenteur, je peux passer de l'une à l'autre sans perturber aucunement le code client, à la condition de respecter le principe Code should not know about the internals of objects it’s working with. ;-)
C'était ma compréhension naïve de la POO, mais le contact avec la STL de C++ a mis mes certitudes à rude épreuve. Par exemple, conceptuellement, ça m'a beaucoup gêné de ne pas avoir accès à des fonctions inefficaces pour certains containers. Par exemple, vector::push_front(). C'est une opération inefficace sur un vecteur, certes, mais ça empêche l'abstraction (en particulier, ça rend le benchmarking très difficile, alors qu'il y a des algos pour lesquels les performances relatives de différents containers mériterait d'être testé empiriquement). En gros, avec les containers de la STL, tu es obligé de savoir comment ils sont implémentés, parce que tu n'as accès qu'à une liste restreinte de méthodes en fonction de l'efficacité algorithmique des opérations. Est-ce qu'il n'y a pas là des principes qui se contredisent, et que les concepteurs de la STL ont choisi de trancher dans un sens sans laisser l'utilisateur décider?
Vu que la Chine est première sur les points 23 à 30 consacrés à l'énergie (nuléaire, photovoltaïque, hydrogène, batteries…), est-ce que ce n'est justement pas une démonstration qu'ils font ce qu'il faut pour ne pas être limités par l'énergie?
Et dans quarante ans, avec des ressources rares leurs bidules technologiques ne fonctionneront plus, ne s’exporteront plus.
Ça, je pense que ça n'a aucune raison d'arriver. Du moment où tu as de l'énergie, tu peux remplacer n'importe quelle ressource rare par une autre solution technologique. C'est arrivé plein de fois au cours de l'histoire de l'humanité d'épuiser une ressource, et jamais on n'a abandonné la technologie. On trouve juste d'autres ressources pour remplacer. Ça sera peut-être plus cher, ou un peu moins efficace, mais je ne connais pas de technologie qui repose exclusivement sur un élément.
Et ils regretterons pour sûr les champs et l'air respirable.
Certainement, mais comme tu ne voudras pas vendre les tiens, ça te fait une belle jambe. Et au pire, comme tu n'auras plus un rond, ils pourront même venir avec des technologies militaires supérieures et te prendre tes champs.
Les plantes, c'est plutôt dans les biotechs j'imagine…
Pour le reste, style management du paysage, gestion de l'eau, etc., c'est quand même dur d'appeler ça des technologies innovantes. Je ne pense pas que le rapport suggère une seule seconde qu'on puisse se passer de technologies existantes (il n'y a pas "la roue" dans les transports par exemple), de mettre en place des pistes cyclables, de cultiver des plantes peu gourmandes en eau dans les périodes de sécheresse, d'investir dans la rénovation des cours d'eau… Mais ça, on sait faire, il n'y a pas besoin de recherche innovante pour planter des haies. Il peut bien sûr manquer d'études d'impact ou de recherche appliquée pour savoir quel type de haies planter ou comment encourager les gens à prendre le vélo, mais ça n'est pas ce genre de choses que le rapport mesure.
Alors oui, tout ça est très technophile. Mais c'est aussi réaliste. Pendant que tu plantes des haies, les autres vont développer des ordinateurs quantiques. Et dans 40 ans, ils viendront dépenser leur richesse dans ton beau pays pour les vacances. On aura des champs, des rivières, de l'air respirable, peut-être même de la nourriture de bonne qualité et petite quantité, mais on vivra du tourisme et on devra importer tous nos bidules technologiques. Et nos armes, aussi. Je ne sais pas si c'est réjouissant.
Est-ce que ça n'est pas non plus l'époque où la part des bénéfices reversée au capital a augmenté?
Je suis quand même un peu surpris que les salaires aient augmenté aussi peu sur la période 1970-2015 (+20%), alors que sur la même période le pouvoir d'achat du smic a fait +100%.
Je ne sais pas trop ce que tu appelles "en mode tablette". Le problème, c'est que l'interface des bureaux Linux n'est pas trop optimisée pour le mode tablette. Par exemple, avoir plusieurs fenêtres sur l'écran, c'est galère en mode tablette; les menus sont trop petits, les ascenseurs sont trop petits, les bordures de fenêtre sont trop petites (déja que c'est galère avec une souris), les boutons pour fermer les fenêtres sont trop petits, etc. Il faudrait donc changer totalement l'interface quand on passe "en mode tablette", par exemple avec un raccourci clavier ou un "geste" de la souris, qui va passer en mode plein écran, augmenter la taille des icônes, etc. Il y a aussi le problème de l'émulation du clic droit, du clic du milieu, du glisser-désposer (par exemple, comment faire comprendre à la machine que quand on enfonce le clic avec la souris, on veut faire un glisser déposer, alors qu'en mode tablette, on veut faire un glisser-déposer si on bouge, mais on veut émuler le clic droit si on ne bouge pas. Comment faire en sorte qu'un long clic à la souis ne doit pas ouvrir le menu du clic droit? Comment faire en sorte qu'un "glissé" avec le doigt émule l'ascen). Ça donne quand même l'impression que de passer d'un mode à l'autre change le fonctionnement de base de l'interface; est-ce c'est même possible de faire ça intuitivement?
En fait, selon mon expérience, ça à la fois fonctionne et ne fonctionne pas.
En gros, au niveau hardware, ça fonctionne. J'imagine que c'est détecté comme une souris, et ça fonctionne comme une souris.
Encore une fois, selon mon expérience, niveau software, ça ne sert pas à grand chose. Sous un bureau standard (défaut Ubuntu par exemple), il y a peu d'applications pour lesquelles ça peut être utile. Pour pouvoir attraper les ascenseurs, les bords de fenêtres, et autres icônes avec des grosses pattes de taille standard, il faudrait augmenter substantiellement la taille de tous ces éléments, ce qui rend le bureau grossier et diminue de beaucoup l'expérience de l'interface. Donc du coup, si on ne veut pas transformer son laptop en tablette pour locataire d'EHPAD, l'utilisation des doigts reste assez restreinte (lancer les logiciels localisés dans la barre?), donc ça n'est pas très utile.
J'ai vraiment un problème avec certains mots comme "indispensable" quand il s'agit de politique.
Je plaide coupable. Rien n'est "indispensable", disons que la question est légtime. En pratique, en gardant une caisse de retraite indépendante pour les fonctionnaires, il devient quasiment impossible de la financer par les cotisations des fonctionnaires actifs. En l'état actuel des choses, ça revient à faire porter les retraites actuelles par les ministères qui emploient encore des fonctionnaires; plus on réduit le nombre de fonctionnaires et plus chaque fonctionnaire actif coûte cher, et donc plus il est difficile d'en recruter; ça fait diminuer la qualité du service public à budget constant, et ça entretient un cercle vicieux (on embauche des CDD et des CDI, donc les fonctionnaires coûtent de plus en plus, etc). Si on ne fait rien, c'est quasiment un arrêt de mort pour le statut de fonctionnaire.
Globalement, la fonction publique n'a pas à gagner de l'argent, mais elle a un devoir d'efficacité et de rationnalité dans la dépense de son budget…
Mouais, alors j'ai du mal avec les théories à base d'agenda caché, surtout quand ça vient de groupes pour qui la rhétorique repose sur la théorie de l'agenda caché (ou sur l'argument de la pente glissante). Même si c'est tout à fait possible (voire probable) qu'il y ait un agenda caché; par définition il est peu probable qu'on le connaisse, et tout ceci reste très spéculatif.
Après, la fusion des régimes n'est pas vraiment un agenda caché. La réforme des retraites de la fonction publique va même devenir indispensable à terme, du fait de la stagnation du nombre de fonctionnaires.
Vous avez bien lu le graphique. Pour un fonctionnaire d'État, le taux de cotisation retraite est de 90% (part employeur et employé cumulées). Le paradoxe, c'est que du point de vue d'une administration, embaucher un fonctionnaire est devenu ruineux (ça coûte environ > 5000€ par mois pour un net de 2000€). Du coup, l'État embauche de plus en plus sur des contrats de droit privé (CDD ou CDI), ce qui fait que le nombre de fonctionnaires diminue encore plus, ce qui diminue l’assiette des cotisations retraites, et donc augmente encore les cotisations.
Ça va probablement s'améliorer doucement, du fait de l'alignement de l'âge du départ à la retraite sur le privé, mais il y a légitimement des raisons de se pencher sur le problème.
Il y avait aussi une baisse sensible programmée des pensions de retraite pour parvenir progressivement à un système par capitalisation permettant aux copains de Blackrock et consorts de se gaver sur les futurs non-retraites.
Tout plein de pays pas forcément très capitalistes (comme les pays scandinaves) ont introduit une part de capitalisation dans les retraites. D'ailleurs, il y a beaucoup de gens qui font ça indirectement en investissant dans l'immobilier. Est-ce que l'argument de la pureté est susceptible de convaincre quelqu'un, ou bien est-ce qu'il ne s'adresse qu'à des gens déja convaincus?
Personne n'a parlé de dette incontrôlée dans la discussion, c'est un homme de paille. La situation actuelle prévoyait un déficit assez profond, mais temporaire, du système de retraites; réformer ou non le système pour éviter ce déficit est une décision politique, les deux se défendent.
La méthode est brutale et inédite il me semble.
J'ai l'impression que la situation est la même tous les 10 ans, donc je ne suis pas convaincu du côté "inédit". Il faut aussi reconnaitre que c'est souvent les négociations du tour précédent qui ont trop entamé les marges et qui rendent une réforme supplémentaire justifiable (dans ce sens, cette nouvelle réforme n'aurait jamais dû être nécessaire, vu que tous les problèmes étaient déja connus avant).
Je dois avouer que je ne comprends pas la motivation profonde du gouvernement, parce que je vois une disproportion entre les objectifs (modestes) et la méthode (déterminée), mais il y a certainement des choses qui m'échappent.
Bah, tu n'as pas sous-entendu le contraire non plus, et défoncer des pseudo-argument contre ne dit pas ton avis
Je me suis déja fait traiter de troll crypto-Macroniste, donc j'anticipe :-S Si le fait d'écrire "Euh attendez c'est quand même plus compliqué que ça" suffit pour se faire cataloguer comme troll Macroniste, ça dit quand même quelque chose sur la qualité des débats sur Internet.
Après, je me suis fait récemment traiter de Communiste lors d'un repas de famille, donc j'imagine que ça équilibre.
On a aujourd'hui le prix d'avoir refusé en bloc cette version qui était au fond plus adaptée au monde qui bouge plus
Sauf que "ce monde qui bouge plus" ça n'est pas tout le monde. Les gilets jaunes, par exemple, c'est quelque chose que "le monde qui bouge" ne peut pas comprendre. Des gens paumés sur l'échiquier politique, qui s'accordent sur leur détestation du monde qui bouge et des gens qui se sentent à l'aise dans le monde qui bouge.
Du coup, j'imagine que cette vision quasiment Gaullienne du retraité qui quitte le monde du travail après 40 ans de bons et loyaux services pour son entreprise, sous les applaudissements de ses collègues, avec une belle médaille et tout, c'est une vision rassurante, c'est comme ça que nos parents et nos grands parents sont partis à la retraite. Alors que partir quand on veut, c'est qu'on est une fainéant, ou qu'on a démérité; il n'y aura personne pour dire "c'est bien, tu as bien travaillé, tu peux partir te reposer maintenant". Franchement, je ne vois pas beaucoup d'autre explication à ce rejet de la retraite par points (à part bien sûr parce que certains ont bien compris qu'ils y perdraient :-) ).
J'aurais peut-être dû préciser que j'étais opposé à la réforme actuelle. Je trouvais que la retraite par points était beaucoup plus simple, égalitaire, et libertaire, et je déteste de plus en plus cette manie de tout normaliser, de donner des âges de départ, des âges limite sur la longueur d'une carrière, etc., alors qu'il serait tellement mieux de dire "voici le barème, vous partez quand vous voulez / quand vous pouvez, et vous aurez telle retraite".
J'ai quand même remarqué que beaucoup de gens étaient très forts pour redistribuer des ressources qui ne leur appartenaient pas (du style "s'il n'y a plus rien dans les caisses de l'État on n'a qu'à aller prendre ailleurs"), ou des ressources qui n'existaient pas encore (on emprunte et la prochaine génération remboursera). C'est jamais leurs sous que les gens veulent redistribuer, toujours ceux des autres.
Je pense qu'il serait plus exact de dire qu'avec le système de répartition, on ne peut rien "espérer" au-delà de l'équité de la répartition à l'intérieur d'une génération (mais pas entre les générations). La taille du gateau à se répartir dépend de la croissance de l'économie, des gains de productivité, et de la pyramide des âges (nombre de cotisants et nombre de pensionnés). Le système de répartition ne garantit absolument pas l'équité intergénérationnelle; quand la taille de population fluctue, ceux qui étaient nombreux à travailler gagnent deux fois (quand ils travaillaient, ils finançaient peu de retraités, et quand ils sont à la retraite, ils coûtent beaucoup aux actifs), et ceux qui sont peu nombreux à travailler perdent deux fois (ils financent beaucoup de retraités, et ils ne couteront pas cher aux actifs quand ils seront à la retraite).
C'est une propriété du système; on peut faire semblant de le découvrir aujourd'hui, ça ne change pas cette propriété qui a toujours existé.
Après, il y a certainement des gens qui pensaient de bonne foi que parce que leurs aînés étaient partis à la retraite à 60 ans, ils pourraient le faire aussi (voire avant). Mais le fait de le penser ne veut pas dire que c'était raisonnable.
Un facteur non-négligeable, c'est aussi qu'avec la pyramide des âges, l'influence des retraités dans le résultat des élections évolue. Il est donc logique que les partis majoritaires portent des programmes qui bénéficient aux retraités (puisqu'on aurait très bien pu décider aussi de baisser les pensions pour équilibrer le système).
En prenant des graphes random sur internet (il y a certainement moyen d'avoir des statistiques plus fiables, mais pour l'ordre de grandeur ça marche) :
Rapport cotisants/pensionnés: ~ 3 en 1970, 1.4 en 2015.
Donc, pour faire simple, un cotisant de 1970 produit 20€ de PIB, soit 60€ de PIB par retraité. Un cotisant de 2015 produit 55€ de PIB, soit 77€ de PIB par retraité. Soit 1.3x de pouvoir d'achat pour les retraités entre 1970 et 2015 (en supposant une parité PIB-pouvoir d'achat), contre 2x pour le SMIC. Quelle que soit la manière dont tu prends l'équation, ça ne marche pas.
Si tu veux maintenir le pouvoir d'achat des retraités par rapport à la population (l'indexer au SMIC), il faudrait 2.2 cotisants / pensionné (on est à 1.4). Ou alors, il aurait fallu des gains de productivité de 400% sur 45 ans (on est à 275%).
Sur le fond, le choix d'augmenter le rapport cotisants/pensionnés (augmenter l'âge de départ) est fondamentalement politique, puisqu'on aurait aussi pu baisser les retraites (diminuer le pouvoir d'achat des retraités) ou augmenter les cotisations (diminuer le pouvoir d'achat des actifs). Ou bien abandonner la répartition, ou bien couper la poire en deux (par exemple en augmentant la CSG et financer le déficit des retraites par l'impôt).
Dans ton raisonnement, tu négliges à la fois l'évolution du rapport cotisants/pensionnés, mais aussi l'augmentation du pouvoir d'achat de la société (qui mange les 2/3 de l'augmentation de productivité). Tu ne peux pas espérer t'en sortir simplement en balançant "gains de productivité"! :-)
Est-ce que ça existe seulement, un logiciel qui n'a pas de "contrainte particulière"? Tout logiciel a un contexte d'utilisation, qui pondère l'importance des différents critères: clarté du code, performance RAM, performance CPU, évolutivité, expérience utilisateur, fiabilité, etc. Je ne vois pas ce qui ferait qu'automatiquement, le nombre de bugs ouverts serait le critère à optimiser en priorité. Même, au contraire, quel type de logiciel devrait avoir ce critère prioritaire? Les systèmes embarqués ou les systèmes d'aide à la décision, quand des vies humaines, du matériel qui coûte cher, ou des gros capitaux sont en jeu? Mais sur les logiciels courants (traitement de texte, IDE, navigateur, jeux vidéo, compilateurs…), si les bugs ne nuisent pas à l'utilisation (par exemple s'ils sont facilement contournables ou qu'ils concernent des fonctionnalités avancées dont on peut se passer), il est difficile d'imaginer une raison pour laquelle les ressources devraient être consacrées exclusivement à la correction des bugs.
J'aurais donc tendance à considérer que la priorité aux bugs relève de "contraintes particulières". D'ailleurs, beaucoup des logiciels qu'on utilise sont buggés, sans que les équipes de développement s'en émeuvent particulièrement.
Bah déja, des perfs problématiques peuvent être un bug. Si ton logiciel qui gère l'ESP d'une voiture réagit quand la bagnole est déja dans le fossé, c'est une sorte de bug.
Ensuite, je ne suis même pas d'accord. Il y a des logiciels pour lesquels une certaine catégorie de bugs est largement acceptable. Typiquement, c'est le cas des logiciels de rendu: quand Latex te sort des oversize box et te fait dépasser le texte dans la marge, c'est un bug; quand lilypond to sort un truc bof bof, c'est un bug (le rendu s'améliore d'ailleurs de version en version). En tout cas, ce genre de dysfonctionnement est inhérent à la complexité de certaines tâches, et c'est acceptable d'en avoir un certain nombre par rapport à d'autres critères à privilégier (par exemple, le temps d'exécution, ou la clarté des algorithmes). On pourrait aussi citer l'optimisation par les compilateurs par exemple, où il y a toujours un compromis entre l'efficacité et le temps de compilation. Des heuristiques de pathfinding, qui ne te donnent pas forcément le chemin optimal, mais qui font un compromis avec les perfs. Il semble y avoir une infinité d'exemples où une tâche peut ne pas être parfaitement exécutée et où un tel compromis est acceptable.
Du coup, "minimiser les bugs" me semble être un critère parmi d'autres à optimiser, et le poids respectif de ces critères dépend du contexte.
ChatGPT excelle à ce qu'il est censé faire (la conversation). Il n'est pas un moteur de recherche encyclopédique, donc il peut raconter n'importe quoi.
Il faudrait évidemment demander son avis à un spécialiste, mais j'ai l'impression que c'est théoriquement très faisable d'entrainer une AI à retrouver des informations dans un texte, surtout un texte comme une décision de justice, qui reste très formelle. À la lecture des quelques informations présentes sur les diapos, j'ai l'impression que la solution logicielle a plutôt été une sorte de système expert, qui s'est heurté à des problèmes triviaux (comme l'utilisation de différents séparateurs dans les nombres), chose qui en théorie ne devrait poser aucun problème à un réseau de neurones. Après, encore une fois, je ne suis pas du tout spécialiste, je constate juste qu'il y a une énorme différence entre "c'est impossible" et "on n'a pas su le faire".
Pour les erreurs éventuelles d'un système automatique, il faudrait surtout les comparer au taux d'erreur d'un humain qui retranscrirait ces informations. Étant donné les objectifs (établir un barème moyen des indemnisations), j'ai l'impression que la présence d'erreurs ne serait pas particulièrement problématique (il faudrait évidemment confirmer manuellement les outliers, mais c'est normal).
De ce que j'ai pu voir en survolant les slides, une question majeure n'a pas été abordée : quid de la qualification de l'équipe en charge du projet?
Parce que l'AI, c'est pas magique. Mais quand c'est mis entre les bonnes mains, ça marche. Je ne peux pas croire qu'il est possible d'un côté de faire des choses aussi complexes que ce que fait chatGPT, et d'un autre côté d'être infoutu de parser des décisions de justice, qui font partie des documents les plus formels qui existent.
C'est peut-être une histoire de budget ou de ressources (par exemple, quelle est la taille du jeu de données d'entrainement, interprété par des humains?), c'est peut-être une histoire d'algo (modèle de langage, etc), mais non, je ne peux pas croire que ça a foiré parce que "ouhlala le problème était trop dur". Ça ressemble plutôt à "les gens à qui ça a été confié ne savaient pas le faire".
Je ne suis pas forcément d'accord sur les deux constats écologiques.
D'une part, le problème des énergies fossiles n'est pas qu'elles sont en quantité limitée, mais plutôt qu'il y en a encore trop sous terre. Il faut donc arrêter de les exploiter bien avant qu'on n'en ait plus. Par ailleurs, ce sont principalement les transports qui sont shootés aux énergies fossiles. La production industrielle l'est en général beaucoup moins (si l'électricité est décarbonée, ce qu'on sait faire).
D'autre part, la pénurie de métaux en général est quand même assez virtuelle. Bien sûr, il y a quelques métaux critiques pour lesquels on n'est pas sûrs d'avoir des réserves pour les 30 prochaines années, mais il y a peu d'utilisation industrielle de métaux irremplaçables. C'est juste une histoire d'offre et de demande; quand certains métaux deviendront plus durs à extraire, leur prix va augmenter, et les industriels les remplaceront par d'autres alliages, peut-être un peu moins performants, mais moins coûteux. Et quand on parle de machines à laver, le fer reste virtuellement illimité, donc on ne va pas du jour au lendemain passer au tout plastique.
Dans ce cas, a était (indirectement) un paramètre (0.0 par défaut). Du coup, il était tout à fait crédible que a soit exactement 0, et ça avait du sens de gérer cette situation. Je préfère largement ça à un paramétrage redondant (style un switch booléen, et une variable numérique qui n'a de sens que si le switch est activé).
J'aurais eu plus de doutes pour une variable différente de 0, style 1.0. En théorie, si on est carré sur les types, j'imagine que c'est possible d'avoir un test exact, parce que la représentation binaire ne devrait pas changer (si le fichier de paramètres contient MAVAR=1.0, qu'on lit ça avec >> pour mettre dans un type à virgule flottante, qu'on ne transtype pas et qu'on finit par tester == 1.0, j'ai l'intuition que ça devrait marcher). Mais avec 0.0 ça doit forcément marcher, sauf s'il y a une gestion vraiment déconnante des types à virgule flottante.
Le pire dans cette histoire, c'est que même si le test ne fonctionnait pas comme prévu (si a était le résultat d'un calcul numérique, style a = 3.0 - sqrt(9.0)), l'algo restait tout à fait fonctionnel (il aurait multiplié par 1e-32 et aurait obtenu quelque chose du même ordre de grandeur). Il n'y avait donc aucune raison de partir en vrille.
si les cas où l'optimisation se déclenche était trop rare par rapport au reste, ça resterait une optimisation discutable.
J'imagine qu'en théorie la prédiction de branches permet justement de faire en sorte que ça marche. Mais j'ai eu l'impression (ce n'est qu'une impression, je n'ai pas analysé plus que ça) que dans tous les cas les deux branches étaient calculées (peut-être parce que le nombre de cycles nécessaire était inférieur à un critère que je ne connais pas), et que la version avec if() nécessitait de revenir en arrière alors que le coût du calcul était de toutes manières déja passé.
J'ai aussi à mon actif quelques cas de mémoïsation ratés, parce que ça coûtait plus cher d'aller chercher un résultat dans une table que de calculer une fonction non-triviale. C'est probablement des cas très classiques pour des gens dont le métier est d'optimiser des algorithmes (typiquement, des algos en O(1) en pratique plus lents que des O(2) à cause d'un coût initial), mais quand on n'est confrontés que sporadiquement à des problèmes d'optimisation, c'est toujours destabilisant.
Merci d'avoir lu ce que j'avais écrit, je commençais à me demander si on parlait la même langue…
Je voulais juste donner un exemple d'optimisation prématurée qui ne fonctionnait pas, et insister d'une manière générale sur la difficulté de prédire les perfs d'un compilateur et d'un processeur moderne dans un contexte non-trivial (branchement vs calcul). Donc au final, coder clairement et laisser le compilateur gérer, c'est exactement le message que je voulais passer.
Pourquoi? Qu'est-ce qui empêcherait ce coût d'être élevé en cas d'abus d'héritage (allez, disons qu'il y a 10 niveaux d'héritages, 5 fonctions virtuelles à chaque fois, et que chaque couche a plus de classes que sa couche parente…), de fonctions virtuelles, de dynamic_cast?
Je suis d'accord que ça n'est pas totalement impossible. Mais on parle de nanosecondes. Donc oui, on va peut-être perdre des millions de nanosecondes. Il n'empêche que ça reste imperceptible, parce que le temps d'exécution, en réalité, c'est des cache miss, des accès disques, des appels système, etc. C'est assez perturbant de voir à quel point les processeurs sont rapides, en fait.
Ça me rappelle une discussion avec notre ingé système, qui n'était pas content quand on lançait 300 exécutables sur un serveur de 100 cœurs. Ça fait péter le load average (et ça fait clignoter ses alarmes), et en théorie les context switch sont coûteux. Et en effet, ça fait des dizaines de milliers de context switch… qui font perdre quelques dizièmes de microsecondes chacun. Donc au final, moins d'une seconde sur des jobs qui tournent sur 3 jours. C'est toujours une histoire d'ordre de grandeur, faire des millions de fois des choses inutiles qui durent 10 milliardièmes de secondes, c'est complètement instantané. Par contre, faire un milliard de fois quelque chose qui prend une microseconde, ça fait planter la machine.
Lecture intéressante. Je trouve qu'il y a beaucoup de mauvaise foi chez ce Casey; en fait, il a une idée fixe, et il essaye de torturer les réponses pour faire rentrer son idée fixe. La discussion est pleine de sous-entendus fallacieux, ç'en est perturbant. Par exemple, Casey essaye de systématiquement donner des exemples de logiciels dont le manque de réactivité est problématique (Microsoft Word, des IDE, etc), comme si ce manque de réactivité était une conséquence directe du fait qu'ils étaient codés selon les principes du Clean Code.
Sur le fond, je trouve que Martin est beaucoup plus convainquant. Les bloatwares sont lents parce qu'ils sont mal conçus, et qu'ils seraient probablement mieux conçus s'ils suivaient le principe du Clean Code. Le coût des appels de fonctions et des tables virtuelles ne peut qu'être totalement négligeable pour de tels logiciels, leur lenteur ne peux être qu'un problème de conception et/ou de ressources externes (biliothèques graphiques?).
[^] # Re: marchand de rêve
Posté par arnaudus . En réponse au journal Pays innovants : la Chine loin devant, les occidentaux largués. Évalué à 5.
Euh, ça veut juste dire que tu as d'autres limites que l'énergie, pas que l'énergie est en quantité illimitée :-)
Il n'y a aucune raison de considérer qu'une usine d'iPhones produise plus d'iPhones si l'électricité était plus abondante, par exemple. Par contre, s'il y a des coupures d'électricité tous les 3 jours, elle va produire moins.
[^] # Re: Quelques réflexions.
Posté par arnaudus . En réponse à la dépêche L’étrange tropisme des femmes de sciences pour les associations de femmes et autres réflexions. Évalué à 6.
C'est quand même dommage d'associer le féminisme à cet espèce d'essentialisme naïf basé sur des préjugés. On n'est pas loin des débilités du style "Les hommes ont une meilleure orientation dans l'espace parce que les hommes préhistoriques chassaient pendant que les femmes s’occupaient des enfants."
Si c'était vrai que le groupe fonctionne mieux s'il y a plus de gens qui écoutent, alors la bonne catégorisation serait "à l'écoute" ou "prend la parole", pas "femme" et "homme".
[^] # Re: l'héritage et les exemples pourris
Posté par arnaudus . En réponse au lien « Clean code » : performances lamentables. Évalué à 3.
C'était ma compréhension naïve de la POO, mais le contact avec la STL de C++ a mis mes certitudes à rude épreuve. Par exemple, conceptuellement, ça m'a beaucoup gêné de ne pas avoir accès à des fonctions inefficaces pour certains containers. Par exemple, vector::push_front(). C'est une opération inefficace sur un vecteur, certes, mais ça empêche l'abstraction (en particulier, ça rend le benchmarking très difficile, alors qu'il y a des algos pour lesquels les performances relatives de différents containers mériterait d'être testé empiriquement). En gros, avec les containers de la STL, tu es obligé de savoir comment ils sont implémentés, parce que tu n'as accès qu'à une liste restreinte de méthodes en fonction de l'efficacité algorithmique des opérations. Est-ce qu'il n'y a pas là des principes qui se contredisent, et que les concepteurs de la STL ont choisi de trancher dans un sens sans laisser l'utilisateur décider?
[^] # Re: marchand de rêve
Posté par arnaudus . En réponse au journal Pays innovants : la Chine loin devant, les occidentaux largués. Évalué à 4.
Vu que la Chine est première sur les points 23 à 30 consacrés à l'énergie (nuléaire, photovoltaïque, hydrogène, batteries…), est-ce que ce n'est justement pas une démonstration qu'ils font ce qu'il faut pour ne pas être limités par l'énergie?
[^] # Re: marchand de rêve
Posté par arnaudus . En réponse au journal Pays innovants : la Chine loin devant, les occidentaux largués. Évalué à 5.
Ça, je pense que ça n'a aucune raison d'arriver. Du moment où tu as de l'énergie, tu peux remplacer n'importe quelle ressource rare par une autre solution technologique. C'est arrivé plein de fois au cours de l'histoire de l'humanité d'épuiser une ressource, et jamais on n'a abandonné la technologie. On trouve juste d'autres ressources pour remplacer. Ça sera peut-être plus cher, ou un peu moins efficace, mais je ne connais pas de technologie qui repose exclusivement sur un élément.
Certainement, mais comme tu ne voudras pas vendre les tiens, ça te fait une belle jambe. Et au pire, comme tu n'auras plus un rond, ils pourront même venir avec des technologies militaires supérieures et te prendre tes champs.
[^] # Re: marchand de rêve
Posté par arnaudus . En réponse au journal Pays innovants : la Chine loin devant, les occidentaux largués. Évalué à 4.
Les plantes, c'est plutôt dans les biotechs j'imagine…
Pour le reste, style management du paysage, gestion de l'eau, etc., c'est quand même dur d'appeler ça des technologies innovantes. Je ne pense pas que le rapport suggère une seule seconde qu'on puisse se passer de technologies existantes (il n'y a pas "la roue" dans les transports par exemple), de mettre en place des pistes cyclables, de cultiver des plantes peu gourmandes en eau dans les périodes de sécheresse, d'investir dans la rénovation des cours d'eau… Mais ça, on sait faire, il n'y a pas besoin de recherche innovante pour planter des haies. Il peut bien sûr manquer d'études d'impact ou de recherche appliquée pour savoir quel type de haies planter ou comment encourager les gens à prendre le vélo, mais ça n'est pas ce genre de choses que le rapport mesure.
Alors oui, tout ça est très technophile. Mais c'est aussi réaliste. Pendant que tu plantes des haies, les autres vont développer des ordinateurs quantiques. Et dans 40 ans, ils viendront dépenser leur richesse dans ton beau pays pour les vacances. On aura des champs, des rivières, de l'air respirable, peut-être même de la nourriture de bonne qualité et petite quantité, mais on vivra du tourisme et on devra importer tous nos bidules technologiques. Et nos armes, aussi. Je ne sais pas si c'est réjouissant.
[^] # Re: Lapin compris
Posté par arnaudus . En réponse au lien Pétition contre la réforme des retraites. Évalué à 3.
Est-ce que ça n'est pas non plus l'époque où la part des bénéfices reversée au capital a augmenté?
Je suis quand même un peu surpris que les salaires aient augmenté aussi peu sur la période 1970-2015 (+20%), alors que sur la même période le pouvoir d'achat du smic a fait +100%.
[^] # Re: Réponse de Normand
Posté par arnaudus . En réponse au message Écran Tactile. Évalué à 3.
Je ne sais pas trop ce que tu appelles "en mode tablette". Le problème, c'est que l'interface des bureaux Linux n'est pas trop optimisée pour le mode tablette. Par exemple, avoir plusieurs fenêtres sur l'écran, c'est galère en mode tablette; les menus sont trop petits, les ascenseurs sont trop petits, les bordures de fenêtre sont trop petites (déja que c'est galère avec une souris), les boutons pour fermer les fenêtres sont trop petits, etc. Il faudrait donc changer totalement l'interface quand on passe "en mode tablette", par exemple avec un raccourci clavier ou un "geste" de la souris, qui va passer en mode plein écran, augmenter la taille des icônes, etc. Il y a aussi le problème de l'émulation du clic droit, du clic du milieu, du glisser-désposer (par exemple, comment faire comprendre à la machine que quand on enfonce le clic avec la souris, on veut faire un glisser déposer, alors qu'en mode tablette, on veut faire un glisser-déposer si on bouge, mais on veut émuler le clic droit si on ne bouge pas. Comment faire en sorte qu'un long clic à la souis ne doit pas ouvrir le menu du clic droit? Comment faire en sorte qu'un "glissé" avec le doigt émule l'ascen). Ça donne quand même l'impression que de passer d'un mode à l'autre change le fonctionnement de base de l'interface; est-ce c'est même possible de faire ça intuitivement?
# Réponse de Normand
Posté par arnaudus . En réponse au message Écran Tactile. Évalué à 4.
En fait, selon mon expérience, ça à la fois fonctionne et ne fonctionne pas.
En gros, au niveau hardware, ça fonctionne. J'imagine que c'est détecté comme une souris, et ça fonctionne comme une souris.
Encore une fois, selon mon expérience, niveau software, ça ne sert pas à grand chose. Sous un bureau standard (défaut Ubuntu par exemple), il y a peu d'applications pour lesquelles ça peut être utile. Pour pouvoir attraper les ascenseurs, les bords de fenêtres, et autres icônes avec des grosses pattes de taille standard, il faudrait augmenter substantiellement la taille de tous ces éléments, ce qui rend le bureau grossier et diminue de beaucoup l'expérience de l'interface. Donc du coup, si on ne veut pas transformer son laptop en tablette pour locataire d'EHPAD, l'utilisation des doigts reste assez restreinte (lancer les logiciels localisés dans la barre?), donc ça n'est pas très utile.
[^] # Re: clickbait?
Posté par arnaudus . En réponse au lien Pétition contre la réforme des retraites. Évalué à 4.
Je plaide coupable. Rien n'est "indispensable", disons que la question est légtime. En pratique, en gardant une caisse de retraite indépendante pour les fonctionnaires, il devient quasiment impossible de la financer par les cotisations des fonctionnaires actifs. En l'état actuel des choses, ça revient à faire porter les retraites actuelles par les ministères qui emploient encore des fonctionnaires; plus on réduit le nombre de fonctionnaires et plus chaque fonctionnaire actif coûte cher, et donc plus il est difficile d'en recruter; ça fait diminuer la qualité du service public à budget constant, et ça entretient un cercle vicieux (on embauche des CDD et des CDI, donc les fonctionnaires coûtent de plus en plus, etc). Si on ne fait rien, c'est quasiment un arrêt de mort pour le statut de fonctionnaire.
Globalement, la fonction publique n'a pas à gagner de l'argent, mais elle a un devoir d'efficacité et de rationnalité dans la dépense de son budget…
[^] # Re: clickbait?
Posté par arnaudus . En réponse au lien Pétition contre la réforme des retraites. Évalué à 1.
Mouais, alors j'ai du mal avec les théories à base d'agenda caché, surtout quand ça vient de groupes pour qui la rhétorique repose sur la théorie de l'agenda caché (ou sur l'argument de la pente glissante). Même si c'est tout à fait possible (voire probable) qu'il y ait un agenda caché; par définition il est peu probable qu'on le connaisse, et tout ceci reste très spéculatif.
Après, la fusion des régimes n'est pas vraiment un agenda caché. La réforme des retraites de la fonction publique va même devenir indispensable à terme, du fait de la stagnation du nombre de fonctionnaires.
https://www.lagazettedescommunes.com/wp-content/uploads/2017/04/cotisation-retraite-640x553.jpg
Vous avez bien lu le graphique. Pour un fonctionnaire d'État, le taux de cotisation retraite est de 90% (part employeur et employé cumulées). Le paradoxe, c'est que du point de vue d'une administration, embaucher un fonctionnaire est devenu ruineux (ça coûte environ > 5000€ par mois pour un net de 2000€). Du coup, l'État embauche de plus en plus sur des contrats de droit privé (CDD ou CDI), ce qui fait que le nombre de fonctionnaires diminue encore plus, ce qui diminue l’assiette des cotisations retraites, et donc augmente encore les cotisations.
Ça va probablement s'améliorer doucement, du fait de l'alignement de l'âge du départ à la retraite sur le privé, mais il y a légitimement des raisons de se pencher sur le problème.
Tout plein de pays pas forcément très capitalistes (comme les pays scandinaves) ont introduit une part de capitalisation dans les retraites. D'ailleurs, il y a beaucoup de gens qui font ça indirectement en investissant dans l'immobilier. Est-ce que l'argument de la pureté est susceptible de convaincre quelqu'un, ou bien est-ce qu'il ne s'adresse qu'à des gens déja convaincus?
[^] # Re: clickbait?
Posté par arnaudus . En réponse au lien Pétition contre la réforme des retraites. Évalué à 4.
Personne n'a parlé de dette incontrôlée dans la discussion, c'est un homme de paille. La situation actuelle prévoyait un déficit assez profond, mais temporaire, du système de retraites; réformer ou non le système pour éviter ce déficit est une décision politique, les deux se défendent.
J'ai l'impression que la situation est la même tous les 10 ans, donc je ne suis pas convaincu du côté "inédit". Il faut aussi reconnaitre que c'est souvent les négociations du tour précédent qui ont trop entamé les marges et qui rendent une réforme supplémentaire justifiable (dans ce sens, cette nouvelle réforme n'aurait jamais dû être nécessaire, vu que tous les problèmes étaient déja connus avant).
Je dois avouer que je ne comprends pas la motivation profonde du gouvernement, parce que je vois une disproportion entre les objectifs (modestes) et la méthode (déterminée), mais il y a certainement des choses qui m'échappent.
[^] # Re: clickbait?
Posté par arnaudus . En réponse au lien Pétition contre la réforme des retraites. Évalué à 9.
Je me suis déja fait traiter de troll crypto-Macroniste, donc j'anticipe :-S Si le fait d'écrire "Euh attendez c'est quand même plus compliqué que ça" suffit pour se faire cataloguer comme troll Macroniste, ça dit quand même quelque chose sur la qualité des débats sur Internet.
Après, je me suis fait récemment traiter de Communiste lors d'un repas de famille, donc j'imagine que ça équilibre.
Sauf que "ce monde qui bouge plus" ça n'est pas tout le monde. Les gilets jaunes, par exemple, c'est quelque chose que "le monde qui bouge" ne peut pas comprendre. Des gens paumés sur l'échiquier politique, qui s'accordent sur leur détestation du monde qui bouge et des gens qui se sentent à l'aise dans le monde qui bouge.
Du coup, j'imagine que cette vision quasiment Gaullienne du retraité qui quitte le monde du travail après 40 ans de bons et loyaux services pour son entreprise, sous les applaudissements de ses collègues, avec une belle médaille et tout, c'est une vision rassurante, c'est comme ça que nos parents et nos grands parents sont partis à la retraite. Alors que partir quand on veut, c'est qu'on est une fainéant, ou qu'on a démérité; il n'y aura personne pour dire "c'est bien, tu as bien travaillé, tu peux partir te reposer maintenant". Franchement, je ne vois pas beaucoup d'autre explication à ce rejet de la retraite par points (à part bien sûr parce que certains ont bien compris qu'ils y perdraient :-) ).
[^] # Re: clickbait?
Posté par arnaudus . En réponse au lien Pétition contre la réforme des retraites. Évalué à 10. Dernière modification le 15 mars 2023 à 17:21.
J'aurais peut-être dû préciser que j'étais opposé à la réforme actuelle. Je trouvais que la retraite par points était beaucoup plus simple, égalitaire, et libertaire, et je déteste de plus en plus cette manie de tout normaliser, de donner des âges de départ, des âges limite sur la longueur d'une carrière, etc., alors qu'il serait tellement mieux de dire "voici le barème, vous partez quand vous voulez / quand vous pouvez, et vous aurez telle retraite".
J'ai quand même remarqué que beaucoup de gens étaient très forts pour redistribuer des ressources qui ne leur appartenaient pas (du style "s'il n'y a plus rien dans les caisses de l'État on n'a qu'à aller prendre ailleurs"), ou des ressources qui n'existaient pas encore (on emprunte et la prochaine génération remboursera). C'est jamais leurs sous que les gens veulent redistribuer, toujours ceux des autres.
[^] # Re: clickbait?
Posté par arnaudus . En réponse au lien Pétition contre la réforme des retraites. Évalué à 6. Dernière modification le 15 mars 2023 à 17:02.
Je pense qu'il serait plus exact de dire qu'avec le système de répartition, on ne peut rien "espérer" au-delà de l'équité de la répartition à l'intérieur d'une génération (mais pas entre les générations). La taille du gateau à se répartir dépend de la croissance de l'économie, des gains de productivité, et de la pyramide des âges (nombre de cotisants et nombre de pensionnés). Le système de répartition ne garantit absolument pas l'équité intergénérationnelle; quand la taille de population fluctue, ceux qui étaient nombreux à travailler gagnent deux fois (quand ils travaillaient, ils finançaient peu de retraités, et quand ils sont à la retraite, ils coûtent beaucoup aux actifs), et ceux qui sont peu nombreux à travailler perdent deux fois (ils financent beaucoup de retraités, et ils ne couteront pas cher aux actifs quand ils seront à la retraite).
C'est une propriété du système; on peut faire semblant de le découvrir aujourd'hui, ça ne change pas cette propriété qui a toujours existé.
Après, il y a certainement des gens qui pensaient de bonne foi que parce que leurs aînés étaient partis à la retraite à 60 ans, ils pourraient le faire aussi (voire avant). Mais le fait de le penser ne veut pas dire que c'était raisonnable.
Un facteur non-négligeable, c'est aussi qu'avec la pyramide des âges, l'influence des retraités dans le résultat des élections évolue. Il est donc logique que les partis majoritaires portent des programmes qui bénéficient aux retraités (puisqu'on aurait très bien pu décider aussi de baisser les pensions pour équilibrer le système).
[^] # Re: clickbait?
Posté par arnaudus . En réponse au lien Pétition contre la réforme des retraites. Évalué à 9.
En prenant des graphes random sur internet (il y a certainement moyen d'avoir des statistiques plus fiables, mais pour l'ordre de grandeur ça marche) :
https://www.google.com/url?sa=i&url=https%3A%2F%2Fwww.lemonde.fr%2Fblog%2Fpiketty%2F2017%2F01%2F05%2Fde-la-productivite-en-france-en-allemagne-et-ailleurs%2F&psig=AOvVaw3ImFr3dFFLr1rqvVF_F-Wy&ust=1678980114981000&source=images&cd=vfe&ved=0CBAQjRxqFwoTCMCiwcCe3v0CFQAAAAAdAAAAABAI
Productivité en 1970: 20€ PIB /h
Productivité en 2015: 55€ PIB /h
https://www.alternatives-economiques.fr/sites/default/files/public/media/20111101/A852090B.GIF
Pouvoir d'achat du Smig en 1970: 170 points
Pouvoir d'achat du salaire minimum en 2015: 335 points
https://www.google.com/url?sa=i&url=https%3A%2F%2Fjournaldeslibertes.fr%2Farticle%2Flepargne-pour-une-vraie-reforme-des-retraites%2F&psig=AOvVaw1RscyNpov_xfGcFgWvwxxt&ust=1678980548995000&source=images&cd=vfe&ved=0CBAQjRxqFwoTCPjo34-g3v0CFQAAAAAdAAAAABAI
Rapport cotisants/pensionnés: ~ 3 en 1970, 1.4 en 2015.
Donc, pour faire simple, un cotisant de 1970 produit 20€ de PIB, soit 60€ de PIB par retraité. Un cotisant de 2015 produit 55€ de PIB, soit 77€ de PIB par retraité. Soit 1.3x de pouvoir d'achat pour les retraités entre 1970 et 2015 (en supposant une parité PIB-pouvoir d'achat), contre 2x pour le SMIC. Quelle que soit la manière dont tu prends l'équation, ça ne marche pas.
Si tu veux maintenir le pouvoir d'achat des retraités par rapport à la population (l'indexer au SMIC), il faudrait 2.2 cotisants / pensionné (on est à 1.4). Ou alors, il aurait fallu des gains de productivité de 400% sur 45 ans (on est à 275%).
Sur le fond, le choix d'augmenter le rapport cotisants/pensionnés (augmenter l'âge de départ) est fondamentalement politique, puisqu'on aurait aussi pu baisser les retraites (diminuer le pouvoir d'achat des retraités) ou augmenter les cotisations (diminuer le pouvoir d'achat des actifs). Ou bien abandonner la répartition, ou bien couper la poire en deux (par exemple en augmentant la CSG et financer le déficit des retraites par l'impôt).
Dans ton raisonnement, tu négliges à la fois l'évolution du rapport cotisants/pensionnés, mais aussi l'augmentation du pouvoir d'achat de la société (qui mange les 2/3 de l'augmentation de productivité). Tu ne peux pas espérer t'en sortir simplement en balançant "gains de productivité"! :-)
[^] # Re: Échange avec Uncle Bob
Posté par arnaudus . En réponse au lien « Clean code » : performances lamentables. Évalué à 4.
Est-ce que ça existe seulement, un logiciel qui n'a pas de "contrainte particulière"? Tout logiciel a un contexte d'utilisation, qui pondère l'importance des différents critères: clarté du code, performance RAM, performance CPU, évolutivité, expérience utilisateur, fiabilité, etc. Je ne vois pas ce qui ferait qu'automatiquement, le nombre de bugs ouverts serait le critère à optimiser en priorité. Même, au contraire, quel type de logiciel devrait avoir ce critère prioritaire? Les systèmes embarqués ou les systèmes d'aide à la décision, quand des vies humaines, du matériel qui coûte cher, ou des gros capitaux sont en jeu? Mais sur les logiciels courants (traitement de texte, IDE, navigateur, jeux vidéo, compilateurs…), si les bugs ne nuisent pas à l'utilisation (par exemple s'ils sont facilement contournables ou qu'ils concernent des fonctionnalités avancées dont on peut se passer), il est difficile d'imaginer une raison pour laquelle les ressources devraient être consacrées exclusivement à la correction des bugs.
J'aurais donc tendance à considérer que la priorité aux bugs relève de "contraintes particulières". D'ailleurs, beaucoup des logiciels qu'on utilise sont buggés, sans que les équipes de développement s'en émeuvent particulièrement.
[^] # Re: Échange avec Uncle Bob
Posté par arnaudus . En réponse au lien « Clean code » : performances lamentables. Évalué à 5. Dernière modification le 15 mars 2023 à 10:55.
Bah déja, des perfs problématiques peuvent être un bug. Si ton logiciel qui gère l'ESP d'une voiture réagit quand la bagnole est déja dans le fossé, c'est une sorte de bug.
Ensuite, je ne suis même pas d'accord. Il y a des logiciels pour lesquels une certaine catégorie de bugs est largement acceptable. Typiquement, c'est le cas des logiciels de rendu: quand Latex te sort des oversize box et te fait dépasser le texte dans la marge, c'est un bug; quand lilypond to sort un truc bof bof, c'est un bug (le rendu s'améliore d'ailleurs de version en version). En tout cas, ce genre de dysfonctionnement est inhérent à la complexité de certaines tâches, et c'est acceptable d'en avoir un certain nombre par rapport à d'autres critères à privilégier (par exemple, le temps d'exécution, ou la clarté des algorithmes). On pourrait aussi citer l'optimisation par les compilateurs par exemple, où il y a toujours un compromis entre l'efficacité et le temps de compilation. Des heuristiques de pathfinding, qui ne te donnent pas forcément le chemin optimal, mais qui font un compromis avec les perfs. Il semble y avoir une infinité d'exemples où une tâche peut ne pas être parfaitement exécutée et où un tel compromis est acceptable.
Du coup, "minimiser les bugs" me semble être un critère parmi d'autres à optimiser, et le poids respectif de ces critères dépend du contexte.
[^] # Re: Et si ça éludait le problème principal?
Posté par arnaudus . En réponse au lien Un aperçu sur les échecs de Datajust. Évalué à 5.
ChatGPT excelle à ce qu'il est censé faire (la conversation). Il n'est pas un moteur de recherche encyclopédique, donc il peut raconter n'importe quoi.
Il faudrait évidemment demander son avis à un spécialiste, mais j'ai l'impression que c'est théoriquement très faisable d'entrainer une AI à retrouver des informations dans un texte, surtout un texte comme une décision de justice, qui reste très formelle. À la lecture des quelques informations présentes sur les diapos, j'ai l'impression que la solution logicielle a plutôt été une sorte de système expert, qui s'est heurté à des problèmes triviaux (comme l'utilisation de différents séparateurs dans les nombres), chose qui en théorie ne devrait poser aucun problème à un réseau de neurones. Après, encore une fois, je ne suis pas du tout spécialiste, je constate juste qu'il y a une énorme différence entre "c'est impossible" et "on n'a pas su le faire".
Pour les erreurs éventuelles d'un système automatique, il faudrait surtout les comparer au taux d'erreur d'un humain qui retranscrirait ces informations. Étant donné les objectifs (établir un barème moyen des indemnisations), j'ai l'impression que la présence d'erreurs ne serait pas particulièrement problématique (il faudrait évidemment confirmer manuellement les outliers, mais c'est normal).
# Et si ça éludait le problème principal?
Posté par arnaudus . En réponse au lien Un aperçu sur les échecs de Datajust. Évalué à 6.
De ce que j'ai pu voir en survolant les slides, une question majeure n'a pas été abordée : quid de la qualification de l'équipe en charge du projet?
Parce que l'AI, c'est pas magique. Mais quand c'est mis entre les bonnes mains, ça marche. Je ne peux pas croire qu'il est possible d'un côté de faire des choses aussi complexes que ce que fait chatGPT, et d'un autre côté d'être infoutu de parser des décisions de justice, qui font partie des documents les plus formels qui existent.
C'est peut-être une histoire de budget ou de ressources (par exemple, quelle est la taille du jeu de données d'entrainement, interprété par des humains?), c'est peut-être une histoire d'algo (modèle de langage, etc), mais non, je ne peux pas croire que ça a foiré parce que "ouhlala le problème était trop dur". Ça ressemble plutôt à "les gens à qui ça a été confié ne savaient pas le faire".
# Constats écologiques
Posté par arnaudus . En réponse au journal Et s'il n'en reste qu'un. Évalué à 5.
Je ne suis pas forcément d'accord sur les deux constats écologiques.
D'une part, le problème des énergies fossiles n'est pas qu'elles sont en quantité limitée, mais plutôt qu'il y en a encore trop sous terre. Il faut donc arrêter de les exploiter bien avant qu'on n'en ait plus. Par ailleurs, ce sont principalement les transports qui sont shootés aux énergies fossiles. La production industrielle l'est en général beaucoup moins (si l'électricité est décarbonée, ce qu'on sait faire).
D'autre part, la pénurie de métaux en général est quand même assez virtuelle. Bien sûr, il y a quelques métaux critiques pour lesquels on n'est pas sûrs d'avoir des réserves pour les 30 prochaines années, mais il y a peu d'utilisation industrielle de métaux irremplaçables. C'est juste une histoire d'offre et de demande; quand certains métaux deviendront plus durs à extraire, leur prix va augmenter, et les industriels les remplaceront par d'autres alliages, peut-être un peu moins performants, mais moins coûteux. Et quand on parle de machines à laver, le fer reste virtuellement illimité, donc on ne va pas du jour au lendemain passer au tout plastique.
[^] # Re: Paradigme
Posté par arnaudus . En réponse au lien « Clean code » : performances lamentables. Évalué à 3.
Dans ce cas, a était (indirectement) un paramètre (0.0 par défaut). Du coup, il était tout à fait crédible que a soit exactement 0, et ça avait du sens de gérer cette situation. Je préfère largement ça à un paramétrage redondant (style un switch booléen, et une variable numérique qui n'a de sens que si le switch est activé).
J'aurais eu plus de doutes pour une variable différente de 0, style 1.0. En théorie, si on est carré sur les types, j'imagine que c'est possible d'avoir un test exact, parce que la représentation binaire ne devrait pas changer (si le fichier de paramètres contient MAVAR=1.0, qu'on lit ça avec >> pour mettre dans un type à virgule flottante, qu'on ne transtype pas et qu'on finit par tester == 1.0, j'ai l'intuition que ça devrait marcher). Mais avec 0.0 ça doit forcément marcher, sauf s'il y a une gestion vraiment déconnante des types à virgule flottante.
Le pire dans cette histoire, c'est que même si le test ne fonctionnait pas comme prévu (si a était le résultat d'un calcul numérique, style a = 3.0 - sqrt(9.0)), l'algo restait tout à fait fonctionnel (il aurait multiplié par 1e-32 et aurait obtenu quelque chose du même ordre de grandeur). Il n'y avait donc aucune raison de partir en vrille.
J'imagine qu'en théorie la prédiction de branches permet justement de faire en sorte que ça marche. Mais j'ai eu l'impression (ce n'est qu'une impression, je n'ai pas analysé plus que ça) que dans tous les cas les deux branches étaient calculées (peut-être parce que le nombre de cycles nécessaire était inférieur à un critère que je ne connais pas), et que la version avec if() nécessitait de revenir en arrière alors que le coût du calcul était de toutes manières déja passé.
J'ai aussi à mon actif quelques cas de mémoïsation ratés, parce que ça coûtait plus cher d'aller chercher un résultat dans une table que de calculer une fonction non-triviale. C'est probablement des cas très classiques pour des gens dont le métier est d'optimiser des algorithmes (typiquement, des algos en O(1) en pratique plus lents que des O(2) à cause d'un coût initial), mais quand on n'est confrontés que sporadiquement à des problèmes d'optimisation, c'est toujours destabilisant.
[^] # Re: Paradigme
Posté par arnaudus . En réponse au lien « Clean code » : performances lamentables. Évalué à 5.
Merci d'avoir lu ce que j'avais écrit, je commençais à me demander si on parlait la même langue…
Je voulais juste donner un exemple d'optimisation prématurée qui ne fonctionnait pas, et insister d'une manière générale sur la difficulté de prédire les perfs d'un compilateur et d'un processeur moderne dans un contexte non-trivial (branchement vs calcul). Donc au final, coder clairement et laisser le compilateur gérer, c'est exactement le message que je voulais passer.
[^] # Re: Échange avec Uncle Bob
Posté par arnaudus . En réponse au lien « Clean code » : performances lamentables. Évalué à 6.
Je suis d'accord que ça n'est pas totalement impossible. Mais on parle de nanosecondes. Donc oui, on va peut-être perdre des millions de nanosecondes. Il n'empêche que ça reste imperceptible, parce que le temps d'exécution, en réalité, c'est des cache miss, des accès disques, des appels système, etc. C'est assez perturbant de voir à quel point les processeurs sont rapides, en fait.
Ça me rappelle une discussion avec notre ingé système, qui n'était pas content quand on lançait 300 exécutables sur un serveur de 100 cœurs. Ça fait péter le load average (et ça fait clignoter ses alarmes), et en théorie les context switch sont coûteux. Et en effet, ça fait des dizaines de milliers de context switch… qui font perdre quelques dizièmes de microsecondes chacun. Donc au final, moins d'une seconde sur des jobs qui tournent sur 3 jours. C'est toujours une histoire d'ordre de grandeur, faire des millions de fois des choses inutiles qui durent 10 milliardièmes de secondes, c'est complètement instantané. Par contre, faire un milliard de fois quelque chose qui prend une microseconde, ça fait planter la machine.
[^] # Re: Échange avec Uncle Bob
Posté par arnaudus . En réponse au lien « Clean code » : performances lamentables. Évalué à 10.
Lecture intéressante. Je trouve qu'il y a beaucoup de mauvaise foi chez ce Casey; en fait, il a une idée fixe, et il essaye de torturer les réponses pour faire rentrer son idée fixe. La discussion est pleine de sous-entendus fallacieux, ç'en est perturbant. Par exemple, Casey essaye de systématiquement donner des exemples de logiciels dont le manque de réactivité est problématique (Microsoft Word, des IDE, etc), comme si ce manque de réactivité était une conséquence directe du fait qu'ils étaient codés selon les principes du Clean Code.
Sur le fond, je trouve que Martin est beaucoup plus convainquant. Les bloatwares sont lents parce qu'ils sont mal conçus, et qu'ils seraient probablement mieux conçus s'ils suivaient le principe du Clean Code. Le coût des appels de fonctions et des tables virtuelles ne peut qu'être totalement négligeable pour de tels logiciels, leur lenteur ne peux être qu'un problème de conception et/ou de ressources externes (biliothèques graphiques?).