le modifier […] aux seules fins d'exploitation, de promotion et d'amélioration du Service.
Donc ce que je comprends, c'est que tu peux changer la résolution, tu peux extraire une vignette statique pour donner envie de cliquer, tu peux appliquer des filtres pour diminuer les effets de la compression, ce genre de choses. Mais comme la clause est pas mal délimitée, je ne vois pas en quoi elle serait automatiquement abusive.
En même temps, j'ai du mal à trouver quelque chose d'abusif dans la liste de droits accordés étant donné la finalité du service. Peut-être sur la cession de la licence, avec un risque de perte de contrôle sur la diffusion?
Je veux dire, c'est bien d'éplucher les CGU, mais si tu mets une vidéo sur Youtube, c'est normal que tu leur cèdes le droit de la diffuser…
Il y a la "hype" de l'AI, et il y a aussi la "hype" de l'anti-AI. Pour l'instant, si on s'en tient aux éléments qu'on trouve dans ces articles, il ne s'agit que de traitements automatiques portant sur la qualité des vidéos, ce qui est essentiellement la même chose que fait Youtube depuis 20 ans, avec des algorithmes de compression/décompression avec pertes, diffusion sous plusieurs résolutions, compression du son, etc. Les rendus non-naturels peuvent être obtenus par l'application de filtres trop agressifs sur la netteté, le flou, la correction du moiré, ou n'importe quel traitement d'image, qu'il implique un algo de machine learning ou non. Par contre, on est bien d'accord que si ça se voit, c'est qu'il y a un problème. En principe ça ne devrait être que des filtres techniques.
Les arguments à base de "l'AI modifie le monde selon ses critères" me semblent assez moisis. Parce que si on va par là, JPEG modifie aussi le monde selon ses critères, l'algorithme choisit quels genre de détails doivent être conservés et quels détails peuvent être effacés. C'est d'ailleurs assez étonnant à quel point on peut devenir tolérants aux artefacts de compression JPEG ou MP3, par exemple. On est peut-être très sensibles aux artefacts de correction d'image par des algos de ML, parce qu'on n'a pas l'habitude d'en voir.
Je ne comprends toujours pas l'intérêt des "objets connectés".
L'intérêt pour qui? Pour toi, pour Mr/Mme tout le monde, pour les fabricants, ou pour ceux qui collectent les données?
Un certain nombre de ces trucs sont des gadgets, leur possession relève d'une balance entre le prix, l'intérêt personnel qu'on porte au gadget en question, et l'importance qu'on porte aux données partagées. Tout le monde n'est pas totalement hermétique à l'intérêt des gadgets; même quand on est au courant des problématiques de partage de données, l'être humain aime à transgresser les interdits pour un peu d'amusement. Typiquement, le traceur GPS au collier du chat (et je n'ai même pas demandé au chat pour la violation caractérisée de sa vie privée).
Il y a aussi plein de trucs assez utiles qui n'ont de sens que s'ils sont accessibles de l'extérieur, ce qui veut probablement dire pour la plupart des gens une application propriétaire sur un smartphone + un intermédiaire dans le cloud du fournisseur. Ça va du pilotage du chauffage, des prises de courant, aux systèmes de capteurs et caméras. La sonnette connectée avec possibilité d'interagir à partir du smartphone, ça résoud un certain nombre de problèmes de la vie quotidienne par exemple. C'est toujours difficile de dire que c'est indispensable, puisqu'évidemment l'être humain a su se dispenser de tout avant que ça soit disponible, mais voila, ces outils comblent des besoins.
Qu'est-ce qui t'ennuis dans ce texte (tronqué, la suite et bien plus inintéressante)
Comme je n'ai dit, je ne suis pas sûr de le comprendre. Si l'idée est de dire que certains scientifiques sont meilleurs que d'autres, c'est difficile de le nier. Mais Einstein semble impliquer quelque chose de bien plus tortueux à mon sens, c'est l'idée que les scientifiques géniaux n'appartiennent qu'à une catégorie (que j'ai du mal à cerner parce qu'il semble que ça concerne le rapport que les gens ont avec la démarche scientifique). Disons que je ne comprends pas sa sociologie de la science, peut-être d'ailleurs parce que ça correspond à une époque lointaine et que le fonctionnement de la science a beaucoup changé depuis.
Elle est celle de ceux qui, comme pierre essentielle, font la Science.
Avec des majuscules, on a toujours l'impression que ça rend les trucs vachement profonds. Disons que la "starification" de la science est quelque chose qui plait énormément au public, ainsi qu'aux politiques (qui peuvent en profiter pour utiliser des critères bureaucratiques d'"excellence" pour piloter les financements). Mais en tout cas à l'heure actuelle, on se rend bien compte que les mécanismes de starification sont assez déconnectés de la contribution scientifique des individus en question (on peut penser à un un prof de médecine Marseillais par exemple). L'histoire des sciences est truffée d'exemples où la postérité à attribué à une personne plus médiatique le résultat d'un travail collectif, ou a "choisi" au hasard parmi un ensemble de travaux équivalents publiés au même moment.
En plus, je ne suis même pas sûr que ça soit vrai. Par exemple, est-ce que Mendel fait partir de "Ceux qui font la Science"? Ses travaux étaient en avance sur son temps, mais il n'a été lu ni par ses contemporains qui auraient pu en profiter (notamment Darwin et Wallace), ni par ses successeurs qui ont redécouvert indépendamment les lois de la génétique. Du coup, on attribue à Mendel une découverte qu'il a été en effet le premier à faire, mais qui n'a eu aucune influence sur la progression des connaissances. Non, franchement, je ne comprends pas cette idée de lier des traits de personnalité avec un potentiel de construction de l'édifice scientifique, elle avait peut-être un sens il y a 120 ans, mais en tout cas ce sens a dû se perdre parce que je ne vois rien dans la réalité de la science moderne qui puisse l'étayer.
ceux qui sont remplaçables par un automate n'aurait jamais pu édifier et ne contribuerons que marginalement à l'édification du temple de la Science
La vision d'Einstein est quand même celle d'un élitisme scientifique assez vertigineux, et je en suis même pas certain de bien comprendre ce qu'il entend avec ses deux catégories. Il y a un rôle pour beaucoup dans la science, pour le tâcheron qui collecte des données, pour celui qui fait beaucoup de bruit avec de nombreuses idées toutes aussi fausses les unes que les autres, mais qui obligent la communauté à réfléchir aux raisons pour lesquelles ces idées sont fausses, pour celui ou celle qui consacre sa vie à un problème obscur qui n'intéresse personne pour le moment, ceux qui parlent aux politiques, aux journalistes, au grand public; ceux qui s'investissent dans l'enseignement et l'encadrement des étudiants, ceux qui assurent le fonctionnement des institutions, ceux qui ramènent beaucoup d'argent, ceux qui conçoivent des expériences qui coûtent très cher, ceux qui conçoivent des expériences qui ne coûtent pas cher…
Après, c'est sûr que l'histoire des sciences ne se rappelle que de Newton ou d'Einstein, mais Einstein a par exemple énormément bénéficié de l'aide de mathématiciens et calculateurs dont la plupart seraient aujourd'hui remplacés par des automates.
Après, le risque que je vois se profiler à assez courte échéance, c'est que dans beaucoup de domaines le travail scientifique consiste à exécuter des plans d'expérience conçus par des systèmes automatiques. Ça n'est pas très gratifiant.
Cela dépend de ce qu'on met derrière ces termes mais en terme de créativité il y a malgré tout des limites.
Évidemment, mais il y a des années lumières entre "niveau créatif c'est le néant" et "construire des nouveaux paradigmes dans les domaines scientifiques". En fait, là, on parle de *superintelligence artificielle", et à ma connaissance aucun des modèles existants prétend à la superintelligence.
Dans tous les cas, tu fais bien d'insister sur le fait qu'il ne faut pas confondre les versions des modèles utilisées pour les tests et les benchmarks, qui sont des versions de développement avec souvent beaucoup de ressources disponibles, et les versions gratuites grand public. Même si l'écart se compte parfois en mois ou en quelques années, donc ça n'est quand même pas comparer une navette spatiale et une twingo.
Par ailleurs le boulot d'un mathématicien est de repousser l'état de l'art des maths quitte à créer de nouveaux concepts et pour l'instant on n'en est pas là.
Démontrer des théorèmes sans créer de nouvelles formes de maths c'est aussi le boulot des mathématiciens, et on en est là.
Évidemment, on peut discuter longtemps de la hauteur de la marche pour passer de "niveau moyen d'un expert sur le sujet" à "meilleur que le meilleur expert". Pour certains c'est juste une question quantitative (plus de neurones, plus de données…), pour d'autres, c'est qualitatif est potentiellement bloquant. La réalité est qu'on n'en sait rien. Je ne vois rien en tout cas qui rendrait impossible l'atteinte d'une singularité technologique dans les années qui viennent.
Or, c'est faux. L'IA ne fait que régurgiter ce qu'on lui a donné à manger, en version étiolée/modifiée. Mais en raisonnement créatif pur, c'est le néant.
Ça n'est pas évident à suivre parce que ça évolue à une vitesse vertigineuse, mais le fonctionnement d'une IA récente n'a plus grand chose à voir avec les chatbots d'il y a 3 ans. C'est toujours un peu basé sur le même principe, mais il y a des surcouches très complexes qui font que non, les IA ne sont pas du tout des machines à recracher. Il y a eu ces derniers mois des progrès qualitatifs sur les benchmarks sophistiqués (construits sur des problèmes originaux qui ne sont pas dans les données d'entrainement), et il semble que les experts trouvent de plus en plus dur de trouver des tâches où l'humain est supérieur. Donc oui, la recherche en IA progresse, non, les IA ne sont plus des machines à régurgiter.
Sur le côté créatif, même les premières versions de chatGPT ont montré leur capacité à créer : de la musique, du texte, des images, des objets 3D, etc. Je trouve que la question ne se pose même pas, ces logiciels peuvent créer des "oeuvres" de manière bien plus efficace qu'un humain moyen (bien sûr, ça n'est pas du Zola, mais encore une fois le critère d'une IA n'est pas de surpasser le meilleur humain dans tous les domaines!).
Je suis surpris qu'une IA n'ait pas encore résolu un problème de maths
Cette année, l'IA de Google a résolu 5 problèmes sur 6 des "International Math Olympiades", ce qui la classe dans les 30 premiers (c'est une compétition hyper-balaise). Les IA spécialisées ont le niveau des tous meilleurs mathématiciens du monde.
perroquets stochastiques
Le déni ne te mènera nulle part.
Il faut juste décorréler le buzz et les annonces autour de l'économie, des $$$, des problèmes écologiques liés à l'IA, et les performances réelles. On peut trouver que l'IA est trop chère, qu'elle n'a pas de business model, qu'on lui confie des tâches qu'elle n'est pas capable d'assumer, que les problèmes légaux écologiques et sociétaux posés sont énormes, etc. Tout le monde est d'accord avec ça. Mais tout ça ne justifie absolument pas de dénigrer les performances de ces modèles, et la vitesse à laquelle leurs performances évoluent. On peut se plaindre de la manière dont les gens les utilisent, mais pas de leur capacité à repousser quasiment tous les jours les limites de la complexité des tâches qu'on pensait pour très longtemps hors de portée d'un ordinateur. Utiliser des sobriquets comme "perroquet stochastique", c'est juste admettre qu'en fait tu ne sais absolument pas de quoi ces logiciels sont capables, ce qui fait que le choc sera encore plus grand quand tu les verras s'immiscer dans ta vie.
Ça n'est pas comme ça que ça marche; les salariés ne sont pas payés par rapport à leur contribution marginale au chiffre d'affaire (heureusement pour les comptables et les femmes de ménage …), mais par rapport à l'offre et la demande du marché du travail. D'ailleurs, les salariés ne sont pas non plus rémunérés par rapport à leur production, mais par rapport à la quantité d'heures travaillées.
Pour la répartition des gains de productivité, j'imagine que ça dépend énormément du secteur d'activité. Dans les secteurs très concurrentiels, les gains de productivité vont passer essentiellement dans la baisse des prix par exemple.
Ah non, pardon, "Les patrons c'est tous que des pourris, leur tête au bout d'une pique toussa toussa", c'était plutôt ça l'idée, non?
bin non, un compilo et un pré-processeur ont un comportement reproductible et qui n'évolue pas
Obtenir des réponses différentes à partir du même prompt dans un LLM est une feature ajoutée (il y a un générateur de nombres aléatoires derrière), ça n'est pas du tout une propriété de ces modèles. Tu peux régler le paramètre de température ou fixer la graine (tout dépend de ce que permet l'API à laquelle tu as accès) pour avoir toujours la même réponse, ce qui n'a que peu d'intérêt en général.
Par ailleurs, l'assembleur produit par un compilateur dépend du compilateur, de sa version, des options d'optimisation, et d'une foultitude de réglages que tu as bien pu lui passer. Il existe une grande diversité de code assembleur qui corresponde à un même code en C ou en C++, et la norme te garantit comment le binaire se comporte.
Évidemment, l'utilisation du langage naturel implique que ton LLM va prendre des décisions sémantiques, et tu ne peux pas normaliser la sortie d'un LLM comme tu peux normaliser le produit d'un compilateur. Mais ça n'est pas ton argument, tu ne disais pas que le compilateur implémentait une norme, tu disais que le compilateur produit toujours la même sortie, ce qui n'est pas vrai dans un environnement réaliste (parc hétérogène, version du compilateur différente, etc).
Oui, ça n'était pas précis; je pensais plus au nombre d'années d'études qu'à la qualification au sens strict. Par exemple, je ne suis pas certain qu'"ingénieur" soit un métier qualifié, dans le sens où beaucoup d'écoles d'ingé ont une vocation au généralisme.
Mais tu as compris le fond. On pensait que la contribution manuelle était automatisable, mais pas la contribution intellectuelle. L'ironie, c'est aussi que l'informatique a contribué à automatiser tout un tas de professions (notamment dans la comptabilité), mais j'ai l'impression que le sentiment d'être "à l'abri" dominait.
De toutes manières, c'est difficile de faire le malin, parce que peu sont à l'abri. À part quelques exemples que tu as donnés, le service à la personne, la sécurité, et les cas où un contact humain est indispensable, beaucoup de tâches sont automatisables, surtout si les modèles d'IA sont associés à la robotique.
Avec un générateur de code, on a deux "niveaux" : celui du prompt et le code généré. Il faudrait maîtriser les deux niveaux
Pourquoi tu ne peux pas imaginer que l'IA est une sorte de compilateur qui transforme "fais la moyenne de x" en "m = 0.0; for (i in range(x)) m+= x[i]; m /= size(x);"?
J'ai l'impression que tes "niveaux" ne sont pas par nature très différents des autres niveaux. Le saut semble assez important, parce qu'on a à la fois un fonctionnement interne très différent entre un réseau de neurones et un compilo, parce qu'on aime à penser que le langage naturel n'est pas très adapté pour la programmation, mais c'est juste une série de préjugés. Ta couche IA, c'est juste un logiciel qui comprend le langage naturel, qui a lu la doc, et qui a bouffé des milliards d'exemples où une requête en langage naturel était transformée en code. Si on fait abstraction du fonctionnement du logiciel, ça ressemble furieusement à un compilateur ou un pré-processeur.
Un peu comme si tu utilises un robot cuisine
Le problème, c'est qu'en pratique, étant donné le fonctionnement des LLM, c'est très peu probable et je pense que ton exemple est en fait un contre-exemple. Celui qui oublie le sel, c'est le cuisinier distrait. Une machine qui fait à manger sur la base de recettes pré-établies, elle n'oubliera jamais le sel. Éventuellement, elle en mettra dans les cas où il ne faut pas (du coup, l'humain reste expert sur ces cas exceptionnels).
c'est triste ton avis sur les humains « moyens » :/
Je n'ai pas émis d'avis, à part qu'ils se faisaient défoncer par les IA :-) J'ai l'impression que pour l'instant, les "experts" se sentent protégés, parce qu'ils sentent bien que ce qu'ils sont capables de faire est encore supérieur à ce que produisent les modèles du marché. Mais 1) on n'est pas expert en tout, et donc même si on a l'impression qu'elles sont inutiles dans les domaines qu'on maitrise, elles sont très performantes dans les domaines qu'on ne maitrise pas (parler Chinois, écrire en vers, …), 2) la vie de l'expert va constituer à serrer les fesses à la sortie de chaque nouvelle version, jusqu'au jour où la machine va commencer à devenir aussi performante, 3) la plupart des gens ne sont experts en rien, et définir la supériorité de l'humain par rapport à l'expertise de quelques uns revient à déshumaniser ces humains non-experts, ce qui n'est pas une solution.
Pour revenir à la question, je suis de ceux qui pensent que les modèles du marché on largement dépassé le seuil qui permet de les appeler "intelligents", ils sont extrêmement polyvalents et surpassent un humain pris au hasard sur la plupart des tâches, y compris celles où ils sont très mauvais (jouer aux échecs, raconter une blague…). Imaginer que pour une raison un peu magique le travail d'un humain aurait quelque chose d'intrinsèquement supérieur à celui d'une machine, ça revient à se raccrocher à une illusion basée sur pas grand chose, en fait.
Sauf que ce n'est pas du une "vraie" démocratisation
Bof, je ne vois pas trop où tu veux en venir. Quand on dit que la bagnole a rendu les gens libres de se déplacer, ils sont dépendants d'un objet propriétaire qu'ils achètent à une industrie. Quand les traitements de texte ont permis à tout le monde de taper leur CV ou n'importe quoi sans recours à un(e) dactylo, les traitements de texte étaient des logiciels propriétaires.
Et de fait, j'ai du mal à voir ce que changerait fondamentalement une IA libre. Il est impensable qu'une IA libre du niveau des gros LLM du marché puisse être mise à disposition gratuitement, les ressources nécessaires ne sont pas compatibles avec l'informatique personnelle, et les serveurs nécessaires à faire tourner un tel service nécessitent de lourds investissements. Bizarrement, du fait du dumping actuel (certes, temporaire et maisain), tout le monde peut accéder à ces ressources, mêmes ceux qui n'en auraient probablement pas les moyens. Donc je ne vois pas trop le rapport entre le libre et la démocratisation.
Sans être un technophile béat, il me semble assez raisonnable que des améliorations et optimisations vont venir dans les années qui viennent, et qui pourraient baisser de manière substantielle le coût d'entrée de ces technologies, et les rendre compatibles avec une distribution sous forme de logiciels libres. J'ai du mal à imaginer un recul de l'accès à ces technos à cause du coût. Il est aussi possible que payer un abonnement mensuel modeste, du même ordre de grandeur que le téléphone portable, puisse devenir la norme.
mais pas des compétences.
Si la compétence revient à maitriser les prompts, alors ces compétences vont se démocratiser. La plupart des développeurs C n'ont pas de compétences en assembleur, et pourtant ils le vivent bien. Et la plupart des développeurs dans les langages de haut niveau n'ont pas de compéhension fine de la manière dont la machine fonctionne, mais ils vivent avec, ça ne les empêche pas d'exploiter les possibilités offertes par le langage. Donc ces fameuses compétences d'une élite sans lesquelles tu ne peux pas vraiment comprendre ce que tu fais, on en a tous entendu parler, et on sait bien que c'est du flan. Les utilisateurs de LLM dépendront des "vrais" codeurs de la même manière que les devs C++ dépendent de ceux qui écrivent les compilateurs; et ceux qui écrivent les compilateurs dépendent de ceux qui gravent les puces, et ceux qui gravent les puces dépendent des chercheurs en physique, etc. Cette forme de dépendance où on exploite des outils qu'on ne saurait pas construire nous-mêmes, elle n'est pas nouvelle, et elle est inévitable dans un monde complexe.
La nouveauté de l'IA, c'est qu'elle peut potentiellement se passer de la couche d'en-dessous. Il est tout à fait imaginable qu'une IA soit capable de coder une IA, et donc de se passer des créateurs des outils logiciels qu'elle utilise. C'est même parfaitement théorisé, c'est lié à la singularité technologique, et le jour où on atteint ça on ne sait pas comment ça va se passer. C'est peut-être d'ailleurs comme ça qu'on pourrait arriver à faire tourner ces modèles sur des petits smartphones, si c'est possible bien sûr.
En fait, le choc est assez dur à encaisser, parce que 1) il est brutal (ça ne me semblait pas du tout évident qu'il serait faisable de faire coder décemment ce qui n'était qu'un chatbot il y a 3 ans), 2) il touche des emplois qui étaient considérés jusqu'à présent comme (très) qualifiés et assez reconnus socialement, et 3) tout le monde en dehors de la communauté des programmeurs semble se réjouir de la situation, les politiques (qui n'y comprennent rien mais ne veulent pas louper le train), le monde économique (qui ne voit que les gains de productivité et les $$$ économisés), et même le reste de la société qui voir plutôt d'un bon oeil la démocratisation du développement logiciel qui n'est plus du tout réservé à une élite.
Ici et là, on voit bien sûr fleurir des articles et des coups de gueule qui dénoncent la mauvaise qualité des programmes produits, du problème de formation des architectes logiciels du futur, avec souvent un mélange des genres entre ce qui est vrai et ce qu'on souhaiterait être vrai. C'est un peu triste, mais ça me fait vachement penser au père dans Charlie et la Chocolaterie, qui perd son travail de visseur de bouchons dans une usine de dentifrice au profit d'un robot, et qui prétend qu'aucune machine ne saura jamais visser un bouchon aussi bien qu'un humain. Ce qui me touche, c'est que c'est probablement doublement faux; une machine visse de manière probablement bien plus répétable qu'un humain, et que de doutes manières ce qui compte c'est que la différence de qualité de vissage n'a rien à voir avec la question, puisque personne ne s'intéresse à la qualité du vissage des bouchons de dentifrice à partir du moment où il est vissé.
Après, je ne lis pas l'avenir, et il va certainement y avoir une phase où n'importe quoi va être fait, jusqu'à ce qu'on détermine exactement ce qui peut ou ne peut pas être confié aux AI. Comme souvent, les AI ont du mal à égaler les meilleurs humains, mais défoncent totalement les humains "moyens", et dans une équipe de développement, il n'y a jamais que des experts.
Après tout, de toutes manières, il ne sera jamais interdit de continuer à coder à l'ancienne pendant ses loisirs, si ça nous amuse. Il y a de fortes chances également qu'on continue d'apprendre à coder à l'école, comme on apprend encore à poser des multiplications avant d'utiliser une calculatrice. Mais quand il sera établi que pour certaines tâches, coder à la main est l'équivalent de poser une multiplication, même si c'est moins drôle, il n'y aura aucune justification pour ne pas utiliser d'outil (une multiplication à la calculatrice n'est pas moins bien faite qu'à la main…).
Ah ah, vérification faite sur Wikipédia, c'est encore pire que ce qu'on pouvait imaginer :
le gallon US était défini comme le volume d'un cylindre de 6 pouces de long par 7 pouces de diamètre. Soit 230,907 pouces cubes. Arrondi à 231 pouces cubes pour la normalisation.
et tu indiques le contraire plus haut, ceux qui utilisaient le sextant pour trouver sa position mesuraient bien des angles, non ?
Mouais, alors le sextant ça ne mesure que la latitude, donc pour la longitude il fallait convertir une durée en angle (1h de décalage = 15 degrés, tu as intérêt à ne pas t'emméler les pinceaux entre les minutes d'arc et les minutes d'heures parce que ça ne tombe pas juste du tout). Tu reportes sur une carte marine graduée en degrés, et c'est tout : tu ne peux pas calculer les distances (à moins de longer un méridien) puisque une minute de longitude ne fait pas du tout 1 mille (sauf à l'équateur). Il te faut donc te référer à l'échelle de ta carte; tu prends ton compas, tu mesures la distance entre deux points, puis tu vas sur l'échelle pour comparer, et ça te donne ta distance en milles nautiques. Si c'était en km ça serait exactement pareil.
Donc les angles pour se positionner sur la carte, ça ne marche que pour la latitude, et le repérage en latitude/longitude ne te donne pas un repère orthonormal, tu ne peux pas faire de géométrie, appliquer Pythagore, ou quoi que ce soit. C'est donc mathématiquement possible de mesurer les distances en angles, mais ça n'est pas du tout pratique, il faut faire tout plein de trigonométrie. Bon, de toutes manières, quand les distances commencent à s'allonger, tout ça ne fonctionne plus à cause de la rotondité de la Terre.
Je trouve donc que l'argument "pratique" est très faible, et que l'argument de l'habitude est bien plus crédible. On peut penser que les marins du XVe siècle auraient bien aimé faire leurs calculs en unités internationales (et en grades pour les angles) si ce système avait été disponible à l'époque.
J'aurais pu avoir le même discours sur des néo-nazis qui se font virer: montent-ils leur instance?
Je crois que je comprends ta remarque en théorie, mais j'ai l'impression que c'est rhétorique, parce qu'en pratique ça n'a aucune importance. Bien sûr, si tu te fais virer ton compte néo-nazi de ton instance Mastodon, tu peux monter ta propre instance et continuer à être sur le réseau… sauf que si tu continues à poster la même chose ton instance se fera déréférencer, avec au mieux un accès en lecture seule du fediverse, et au pire une réelle exclusion si on ne t'autorise pas à suivre les comptes sur les autres instances.
Et il faut bien voir que par sa conception, Mastodon ne peut pas être infiniment éclaté en micro-instances, parce qu'il y a un coût très important (si tes abonnés sont sur 1000 instances différentes, ton serveur va devoir envoyer 1000 notifications à chaque fois que tu postes). Il ne serait pas du tout étonnant que pour des raisons de perfs et de viabilité, les instances trop petites soient plus ou moins exclues; j'avais d'ailleurs lu des trucs pessimistes sur la probable impossibilité technique pour Mastodon d'atteindre une taille équivalente à Twitter par exemple.
S'il n'y avait pas eu BS et des outils pour retrouver ses suivis et suiveurs, je suis prêt à parier que l'exode de Twitter aurait été bien plus modeste.
Oui mais ça c'est juste l'effet réseau, l'attractivité d'un concurrent est fréquence-dépendante, ce qui fait qu'atteindre le seuil de migration à partir duquel les gens acceptent de changer de système est très, très difficile.
En pratique, un réseau fédéré ne peut fonctionner que si les différents serveurs coopèrent. Et si c'est concurrentiel (par exemple, BS vs un concurrent libre), BS pourrait très bien maintenir les utilisateurs captifs en limitant les échanges (sous n'importe quel prétexte, la bande passante par exemple).
Je ne suis pas d'accord du tout. Le format 3mf n'est pas du tout un format de partage, c'est un format avancé qui intègre des informations qui n'ont de sens que pour une technologie, voire pour un modèle d'imprimante particulier. Heureusement, la plupart des slicers savent ignorer les informations qui ne sont pas pertinentes pour eux (un peu comme un pilote d'imprimante sait gérer les indications de couleur si c'est une imprimante noir et blanc), mais c'est du bricolage.
Donc oui, le stl est un format merdique, parce qu'il est sensible aux erreurs, qu'il existe en deux versions (binaire et texte) ce qui ne facilite pas l'interopérabilité, parce qu'il ne sait pas gérer plus d'un objet, qu'il est mal spécifié (par exemple en théorie toutes les coordonnées doivent être positives, ce qui est pourrissime parce que la coordonnée (0,0,0) a souvent du sens, ce qui fait que tous les logiciels acceptent les coordonnées négatives). Mais il est hyper-utilisé en tant que format de partage pour les objets simples parce qu'il est simple et qu'il décrit une structure 3D de manière totalement agnostique vis-à-vis de l'utilisation que tu veux en faire. C'est donc un format d'échange très pratique, comme pourrait l'être le svg par exemple. L'équivalent du 3mf, ça serait du svg avec des indications de résolution de l'imprimante, mélangées à du postscript ou autre trucs spécifiques à ton matériel.
C'est typiquement un cas où l'utilité du format prime sur la qualité de la spec.
un astronome ou astrophysicien utilisera plutôt l'année lumière que le mètre pour les distances
Plutôt le parsec en fait, mais c'est une sale habitude parce que de toutes manières il faudra convertir dès qu'on fait un calcul parce que les constantes sont en SI.
Les physiciens des atomes et particules ou cristallographie préfèrent souvent l'Angström
C'est du pur système métrique
le boulanger a parfois des pains de 5 livres
Il va bientôt partir à la retraite, probablement.
Les paysans ont des tailles de champs en hectares
C'est du système métrique
l'informaticien a des tailles de disque dur incompréhensibles
C'est du système métrique à l'arrondi près :-)
Le mieux reste tout de même d'être d'accord sur les unités retenues
Dès qu'on code un truc qui a un risque de poser un problème de conversion, surtout quand il y a beaucoup de $$$ en jeu et/ou des vies humaines, il faut surtout immédiatement utiliser un format de données qui intègre l'unité (*) et qui sait additionner des mètres et des yards. On n'est plus en 1970 et ce n'est pas le bit supplémentaire qui justifie l'idée d'écrire dans la doc que les distances sont en mm et que tout le monde lira la doc.
(*) que les génies qui ont décidé que le format de stéréolithographie STL était en unité libre soient maudits sur 17 générations.
le mile marin est une mesure qui a du sens et qui permet très facilement d'estimer les distances à parcourir à partir de la vitesse en noeuds et de se repérer sur une carte marine
C'est super bizarre comme remarque. C'est comme dire que les pieds, les pouces et les yards étaient logiques parce qu'ils permettent de définir les volumes en gallons et les vitesses en miles par heure :-S
Il y a juste certains domaines qui, pour des raisons historiques, n'ont pas suivi le mouvement du passage au système métrique. Mais l'utilisation d'un autre système que le système métrique n'est absolument pas justifiable autrement que par l'habitude; les cartes terrestres (type IGN) sont graduées en km (de mémoire, les latitudes et les longitudes ne sont indiquées que sur les axes), et il n'y a aucune raison qui empêcheraient de le faire sur une carte marine…
On peut aussi noter que les marins utilisent un système hybride pour les coordonnées, puisque les minutes d'arc ne sont pas divisées en secondes mais en décimales de minutes.
Enfin, la longueur du mille nautique est définie par rapport au mètre, et pas pas rapport aux coordonnées. En plus, elle a été arrondie au mètre le plus proche. Du fait de la forme de la Terre, un mille va pouvoir faire un peu plus ou un peu moins qu'une minute d'arc. Pas assez pour poser de réels problèmes (+ ou - 1 mètre)
Wikipédia explique bien que:
À la création du Système international d'unités en 1960, le BIPM déconseille l'usage du mille marin
En 2019, le BIPM ne reconnaît plus l'usage du mille marin
Donc on est bien en présence d'un reliquat de système non-métrique approximatif, et pas du tout de quelque chose qui aurait été conçu pour un usage spécifique. D'ailleurs, l'encablure (1/10 de mille) et la brasse (1/1000 de mille) ont déja été perdus.
[^] # Re: Sans consentement vraiment ?
Posté par arnaudus . En réponse au lien YouTube édite automatiquement et sans consentement des vidéos avec de l'IA. Évalué à 3 (+0/-0).
le modifier […] aux seules fins d'exploitation, de promotion et d'amélioration du Service.
Donc ce que je comprends, c'est que tu peux changer la résolution, tu peux extraire une vignette statique pour donner envie de cliquer, tu peux appliquer des filtres pour diminuer les effets de la compression, ce genre de choses. Mais comme la clause est pas mal délimitée, je ne vois pas en quoi elle serait automatiquement abusive.
[^] # Re: Sans consentement vraiment ?
Posté par arnaudus . En réponse au lien YouTube édite automatiquement et sans consentement des vidéos avec de l'IA. Évalué à 1 (+1/-3). Dernière modification le 26 août 2025 à 10:23.
En même temps, j'ai du mal à trouver quelque chose d'abusif dans la liste de droits accordés étant donné la finalité du service. Peut-être sur la cession de la licence, avec un risque de perte de contrôle sur la diffusion?
Je veux dire, c'est bien d'éplucher les CGU, mais si tu mets une vidéo sur Youtube, c'est normal que tu leur cèdes le droit de la diffuser…
# Un peu de recul...
Posté par arnaudus . En réponse au lien YouTube édite automatiquement et sans consentement des vidéos avec de l'IA. Évalué à 8 (+8/-3).
Il y a la "hype" de l'AI, et il y a aussi la "hype" de l'anti-AI. Pour l'instant, si on s'en tient aux éléments qu'on trouve dans ces articles, il ne s'agit que de traitements automatiques portant sur la qualité des vidéos, ce qui est essentiellement la même chose que fait Youtube depuis 20 ans, avec des algorithmes de compression/décompression avec pertes, diffusion sous plusieurs résolutions, compression du son, etc. Les rendus non-naturels peuvent être obtenus par l'application de filtres trop agressifs sur la netteté, le flou, la correction du moiré, ou n'importe quel traitement d'image, qu'il implique un algo de machine learning ou non. Par contre, on est bien d'accord que si ça se voit, c'est qu'il y a un problème. En principe ça ne devrait être que des filtres techniques.
Les arguments à base de "l'AI modifie le monde selon ses critères" me semblent assez moisis. Parce que si on va par là, JPEG modifie aussi le monde selon ses critères, l'algorithme choisit quels genre de détails doivent être conservés et quels détails peuvent être effacés. C'est d'ailleurs assez étonnant à quel point on peut devenir tolérants aux artefacts de compression JPEG ou MP3, par exemple. On est peut-être très sensibles aux artefacts de correction d'image par des algos de ML, parce qu'on n'a pas l'habitude d'en voir.
[^] # Re: La fin de la bulle ?
Posté par arnaudus . En réponse au lien IA - Le pari de Sam Altman est-il voué à l’échec ? . Évalué à 6 (+3/-0).
Investir dans l'économie réelle? C'est pas un très bon produit financier…
[^] # Re: Quel intérêt ?
Posté par arnaudus . En réponse au lien Belkin balance ses objets connectés Wemo aux orties. Évalué à 2 (+2/-3).
L'intérêt pour qui? Pour toi, pour Mr/Mme tout le monde, pour les fabricants, ou pour ceux qui collectent les données?
Un certain nombre de ces trucs sont des gadgets, leur possession relève d'une balance entre le prix, l'intérêt personnel qu'on porte au gadget en question, et l'importance qu'on porte aux données partagées. Tout le monde n'est pas totalement hermétique à l'intérêt des gadgets; même quand on est au courant des problématiques de partage de données, l'être humain aime à transgresser les interdits pour un peu d'amusement. Typiquement, le traceur GPS au collier du chat (et je n'ai même pas demandé au chat pour la violation caractérisée de sa vie privée).
Il y a aussi plein de trucs assez utiles qui n'ont de sens que s'ils sont accessibles de l'extérieur, ce qui veut probablement dire pour la plupart des gens une application propriétaire sur un smartphone + un intermédiaire dans le cloud du fournisseur. Ça va du pilotage du chauffage, des prises de courant, aux systèmes de capteurs et caméras. La sonnette connectée avec possibilité d'interagir à partir du smartphone, ça résoud un certain nombre de problèmes de la vie quotidienne par exemple. C'est toujours difficile de dire que c'est indispensable, puisqu'évidemment l'être humain a su se dispenser de tout avant que ça soit disponible, mais voila, ces outils comblent des besoins.
[^] # Re: Inédit pour les métiers qualifiés
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4 (+1/-0).
Comme je n'ai dit, je ne suis pas sûr de le comprendre. Si l'idée est de dire que certains scientifiques sont meilleurs que d'autres, c'est difficile de le nier. Mais Einstein semble impliquer quelque chose de bien plus tortueux à mon sens, c'est l'idée que les scientifiques géniaux n'appartiennent qu'à une catégorie (que j'ai du mal à cerner parce qu'il semble que ça concerne le rapport que les gens ont avec la démarche scientifique). Disons que je ne comprends pas sa sociologie de la science, peut-être d'ailleurs parce que ça correspond à une époque lointaine et que le fonctionnement de la science a beaucoup changé depuis.
Avec des majuscules, on a toujours l'impression que ça rend les trucs vachement profonds. Disons que la "starification" de la science est quelque chose qui plait énormément au public, ainsi qu'aux politiques (qui peuvent en profiter pour utiliser des critères bureaucratiques d'"excellence" pour piloter les financements). Mais en tout cas à l'heure actuelle, on se rend bien compte que les mécanismes de starification sont assez déconnectés de la contribution scientifique des individus en question (on peut penser à un un prof de médecine Marseillais par exemple). L'histoire des sciences est truffée d'exemples où la postérité à attribué à une personne plus médiatique le résultat d'un travail collectif, ou a "choisi" au hasard parmi un ensemble de travaux équivalents publiés au même moment.
En plus, je ne suis même pas sûr que ça soit vrai. Par exemple, est-ce que Mendel fait partir de "Ceux qui font la Science"? Ses travaux étaient en avance sur son temps, mais il n'a été lu ni par ses contemporains qui auraient pu en profiter (notamment Darwin et Wallace), ni par ses successeurs qui ont redécouvert indépendamment les lois de la génétique. Du coup, on attribue à Mendel une découverte qu'il a été en effet le premier à faire, mais qui n'a eu aucune influence sur la progression des connaissances. Non, franchement, je ne comprends pas cette idée de lier des traits de personnalité avec un potentiel de construction de l'édifice scientifique, elle avait peut-être un sens il y a 120 ans, mais en tout cas ce sens a dû se perdre parce que je ne vois rien dans la réalité de la science moderne qui puisse l'étayer.
[^] # Re: Inédit pour les métiers qualifiés
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4 (+1/-0).
La vision d'Einstein est quand même celle d'un élitisme scientifique assez vertigineux, et je en suis même pas certain de bien comprendre ce qu'il entend avec ses deux catégories. Il y a un rôle pour beaucoup dans la science, pour le tâcheron qui collecte des données, pour celui qui fait beaucoup de bruit avec de nombreuses idées toutes aussi fausses les unes que les autres, mais qui obligent la communauté à réfléchir aux raisons pour lesquelles ces idées sont fausses, pour celui ou celle qui consacre sa vie à un problème obscur qui n'intéresse personne pour le moment, ceux qui parlent aux politiques, aux journalistes, au grand public; ceux qui s'investissent dans l'enseignement et l'encadrement des étudiants, ceux qui assurent le fonctionnement des institutions, ceux qui ramènent beaucoup d'argent, ceux qui conçoivent des expériences qui coûtent très cher, ceux qui conçoivent des expériences qui ne coûtent pas cher…
Après, c'est sûr que l'histoire des sciences ne se rappelle que de Newton ou d'Einstein, mais Einstein a par exemple énormément bénéficié de l'aide de mathématiciens et calculateurs dont la plupart seraient aujourd'hui remplacés par des automates.
Après, le risque que je vois se profiler à assez courte échéance, c'est que dans beaucoup de domaines le travail scientifique consiste à exécuter des plans d'expérience conçus par des systèmes automatiques. Ça n'est pas très gratifiant.
[^] # Re: Inédit pour les métiers qualifiés
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 3 (+0/-0).
Évidemment, mais il y a des années lumières entre "niveau créatif c'est le néant" et "construire des nouveaux paradigmes dans les domaines scientifiques". En fait, là, on parle de *superintelligence artificielle", et à ma connaissance aucun des modèles existants prétend à la superintelligence.
Dans tous les cas, tu fais bien d'insister sur le fait qu'il ne faut pas confondre les versions des modèles utilisées pour les tests et les benchmarks, qui sont des versions de développement avec souvent beaucoup de ressources disponibles, et les versions gratuites grand public. Même si l'écart se compte parfois en mois ou en quelques années, donc ça n'est quand même pas comparer une navette spatiale et une twingo.
Démontrer des théorèmes sans créer de nouvelles formes de maths c'est aussi le boulot des mathématiciens, et on en est là.
Évidemment, on peut discuter longtemps de la hauteur de la marche pour passer de "niveau moyen d'un expert sur le sujet" à "meilleur que le meilleur expert". Pour certains c'est juste une question quantitative (plus de neurones, plus de données…), pour d'autres, c'est qualitatif est potentiellement bloquant. La réalité est qu'on n'en sait rien. Je ne vois rien en tout cas qui rendrait impossible l'atteinte d'une singularité technologique dans les années qui viennent.
[^] # Re: Inédit pour les métiers qualifiés
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 5 (+2/-0).
Ça n'est pas évident à suivre parce que ça évolue à une vitesse vertigineuse, mais le fonctionnement d'une IA récente n'a plus grand chose à voir avec les chatbots d'il y a 3 ans. C'est toujours un peu basé sur le même principe, mais il y a des surcouches très complexes qui font que non, les IA ne sont pas du tout des machines à recracher. Il y a eu ces derniers mois des progrès qualitatifs sur les benchmarks sophistiqués (construits sur des problèmes originaux qui ne sont pas dans les données d'entrainement), et il semble que les experts trouvent de plus en plus dur de trouver des tâches où l'humain est supérieur. Donc oui, la recherche en IA progresse, non, les IA ne sont plus des machines à régurgiter.
Sur le côté créatif, même les premières versions de chatGPT ont montré leur capacité à créer : de la musique, du texte, des images, des objets 3D, etc. Je trouve que la question ne se pose même pas, ces logiciels peuvent créer des "oeuvres" de manière bien plus efficace qu'un humain moyen (bien sûr, ça n'est pas du Zola, mais encore une fois le critère d'une IA n'est pas de surpasser le meilleur humain dans tous les domaines!).
Cette année, l'IA de Google a résolu 5 problèmes sur 6 des "International Math Olympiades", ce qui la classe dans les 30 premiers (c'est une compétition hyper-balaise). Les IA spécialisées ont le niveau des tous meilleurs mathématiciens du monde.
Le déni ne te mènera nulle part.
Il faut juste décorréler le buzz et les annonces autour de l'économie, des $$$, des problèmes écologiques liés à l'IA, et les performances réelles. On peut trouver que l'IA est trop chère, qu'elle n'a pas de business model, qu'on lui confie des tâches qu'elle n'est pas capable d'assumer, que les problèmes légaux écologiques et sociétaux posés sont énormes, etc. Tout le monde est d'accord avec ça. Mais tout ça ne justifie absolument pas de dénigrer les performances de ces modèles, et la vitesse à laquelle leurs performances évoluent. On peut se plaindre de la manière dont les gens les utilisent, mais pas de leur capacité à repousser quasiment tous les jours les limites de la complexité des tâches qu'on pensait pour très longtemps hors de portée d'un ordinateur. Utiliser des sobriquets comme "perroquet stochastique", c'est juste admettre qu'en fait tu ne sais absolument pas de quoi ces logiciels sont capables, ce qui fait que le choc sera encore plus grand quand tu les verras s'immiscer dans ta vie.
[^] # Re: meta
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 0 (+2/-5).
Ça n'est pas comme ça que ça marche; les salariés ne sont pas payés par rapport à leur contribution marginale au chiffre d'affaire (heureusement pour les comptables et les femmes de ménage …), mais par rapport à l'offre et la demande du marché du travail. D'ailleurs, les salariés ne sont pas non plus rémunérés par rapport à leur production, mais par rapport à la quantité d'heures travaillées.
Pour la répartition des gains de productivité, j'imagine que ça dépend énormément du secteur d'activité. Dans les secteurs très concurrentiels, les gains de productivité vont passer essentiellement dans la baisse des prix par exemple.
Ah non, pardon, "Les patrons c'est tous que des pourris, leur tête au bout d'une pique toussa toussa", c'était plutôt ça l'idée, non?
[^] # Re: meta
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 5 (+2/-0).
Où alors réaliser qu'on n'est pas payés par rapport au plaisir qu'on prend à son activité?
[^] # Re: Inédit pour les métiers qualifiés
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 2 (+1/-2).
Obtenir des réponses différentes à partir du même prompt dans un LLM est une feature ajoutée (il y a un générateur de nombres aléatoires derrière), ça n'est pas du tout une propriété de ces modèles. Tu peux régler le paramètre de température ou fixer la graine (tout dépend de ce que permet l'API à laquelle tu as accès) pour avoir toujours la même réponse, ce qui n'a que peu d'intérêt en général.
Par ailleurs, l'assembleur produit par un compilateur dépend du compilateur, de sa version, des options d'optimisation, et d'une foultitude de réglages que tu as bien pu lui passer. Il existe une grande diversité de code assembleur qui corresponde à un même code en C ou en C++, et la norme te garantit comment le binaire se comporte.
Évidemment, l'utilisation du langage naturel implique que ton LLM va prendre des décisions sémantiques, et tu ne peux pas normaliser la sortie d'un LLM comme tu peux normaliser le produit d'un compilateur. Mais ça n'est pas ton argument, tu ne disais pas que le compilateur implémentait une norme, tu disais que le compilateur produit toujours la même sortie, ce qui n'est pas vrai dans un environnement réaliste (parc hétérogène, version du compilateur différente, etc).
[^] # Re: Inédit pour les métiers qualifiés
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 3 (+0/-0).
Oui, ça n'était pas précis; je pensais plus au nombre d'années d'études qu'à la qualification au sens strict. Par exemple, je ne suis pas certain qu'"ingénieur" soit un métier qualifié, dans le sens où beaucoup d'écoles d'ingé ont une vocation au généralisme.
Mais tu as compris le fond. On pensait que la contribution manuelle était automatisable, mais pas la contribution intellectuelle. L'ironie, c'est aussi que l'informatique a contribué à automatiser tout un tas de professions (notamment dans la comptabilité), mais j'ai l'impression que le sentiment d'être "à l'abri" dominait.
De toutes manières, c'est difficile de faire le malin, parce que peu sont à l'abri. À part quelques exemples que tu as donnés, le service à la personne, la sécurité, et les cas où un contact humain est indispensable, beaucoup de tâches sont automatisables, surtout si les modèles d'IA sont associés à la robotique.
[^] # Re: Inédit pour les métiers qualifiés
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 1 (+1/-3). Dernière modification le 11 août 2025 à 17:54.
Pourquoi tu ne peux pas imaginer que l'IA est une sorte de compilateur qui transforme "fais la moyenne de x" en "m = 0.0; for (i in range(x)) m+= x[i]; m /= size(x);"?
J'ai l'impression que tes "niveaux" ne sont pas par nature très différents des autres niveaux. Le saut semble assez important, parce qu'on a à la fois un fonctionnement interne très différent entre un réseau de neurones et un compilo, parce qu'on aime à penser que le langage naturel n'est pas très adapté pour la programmation, mais c'est juste une série de préjugés. Ta couche IA, c'est juste un logiciel qui comprend le langage naturel, qui a lu la doc, et qui a bouffé des milliards d'exemples où une requête en langage naturel était transformée en code. Si on fait abstraction du fonctionnement du logiciel, ça ressemble furieusement à un compilateur ou un pré-processeur.
Le problème, c'est qu'en pratique, étant donné le fonctionnement des LLM, c'est très peu probable et je pense que ton exemple est en fait un contre-exemple. Celui qui oublie le sel, c'est le cuisinier distrait. Une machine qui fait à manger sur la base de recettes pré-établies, elle n'oubliera jamais le sel. Éventuellement, elle en mettra dans les cas où il ne faut pas (du coup, l'humain reste expert sur ces cas exceptionnels).
[^] # Re: Inédit pour les métiers qualifiés
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 4 (+2/-1).
Je n'ai pas émis d'avis, à part qu'ils se faisaient défoncer par les IA :-) J'ai l'impression que pour l'instant, les "experts" se sentent protégés, parce qu'ils sentent bien que ce qu'ils sont capables de faire est encore supérieur à ce que produisent les modèles du marché. Mais 1) on n'est pas expert en tout, et donc même si on a l'impression qu'elles sont inutiles dans les domaines qu'on maitrise, elles sont très performantes dans les domaines qu'on ne maitrise pas (parler Chinois, écrire en vers, …), 2) la vie de l'expert va constituer à serrer les fesses à la sortie de chaque nouvelle version, jusqu'au jour où la machine va commencer à devenir aussi performante, 3) la plupart des gens ne sont experts en rien, et définir la supériorité de l'humain par rapport à l'expertise de quelques uns revient à déshumaniser ces humains non-experts, ce qui n'est pas une solution.
Pour revenir à la question, je suis de ceux qui pensent que les modèles du marché on largement dépassé le seuil qui permet de les appeler "intelligents", ils sont extrêmement polyvalents et surpassent un humain pris au hasard sur la plupart des tâches, y compris celles où ils sont très mauvais (jouer aux échecs, raconter une blague…). Imaginer que pour une raison un peu magique le travail d'un humain aurait quelque chose d'intrinsèquement supérieur à celui d'une machine, ça revient à se raccrocher à une illusion basée sur pas grand chose, en fait.
[^] # Re: Inédit pour les métiers qualifiés
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 3 (+1/-1).
Bof, je ne vois pas trop où tu veux en venir. Quand on dit que la bagnole a rendu les gens libres de se déplacer, ils sont dépendants d'un objet propriétaire qu'ils achètent à une industrie. Quand les traitements de texte ont permis à tout le monde de taper leur CV ou n'importe quoi sans recours à un(e) dactylo, les traitements de texte étaient des logiciels propriétaires.
Et de fait, j'ai du mal à voir ce que changerait fondamentalement une IA libre. Il est impensable qu'une IA libre du niveau des gros LLM du marché puisse être mise à disposition gratuitement, les ressources nécessaires ne sont pas compatibles avec l'informatique personnelle, et les serveurs nécessaires à faire tourner un tel service nécessitent de lourds investissements. Bizarrement, du fait du dumping actuel (certes, temporaire et maisain), tout le monde peut accéder à ces ressources, mêmes ceux qui n'en auraient probablement pas les moyens. Donc je ne vois pas trop le rapport entre le libre et la démocratisation.
Sans être un technophile béat, il me semble assez raisonnable que des améliorations et optimisations vont venir dans les années qui viennent, et qui pourraient baisser de manière substantielle le coût d'entrée de ces technologies, et les rendre compatibles avec une distribution sous forme de logiciels libres. J'ai du mal à imaginer un recul de l'accès à ces technos à cause du coût. Il est aussi possible que payer un abonnement mensuel modeste, du même ordre de grandeur que le téléphone portable, puisse devenir la norme.
Si la compétence revient à maitriser les prompts, alors ces compétences vont se démocratiser. La plupart des développeurs C n'ont pas de compétences en assembleur, et pourtant ils le vivent bien. Et la plupart des développeurs dans les langages de haut niveau n'ont pas de compéhension fine de la manière dont la machine fonctionne, mais ils vivent avec, ça ne les empêche pas d'exploiter les possibilités offertes par le langage. Donc ces fameuses compétences d'une élite sans lesquelles tu ne peux pas vraiment comprendre ce que tu fais, on en a tous entendu parler, et on sait bien que c'est du flan. Les utilisateurs de LLM dépendront des "vrais" codeurs de la même manière que les devs C++ dépendent de ceux qui écrivent les compilateurs; et ceux qui écrivent les compilateurs dépendent de ceux qui gravent les puces, et ceux qui gravent les puces dépendent des chercheurs en physique, etc. Cette forme de dépendance où on exploite des outils qu'on ne saurait pas construire nous-mêmes, elle n'est pas nouvelle, et elle est inévitable dans un monde complexe.
La nouveauté de l'IA, c'est qu'elle peut potentiellement se passer de la couche d'en-dessous. Il est tout à fait imaginable qu'une IA soit capable de coder une IA, et donc de se passer des créateurs des outils logiciels qu'elle utilise. C'est même parfaitement théorisé, c'est lié à la singularité technologique, et le jour où on atteint ça on ne sait pas comment ça va se passer. C'est peut-être d'ailleurs comme ça qu'on pourrait arriver à faire tourner ces modèles sur des petits smartphones, si c'est possible bien sûr.
# Inédit pour les métiers qualifiés
Posté par arnaudus . En réponse au journal Coder avec l'IA : le déclin du plaisir. Évalué à 7 (+5/-1). Dernière modification le 11 août 2025 à 14:17.
En fait, le choc est assez dur à encaisser, parce que 1) il est brutal (ça ne me semblait pas du tout évident qu'il serait faisable de faire coder décemment ce qui n'était qu'un chatbot il y a 3 ans), 2) il touche des emplois qui étaient considérés jusqu'à présent comme (très) qualifiés et assez reconnus socialement, et 3) tout le monde en dehors de la communauté des programmeurs semble se réjouir de la situation, les politiques (qui n'y comprennent rien mais ne veulent pas louper le train), le monde économique (qui ne voit que les gains de productivité et les $$$ économisés), et même le reste de la société qui voir plutôt d'un bon oeil la démocratisation du développement logiciel qui n'est plus du tout réservé à une élite.
Ici et là, on voit bien sûr fleurir des articles et des coups de gueule qui dénoncent la mauvaise qualité des programmes produits, du problème de formation des architectes logiciels du futur, avec souvent un mélange des genres entre ce qui est vrai et ce qu'on souhaiterait être vrai. C'est un peu triste, mais ça me fait vachement penser au père dans Charlie et la Chocolaterie, qui perd son travail de visseur de bouchons dans une usine de dentifrice au profit d'un robot, et qui prétend qu'aucune machine ne saura jamais visser un bouchon aussi bien qu'un humain. Ce qui me touche, c'est que c'est probablement doublement faux; une machine visse de manière probablement bien plus répétable qu'un humain, et que de doutes manières ce qui compte c'est que la différence de qualité de vissage n'a rien à voir avec la question, puisque personne ne s'intéresse à la qualité du vissage des bouchons de dentifrice à partir du moment où il est vissé.
Après, je ne lis pas l'avenir, et il va certainement y avoir une phase où n'importe quoi va être fait, jusqu'à ce qu'on détermine exactement ce qui peut ou ne peut pas être confié aux AI. Comme souvent, les AI ont du mal à égaler les meilleurs humains, mais défoncent totalement les humains "moyens", et dans une équipe de développement, il n'y a jamais que des experts.
Après tout, de toutes manières, il ne sera jamais interdit de continuer à coder à l'ancienne pendant ses loisirs, si ça nous amuse. Il y a de fortes chances également qu'on continue d'apprendre à coder à l'école, comme on apprend encore à poser des multiplications avant d'utiliser une calculatrice. Mais quand il sera établi que pour certaines tâches, coder à la main est l'équivalent de poser une multiplication, même si c'est moins drôle, il n'y aura aucune justification pour ne pas utiliser d'outil (une multiplication à la calculatrice n'est pas moins bien faite qu'à la main…).
[^] # Re: Système impérial
Posté par arnaudus . En réponse à la dépêche La convention du mètre et l’ODF 150 et 20 ans d’ouverture. Évalué à 5 (+2/-0).
Ah ah, vérification faite sur Wikipédia, c'est encore pire que ce qu'on pouvait imaginer :
le gallon US était défini comme le volume d'un cylindre de 6 pouces de long par 7 pouces de diamètre. Soit 230,907 pouces cubes. Arrondi à 231 pouces cubes pour la normalisation.
Lol lol.
[^] # Re: ravel ?
Posté par arnaudus . En réponse à la dépêche La convention du mètre et l’ODF 150 et 20 ans d’ouverture. Évalué à 3 (+0/-0).
C'est super intéressant, je ne savais pas que la captation de l'héritage par la domestique avait été organisée par un collabo qui bossait à la SACEM…
Je suis surpris qu'il n'y ait pas de droits de succession sur les droits patrimoniaux, comment ça marche?
[^] # Re: Système impérial
Posté par arnaudus . En réponse à la dépêche La convention du mètre et l’ODF 150 et 20 ans d’ouverture. Évalué à 3 (+0/-0).
Mouais, alors le sextant ça ne mesure que la latitude, donc pour la longitude il fallait convertir une durée en angle (1h de décalage = 15 degrés, tu as intérêt à ne pas t'emméler les pinceaux entre les minutes d'arc et les minutes d'heures parce que ça ne tombe pas juste du tout). Tu reportes sur une carte marine graduée en degrés, et c'est tout : tu ne peux pas calculer les distances (à moins de longer un méridien) puisque une minute de longitude ne fait pas du tout 1 mille (sauf à l'équateur). Il te faut donc te référer à l'échelle de ta carte; tu prends ton compas, tu mesures la distance entre deux points, puis tu vas sur l'échelle pour comparer, et ça te donne ta distance en milles nautiques. Si c'était en km ça serait exactement pareil.
Donc les angles pour se positionner sur la carte, ça ne marche que pour la latitude, et le repérage en latitude/longitude ne te donne pas un repère orthonormal, tu ne peux pas faire de géométrie, appliquer Pythagore, ou quoi que ce soit. C'est donc mathématiquement possible de mesurer les distances en angles, mais ça n'est pas du tout pratique, il faut faire tout plein de trigonométrie. Bon, de toutes manières, quand les distances commencent à s'allonger, tout ça ne fonctionne plus à cause de la rotondité de la Terre.
Je trouve donc que l'argument "pratique" est très faible, et que l'argument de l'habitude est bien plus crédible. On peut penser que les marins du XVe siècle auraient bien aimé faire leurs calculs en unités internationales (et en grades pour les angles) si ce système avait été disponible à l'époque.
[^] # Re: Système impérial
Posté par arnaudus . En réponse à la dépêche La convention du mètre et l’ODF 150 et 20 ans d’ouverture. Évalué à 4 (+1/-0).
1 mile = 1 760 yards (5 280 pieds).
gallon US = 231 pouces cubes = 128 once US
C'est pas une approximation, c'est une définition. Et pourquoi ces conversions? Parce que le monde n'est pas passé au système métrique pour rien.
[^] # Re: Merdification
Posté par arnaudus . En réponse au journal Traduction : Vous ne pouvez combattre l'enshittification. Évalué à 4 (+1/-0).
Je crois que je comprends ta remarque en théorie, mais j'ai l'impression que c'est rhétorique, parce qu'en pratique ça n'a aucune importance. Bien sûr, si tu te fais virer ton compte néo-nazi de ton instance Mastodon, tu peux monter ta propre instance et continuer à être sur le réseau… sauf que si tu continues à poster la même chose ton instance se fera déréférencer, avec au mieux un accès en lecture seule du fediverse, et au pire une réelle exclusion si on ne t'autorise pas à suivre les comptes sur les autres instances.
Et il faut bien voir que par sa conception, Mastodon ne peut pas être infiniment éclaté en micro-instances, parce qu'il y a un coût très important (si tes abonnés sont sur 1000 instances différentes, ton serveur va devoir envoyer 1000 notifications à chaque fois que tu postes). Il ne serait pas du tout étonnant que pour des raisons de perfs et de viabilité, les instances trop petites soient plus ou moins exclues; j'avais d'ailleurs lu des trucs pessimistes sur la probable impossibilité technique pour Mastodon d'atteindre une taille équivalente à Twitter par exemple.
Oui mais ça c'est juste l'effet réseau, l'attractivité d'un concurrent est fréquence-dépendante, ce qui fait qu'atteindre le seuil de migration à partir duquel les gens acceptent de changer de système est très, très difficile.
En pratique, un réseau fédéré ne peut fonctionner que si les différents serveurs coopèrent. Et si c'est concurrentiel (par exemple, BS vs un concurrent libre), BS pourrait très bien maintenir les utilisateurs captifs en limitant les échanges (sous n'importe quel prétexte, la bande passante par exemple).
[^] # Re: ni l'un, ni l'autre
Posté par arnaudus . En réponse à la dépêche La convention du mètre et l’ODF 150 et 20 ans d’ouverture. Évalué à 3 (+0/-0).
Je ne suis pas d'accord du tout. Le format 3mf n'est pas du tout un format de partage, c'est un format avancé qui intègre des informations qui n'ont de sens que pour une technologie, voire pour un modèle d'imprimante particulier. Heureusement, la plupart des slicers savent ignorer les informations qui ne sont pas pertinentes pour eux (un peu comme un pilote d'imprimante sait gérer les indications de couleur si c'est une imprimante noir et blanc), mais c'est du bricolage.
Donc oui, le stl est un format merdique, parce qu'il est sensible aux erreurs, qu'il existe en deux versions (binaire et texte) ce qui ne facilite pas l'interopérabilité, parce qu'il ne sait pas gérer plus d'un objet, qu'il est mal spécifié (par exemple en théorie toutes les coordonnées doivent être positives, ce qui est pourrissime parce que la coordonnée (0,0,0) a souvent du sens, ce qui fait que tous les logiciels acceptent les coordonnées négatives). Mais il est hyper-utilisé en tant que format de partage pour les objets simples parce qu'il est simple et qu'il décrit une structure 3D de manière totalement agnostique vis-à-vis de l'utilisation que tu veux en faire. C'est donc un format d'échange très pratique, comme pourrait l'être le svg par exemple. L'équivalent du 3mf, ça serait du svg avec des indications de résolution de l'imprimante, mélangées à du postscript ou autre trucs spécifiques à ton matériel.
C'est typiquement un cas où l'utilité du format prime sur la qualité de la spec.
[^] # Re: ni l'un, ni l'autre
Posté par arnaudus . En réponse à la dépêche La convention du mètre et l’ODF 150 et 20 ans d’ouverture. Évalué à 3 (+0/-0). Dernière modification le 08 août 2025 à 15:15.
Plutôt le parsec en fait, mais c'est une sale habitude parce que de toutes manières il faudra convertir dès qu'on fait un calcul parce que les constantes sont en SI.
C'est du pur système métrique
Il va bientôt partir à la retraite, probablement.
C'est du système métrique
C'est du système métrique à l'arrondi près :-)
Dès qu'on code un truc qui a un risque de poser un problème de conversion, surtout quand il y a beaucoup de $$$ en jeu et/ou des vies humaines, il faut surtout immédiatement utiliser un format de données qui intègre l'unité (*) et qui sait additionner des mètres et des yards. On n'est plus en 1970 et ce n'est pas le bit supplémentaire qui justifie l'idée d'écrire dans la doc que les distances sont en mm et que tout le monde lira la doc.
(*) que les génies qui ont décidé que le format de stéréolithographie STL était en unité libre soient maudits sur 17 générations.
[^] # Re: Système impérial
Posté par arnaudus . En réponse à la dépêche La convention du mètre et l’ODF 150 et 20 ans d’ouverture. Évalué à 4 (+1/-0). Dernière modification le 08 août 2025 à 14:59.
C'est super bizarre comme remarque. C'est comme dire que les pieds, les pouces et les yards étaient logiques parce qu'ils permettent de définir les volumes en gallons et les vitesses en miles par heure :-S
Il y a juste certains domaines qui, pour des raisons historiques, n'ont pas suivi le mouvement du passage au système métrique. Mais l'utilisation d'un autre système que le système métrique n'est absolument pas justifiable autrement que par l'habitude; les cartes terrestres (type IGN) sont graduées en km (de mémoire, les latitudes et les longitudes ne sont indiquées que sur les axes), et il n'y a aucune raison qui empêcheraient de le faire sur une carte marine…
On peut aussi noter que les marins utilisent un système hybride pour les coordonnées, puisque les minutes d'arc ne sont pas divisées en secondes mais en décimales de minutes.
Enfin, la longueur du mille nautique est définie par rapport au mètre, et pas pas rapport aux coordonnées. En plus, elle a été arrondie au mètre le plus proche. Du fait de la forme de la Terre, un mille va pouvoir faire un peu plus ou un peu moins qu'une minute d'arc. Pas assez pour poser de réels problèmes (+ ou - 1 mètre)
Wikipédia explique bien que:
Donc on est bien en présence d'un reliquat de système non-métrique approximatif, et pas du tout de quelque chose qui aurait été conçu pour un usage spécifique. D'ailleurs, l'encablure (1/10 de mille) et la brasse (1/1000 de mille) ont déja été perdus.