Cette discussion m'a permis d'élargir un peu ma perspective.
J'ai un peu la flemme de lire toutes les sources, mais j'ai fais des essais piégeux sur Claude (que je n'avais jamais trop utilisé avant).
J'ai pu lui faire dire des choses imprécises, (qu'il corrigeait rapidement au message suivant) mais je n'ai pas réussi à le faire dérailler.
Après faudrait voir avec un contexte beaucoup très long.
Donc oui, la qualité du modèle a une énorme influence sur l’horizon temporel des tâches qu’il est capable d’effectuer, bien plus qu’on ne le penserait en évaluant naïvement sur une étape unique.
Là je suis vraiment sceptique.
Peut importe quand survient l'erreur si elle survient fatalement, en particulier dans l'idée de rendre les IA autonomes.
Imaginerait on un serveur en production qu'il tendrait à faire des choses incohérentes passé un certain temps ?
La question de savoir si cela prendra un minute ou une heure importe peu à mon sens.
Dans ce contexte, la priorité ne serait elle pas de repérer l'erreur avant de déclencher une action ?
Si les erreurs soient inévitables, la seul chose à faire est de les rendre inoffensives.
Exactement comme les humains ? Je vois rarement des programmeurs dire "je me suis planté" avant que le compilateur / les tests unitaires / les tests manuels / la revue de code révèlent un problème. […] Et de même que mes juniors finiront par s’améliorer, je ne vois aucune raison de supposer que ces problèmes sont inhérents aux LLMs en général et que la prochaine génération ne fera pas mieux à ce niveau.
Les créateurs sont régulièrement surpris par certains aspects de leur création […], ce qui est pour moi pile poil dans la définition de "propriété émergente" ? Ou tu penses à autre chose ?
L'article d'Anthopic est très intéressant.
J'ai lu en diagonale et ils semblent aborder des phénomènes émergents intéressants, mais assez évidents puisque cela correspond à l'observation (les llm apprennent dans toute langue et restituent la connaissance indépendamment de la langue, les llm planifient leur réponses, etc…).
C'est fascinant à observer, mais ça reste assez limité, ils semblent toujours incapables de dépasser leur données d’entraînement.
Si tu prends par exemple la distillation comme méthode d'apprentissage, ça a permis de très largement améliorer les performances des petits modèles ces derniers mois (avec des modèles de 7 à 14 milliards de paramètres loin d'être ridicules et un rapport capacités/coûts incroyables).
Par contre il y a toujours un plafond de verre.
Plus le modèle maître est performant, plus l'élève l'est, mais l'élève fait toujours moins bien que le maître.
C'est à mon avis parce que les IA apprennent par induction et font au mieux quelques déductions et c'est là où le parallèle avec l'humain atteint ses limites à mon sens.
Je ne dis pas que les wrappers sont entièrement inutiles. Je dis qu’ils sont destinés à être de plus en plus triviaux et comparativement (entre eux) peu impactants à mesure que la qualité des modèles progresse. […] Si tu préfères tourné comme ça : les modèles sont le facteur limitant (et donc critique), pas les wrappers. […] Si tu préfères tourné comme ça : les modèles sont le facteur limitant (et donc critique), pas les wrappers.
Tourné comme ça, tu as raison, c'est implacable.
Par contre je ne dirais pas que la mise en place d'un système expert permettant de valider ce que produit un llm (surtout sur le long terme) soit un problème résolu.
Précisément parce que la validation passe par les llm eux même.
Non, je n'avais jamais entendu parler de ce genre de métrique.
C'est ce qui m'a fait changer de point de vu sur les capacités des modèles à long terme (souvent un simple graphique vaut mieux que 1000 mots), et surtout sur les perspectives que ça nous ouvre.
Je continuerai de suivre ça, merci.
Les humains ne sont très probablement pas purement déterministes non plus.[…]
Vrai. Par contre la nature du fonctionnement est très différente. Prends un humain moyen et demande lui d'arbitrer un problème rationnel et non idéologique, idéalement quand son intérêt et/ou sécurité sont engagées.
Il fera alors des choix très rationnels, basés sur un savoir objectif, tenant compte de la situation et si il a des lacunes, ils peut les analyser de lui même froidement.
Pour qu'un humain dise ou fasse n'importe quoi, il faut un contexte (religieux, idéologique, égotique, manipulation, à priori, etc…)
Les llms eux, peuvent raconter n'importe quoi et il n'y a aucune distinction de nature entre le vrai et le faux.
Ce sont juste des statistiques.
Tu n’as pas besoin d’être totalement fiable, juste plus fiable. Plus tu es fiable, plus tu peux faire des tâches à horizons longs sans te planter[…]
J'en doute (en tout cas dans l'idée de rendre les IA autonomes).
Imaginons que tu ais le meilleur modèle qui commet une erreur 5% du temps et le moins bon (tout en bas des classements à la mode), qui en fait 15% du temps.
Le meilleur modèle est il pour autant réellement plus utilisable dans le vrai monde quand il s'agit de prendre des décisions qui ont un impact financer et sur la vie de vrai personnes ?
Cela sera t'il si différent si ça tombait à 1% ? Et puis, si par malheurs il tombe sur des problèmes nouveaux et imprévus, les 1% théoriques peuvent vite devenir 30% réels.
Tu le dis toi même, repérer ses propres erreur est un truc sur lequel les llms ont beaucoup de mal.
Un début de résolution (très imparfait par ailleurs) passe par la mise en place d'agents qui contrôlent et valident les sorties avec des instructions spécifique pour ça.
Mais sinon je n'ai jamais vu un llm dire de lui même "au fait excuse moi mais je me suis trompé dans mon message précédent".
Pour que ça arrive, il faut lui indiquer l'erreur (via la sortie d'un interpréteur, la réponse d'un appel de fonction ou une remarque humaine).
Bref, il faut les guider, et donc il faut toujours une sorte d'oracle pour valider les résultats (d’où l'idée des agents centrés sur la génération de code Python comme Smolagents de Huggingface, le système de validation étant l'interpréteur) conjugué à une passe récursive de contrôle critique du llm sur sa propre génération via des instructions spécifiques.
Pour moi c’est clairement incorrect en soit ?
C'est pour ça que j'ai parlé de problème d'alignement.
Le modèle raconte peut être n'importe quoi de ton point de vu parce que c'est pas le résultat attendu, mais c'est correct dans le sens où c'est le strict reflet de ses données d'apprentissage, basés sur des transcriptions de films et d’émissions de télé et radio.
On a exactement le même problème avec les llms à qui l'on veut attribuer des propriétés émergentes alors que ça ne sont que des ajustements induits par leurs développeurs.
Si Gemma-3 et Qwen terminent toutes leurs phrases par des émoticône, c'est pas parce qu'ils sont plus joyeux que les autres.
Plus le modèle est capable, plus créer l’application est à la portée du modèle lui même. Et moins le modèle a besoin des "rails" de l’application. À terme je ne vois pas comment l’application peut être un avantage compétitif fiable.
Après, si dans "application" tu mets tout l’aspect juridique/commercial/etc… là oui, on va être d’accord. Mais le code du wrapper en lui-même ? non.
N'as tu pas dû toi même guider Claude ?
Donc tu as fais à la main ce qu'un logiciel serait amené à faire pour tenter de rendre Claude autonome.
Peut être ais je des failles dans mon raisonnement, mais je n'ai pas l'idée d'un seul domaine du monde réél où on prendrait un llm à qui on demanderait de rendre des services en totale autonomie sans que ça ne tourne rapidement en rond (dans le meilleur des cas), ou en hors sujet (plus probablement).
Ce sont de formidables outils, mais en dehors d'être des agents conversationnels, je reste sceptique quant à leur capacité à être réellement autonomes par eux même.
Je me suis peut être mal exprimé, mais j'ai l'impression qu'on ne parle pas de la même chose.
Évidemment que les llms s'améliorent par itération.
Ils ont toujours plus de connaissance et font moins d'erreurs qu’auparavant.
Par contre, de par leur nature probabiliste, ils ne seront jamais totalement fiables (encore une fois, à moins de changer de techno).
Et surtout, une hallucination peut intoxiquer le contexte à tout moment et rendre les générations suivantes caduques, si bien que plus le contexte traîne en longueur, moins c'est fiable. Et ce ne sont pas des bugs, c'est directement induit par la techno.
En vérité, les llms se sont améliorés sur tous les aspects qui ont rendu ChatGPT révolutionnaire (relative compréhension d'instructions, extraction de données et génération de réponses plausibles, etc…).
Mais n'ont pas vraiment avancés sur le reste (planification et vision à long terme, raisonnement abstrait, etc…).
Je pense que ces limites vont obliger à utiliser des applications chargées de fiabiliser les modèles génératifs.
Si tu prends par exemple Whisper, qui est un des meilleurs modèles voix vers texte actuel et que tu fais une inférence avec du bruit blanc (ou du silence capté par un micro), il te génère quelque chose du genre "Sous-titrage Société Radio-Canada", ce qui est correct en soit (exemple type d'un problème d'alignement).
Le seul moyen de fiabiliser la génération en pratique est de supprimer logiciellement ces blancs (éventuellement en découpant l'audio et en envoyant plusieurs générations).
Pour les llm, tout un tas de systèmes agentiques sont en cours de développement avec des boucles récursives types génération -> contrôle -> action et les modèles de Rerank.
Du coup je vois les IA comme des moteurs, mais un moteur seul sert pas à grand chose tant que tu peux pas le mettre dans une voiture.
Pour l'effet de plateau, il est à mon sens indéniable que les meilleurs modèles ont des performances proches entre eux, avec une division en deux groupes (ceux qui raisonnent" comme les GPT o1 et DeepSeek-r1 et les autres, qui font du chat).
Dans la seconde catégorie, discute avec QwQ 32B, GPT-4 et Mistral-Small. Si il ne s'agit que de discussion et de suivre des instructions, je vois pas de différence en pratique. Pas plus qu'il n'y en a entre eux et les 30 premières entrées du lmarena (pour le dire vite).
Certains s'en sortiront mieux que d'autres pour certaines tâches (génération de code par exemple avec Claude), sans que ça soit non plus extraordinaire.
Bref, tout ce que je voulais signifier, c'est qu'on ne parle toujours que des modèles alors qu'il faudrait à mon avis un peu plus parler d'applications pratiques.
Par exemple aucune entreprise ne confierait sa comptabilité à la meilleure des IA les yeux fermés sans aucun contrôle.
Par contre, le jour où une entreprise propose ce service via des IA et s'engage juridiquement pour en assurer la fiabilité, là il y aura un changement de paradigme. Et je suis certain que si c'est possible avec la techno actuelle, c'est uniquement avec des modèles modeste mais spécialisés, et pilotés par des logiciels qui contrôlent absolument tout.
Dans cet exemple, l'IA est le moteur, sans elle rien ne se fait, mais tu n'as une application pratique que par le logiciel qui l'englobe.
Et ça ne passera pas à mon avis par les gros modèles généralistes comme GPT-4.5, peu importe leur score sur MMLU-Pro et autre comparatif à la mode.
Au contraire. Sur des horizons long, la capacité d’un modèle à ne pas se "perdre soi-même", remettre en question des hypothèses, utiliser efficacement le contexte deviennent critique.
Je n'ai pas dis qu'il n'y avait plus de marges de progression, mais la techno actuelle à base de transformeurs semble atteindre un plateau et le groupe des principaux modèles semblent avoir des capacités qui tendent à s'uniformiser.
Seul OpenAI cherche à sortir du lot au prix de milliards d’investissements pour des résultats au mieux notables, mais sans rien révolutionner, et ne leur donnant que quelques mois d'avance.
Pour reprendre ton exemple, lié à la même problématique de la planification, c'est justement ce que cherchent à combler les agents (via souvent du bourrinage s'apparentant à du brute-force).
Mais les llms semblent avoir des limites indépassables lié à leur fonctionnement propre. Ils peuvent notamment à tout moment polluer leur propre contexte de façon aléatoire.
Donc soit il y a une rupture par des technos complètement différentes, soit l'IA agentique reste pour longtemps un domaine de llm.
Et dans ce cas, je vois pas comment on peut éviter la stagnation des performances et l'effet de plateau.
Et c'est dans ce contexte qu'à mon sens qui instrumentent les llms sont au moins aussi importantes que les modèles eux même (on pourrait prendre pour analogie le lien entre un moteur et une voiture).
Et ne pas oublier d'autres types de modèles annexes qui commencent à apparaître pour filtrer les réponses et fiabiliser les résultats (via le Rerank notamment).
C'est dommage de faire un inventaire des principaux modèles sans parler de Mistral, qui est la seule entreprise française (voir européenne) à être concurrentielle.
D'autant qu'ils ont fait parti des premiers à publier certains de leurs modèles sous une licence permissive (Apache-2)
Le dernier en date, Mistral-Small a des performances similaires à gpt-4o mini ou Gemma-3.
Puis il y a également la sortie de Llama-4, mais c'est très récent et impossible a essayer en local tant le modèle est énorme et apparemment c'est pas spécialement une révolution si ce n'est qu'il permet dans une de ses déclinaisons une taille de contexte de 10 millions de jetons !
A noter également (puisque le CoT a été abordé) que certains de ces modèles peuvent appeler des fonctions pour créer des systèmes argentiques plus ou moins autonomes et qu'il y a tout un tas de projets qui commencent à ce structurer sur ce sujet.
Je précise cela dans le sens où je pense que l'écart entre les modèles d'IA est de moins en moins important et qu'il est moins pertinent de parler de modèles alors que l'on devrait plutôt de plus en plus parler des cas d'usages et des outils qui permettront aux IA d'être autre chose que de simples "chat".
De la même manière que l'informatique est devenu progressivement une affaire de logiciel et non plus de matériel, qui est devenu un sujet subalterne à partir d'un certain niveau de maturité.
Tu juxtapose des phrases, ça n'en fait pas un quelconque argument.
Je supposes que c'est une question de tournure d'esprit (les gens de gauche passent leur temps à soulever des problème qui me semblent ridicules, donc la réciproque est évidente).
Pour ce qui me concerne:
"Comme si l'immigration de masses n'était qu'un fantasme". Y a t'il vraiment un débat à avoir ? Personne ne le conteste.
L'objet du débat est de savoir si c'est une bonne chose.
"la France était une grande puissance industrielle":
En 1980, le PIB par habitant en France était à peu près paritaire vis à vis des Etats-Unis. Aujourd'hui le différentiel est de + ~75% en faveur des USA (qui eux même se voient pourtant en crise car concurrencés par la Chine).
Même vis à vis de l'Allemagne il y a eu un décrochage sévère.
"elle était souveraine":
Des dizaines de traités internationaux, d'organisations supra nationales ont rendu des pays européens impuissants à choisir leur propre destin. Là encore, on peut trouver ça bien, mais le fait est que c'est réél.
Alors c'est le cas de tous, y compris ton bien aimé.
Ca n'est pas mon bien aimé.
A vrai dire je trouve qu'il a manqué d'habileté et a lui même contribué à son isolement, ce qui a été préjudiciable à toute la droite.
C'est tout autant le cas quand ce que l'on veut c'est une pureté culturel, une France aux français ou une quelconque connerie de cet acabit.
Il n'a jamais été question de pureté, c'est la gauche qui parle toujours de pureté.
En revanche, avant de me parler d'"organisation ensemble", demande toi ce qui créé le lien entre les communautés d'individus.
Mis à part la nation (avec état, police, justice, etc…) et la religion, je vois pas ce qui empêche les gens d'en faire qu'à leur tête, voir de s'entre-tuer entre eux. Sur ces deux aspects, JMLP fait parti de ceux qui ont tenté que préserver la nation.
Sur la forme, sur le fond, son moi, son surmoi,… Il était abject pas qu'en parole. Il a créé un parti dont les membres ont commis des meurtres raciaux.
Encore une fois, sommes nous en 1980 ?
Tu parles de choses qui remontent au minimum aux années 90.
Des émeutes raciales, des meurtres gratuits il y en a régulièrement en France en ce moment.
Et ni le RN, ni ses électeurs n'ont de rapports avec ça.
Pour ce qui concerne la LFI par contre…
Comme si l'immigration de masses n'était qu'un fantasme, que la France était une grande puissance industrielle et qu'elle était souveraine.
Le monde a considérablement changé en 50 ans, mais certains groupes de personnes semblent faire comme si ce n'était pas le cas et n'ont que des arguments moraux en guise de de parade.
L'action de JMLP peut être discuté sur la forme (il avait un côté Trump avant l'heure, en plus cultivé malgré tout), mais ce qu'il craignait est advenu.
Ce faisant il a été bien plus visionnaire que l'immense majorité de la classe politique au pouvoir.
Après on peut trouver trouver que la situation du pays est tout à fait enviable (j'ai du mal à le concevoir, mais certes), mais faut arrêter avec l'irrespect et la moraline.
Je pense que le lien avec le parti démocrate est lié au côté très technocratique de l'idée.
Certes l'architecture x86 est concurrencée par l'ARM, mais le principal problème pour la survie d'Intel est sont retard technologique sur TSMC.
D'ailleurs TSMC avec sa capacité de gravure à 3nm a mis tout le monde à la ramasse, y compris Samsung.
Donc penser qu'une fusion réglera le problème c'est comme penser qu'il suffit d'injection d'argent pour régler tous les problème du monde (d’où le côté technocrate/gauchiste).
Ils ont eu mal à passer sous la barre des 10nm puis 7nm (avec à chaque fois des années de retards) qu'ils en sont réduits à dépendre de TSMC pour produire des puces en 3nm. Je vois pas en quoi une fusion avec AMD qui ne fabrique plus ses propres puces depuis 15 ans pourrait améliorer leur situation.
Et ça n'est pas l'argent qui manque, ce dont ils ont besoin c'est d'un coup de génie créatif pour créer la bonne rupture technologique pour disposer de leur propre techno, donc des ingénieurs talentueux.
L'argent sera nécessaire quand il faudra créer des usines.
Je peux comprendre qu'un bouleversement majeur au sein d'une société interroge sur les origines du changement, mais je suis surpris que nombre de commentateurs / pourfendeurs ne semblent jamais en comprendre l'origine.
La droite (et surtout l’extrême droite) a toujours reproché à la gauche sont angélisme.
Face à la réalité des choses, la gauche a toujours tendance à minimiser ses propres renoncements (le fait d'être passé d'un modèle universaliste post-chrétien au multi-culturalisme) sans comprendre que la droite, elle, a beaucoup évolué (passé d'un modèle très libéral au protectionnisme).
Ca fait 15 ans que ce processus est amorcé, ça semble péter à la gueule de tout le monde, mais ça n'est pas un accident de l'histoire, c'est une vague de fond (l’élection de Trump et le Brext aurait dû être un signal d'alarme pour la gauche Française…).
Vous pouvez toujours vous convaincre que quelques influenceurs ou quelques médias en sont à l'origine (comme Cnews, dont les audiences ne représentent que quelques % de l'ensemble), mais je vous assure que vous êtes loin du compte.
Maintenant un petit Quizz:
Pensez vous que le RN ferait 35% si il n'y avait pas eu les émeutes l'an dernier ?
Que dire des manifestations des agriculteurs, de la façon dont a parlé des gilets jaunes, des policiers traités comme des assassins potentiels, de la façon dont on parle de la France, des français, de notre histoire, et cela à longueur d'années…
Et surtout, pensez vous que le RN ferait 35% si la réaction de la gauche face à tous ces événements avait été autre ?
La force de la gauche depuis l''origine (les lumières), c'est qu' elle comprend la force de la méta politique, contrairement à la droite.
C'est pour ça qu'elle infiltre toujours les médias, le cinéma, la musique, la culture en général et instille ses idées par ces moyens.
Sauf que cette force devient une faiblesse dès lors que le monde change (et toutes les civilisations du monde sont bousculées par la mondialisation).
Les gens subventionnés finissent par devenir des donneurs de leçon d'un monde révolu qu'ils souhaitent immuable, ce qui donne aujourd'hui des discours qui n'ont pas évolué depuis les années 80 et SOS racisme. Sauf que le RN, lui a évolué.
Aujourd'hui les gens qui ne veulent pas que les choses changent (les conservateurs) ne sont plus de droite, ils sont de gauche !
Mediapart et transparence, ça sonne comme le début d'une blague.
Je parle évidemment du titre. Dans l'absolu si ils s'estiment floués vis à vis de leur propriété intellectuelle, c'est leur droit le plus strict.
Bon c'est une notion de droite et bourgeoise mais étant moi même de droite j'irai pas leur faire ce reproche.
Si il s'agissait de rebondir sur l'assertion selon laquelle il s'agit de gens sans foi ni loi, je trouve que l’escroquerie en ligne est un fléau bien plus important par ce que:
Puisque c'est en ligne c'est bien plus massif, avant d’hameçonner une victime tout un tas de tâches peuvent être automatisée.
Les escroqueries telles qu'elles existent depuis la nuit des temps s'attaquent généralement à des personnes ayant des moyens financiers suffisant pour attirer l'escroc sinon le rapport risque/bénéfice n'est pas assez important.
Par exemple Bernard Madoff n'a jamais volé de smicards.
Là les cibles sont avant tout des gens en position de faiblesse.
Le fait que tout se fasse à distance amène à une virtualisation de l'arnaque et donc une baisse de l'empathie et une déresponsabilisation qui annihile toute barrière morale (et dans le cas présent conduit à la mort d'une femme qui n'a rien demandé).
Enfin, puisque les escrocs dont il est question ne peuvent être arrêtés tant que les autorités dont elle dépendent ne s'en chargent pas, il est difficile de lutter si ce n'est en sensibilisant la population.
Donc je trouve que c'est important d'en parler.
Mais on a également nos pépites en France, Micode avait sorti il y a quelques mois une vidéo sur le enquête tout simplement excellente: https://www.youtube.com/watch?v=6Jv0EzXdQbk
Posté par Florian.J .
En réponse au lien Le broutage tue.
Évalué à 4.
Dernière modification le 27 avril 2024 à 12:37.
Cela reste malgré tout connexe à la sécurité informatique (la technique diffère mais le principe reste du piratage, avec dans ce cas une dimension tragique).
Mes parents ont géré un hôtel il y a quelques années et ont eut tout un lot de réservations sur un mois par un groupe de sois disant ouvriers travaillant sur des installations pétrolières au Togo.
Le seul soucis était qu'ils ne pouvaient pas payer d’acompte, ils avaient besoin d'un compte intermédiaire.
Je sais pas exactement comment fonctionnait l'arnaque derrière, mais on a vite compris qu'ils avaient absolument besoin qu'on leur ouvre un compte.
C'était hyper douteux, donc ça s'est pas conclu.
Ces gens sont de véritables parasites sans foi ni loi, je ne suis pas surpris que dans le lot des gens se fassent avoir pas naïveté ou empathie.
90% des "conversations" ne dépassent pas un tour, donc la plupart des gens posent une question, ont une réponse, votent et quittent.
Ce qui n'est pas représentatif de ce que l'on attends d'un llm au quotidien.
Et c'est pour ça que des modèles comme Zephyr-7B s'en sortent si bien ici alors qu'en discussion multi tour c'est loin d'être aussi brillant.
Par ailleurs, la grand majorité des questions se font en anglais et ça ne permet pas de comparer des applications spécifiques pourtant importantes (génération de code, extraction et déduction logique à partir de données, etc..)
Bref c'est un bon comparatif mais c'est pas parce que c'est jugé par des humains que c'est infaillible.
En l’occurrence ça juge surtout la capacité des modèle à générer du texte convaincants, la guerre entre llms est de plus en plus porté sur leur autonomie et leur capacité à interagir avec des outils extérieurs.
Ca peut autant être une erreur de cible ou au contraire une première étape (probablement ratée parce qu'il faut que ça soit discret) d'infiltration par hôte de confiance.
Si la mairie a un accès au réseau de l'AIA (improbable) ou qu'il y a des communications entre les services de la Mairie et l'AIA par courriel vérolés (plausible), ça peut permettre d'infiltrer le réseau.
Quand j'ai vu cette info ça m'a fait penser à l'affaire McKinnon (https://fr.wikipedia.org/wiki/Gary_McKinnon).
Le gars n'était pas forcément un pirate extrêmement doué, mais il était acharné et est parvenu à infiltrer très profondément les systèmes de la NSA et du Pentagone sans même avoir à les pirater.
Par contre il a commencé à infiltrer des réseaux de machines se faisant confiance entre eux, donc à partir du moment où t'as un point d'entrée c'est rapidement open-bar.
Je pense qu'on est pas près savoir le fin mot de l'histoire mais je suis près à parier qu'il y ait des contrôles à l'AIA pour ne pas prendre le risque.
On peut pas trop savoir si ça un rapport direct, mais il y a un centre important de l'AIA à Floirac.
Ils travaillent notamment à la maintenance de tout un tas de moteurs conçus pour l'aéronautique et notamment le M88 utilisé par le Rafale.
Je connais aucun détails technique mais j'ai discuté une fois avec un collègue qui y a bossé pour faire un chantier et les contrôles étaient très poussés (avec une liste précise des entreprises extérieures habilitées à travailler, contrôle de l'identité, fouille en entrant et en sortant des locaux, impossible de se déplacer librement à l'intérieur, caméras, etc…)
Bref, ça n'a peut être aucun rapport avec l'attaque des services de la Mairie, mais ça n'est pas totalement inenvisageable.
J'ai pas encore fais de tests très approfondis sur llama3-8B, mais ça a l'air supérieur à Mistral-7B.
Par contre je comprend pas comment on peut sortir un nouveau modèle sans gérer nativement le rôle "tool" (je parle bien du modèle instruct).
Il a l'air largement assez malin pour permettre le RAG mais un llm qui produit du texte c'était bien il y a un an, mais pour que ça ait une utilité dans le monde réél, il faut aussi pouvoir lui permettre de gérer des appels de fonctions.
Je suppose qu'ils se disent que la communauté fera le travail, mais ça m'a quand même l'air étonnant étant donné les moyens qu'ils ont dû abattre pour développer le modèle.
J'ai quand même pu lui faire appeler des fonctions via des instructions spécifique mais il manque de subtilité.
Si je lui demande d'appeler une fonction de recherche uniquement quand c'est nécessaire, il l’appelle systématiquement.
De ce point de vue Mistral-7B-instruct s'en sortait mieux.
A mon avis on ne pourra en tirer des conclusions que dans les mois à venir.
NousResearch a sorti il y a un mois un excellent modèle pour gérer les appels de fonctions avec Mistral-7B.
Si ils reprennent la même formule avec llama-3, ça pourrait être une petite révolution.
Sans parler du fait que certains politiques en font des caisses sur le soi-disant racisme au sein de la police sans être capables de comprendre que les policiers et gendarmes sont en première ligne pour gérer tout ce que nos sociétés créaient de plus vils et barbares.
Quand des "jeunes" font des rodéos urbains et manquent de renverser à peu près n'importe qui sur leur passage, il faut bien des gens pour essayer d'y mettre fin, et ce souvent au péril de leur propre vie.
Par contre si un "jeune" se fait abattre parce qu'il est allé trop loin on a droit a des émeutes et certains politiques/médias pour nous parler de racisme.
L'individualisme est en train de tuer la collectivité parce trop de gens ne sont plus capables de se mettre à la place des autres (en l’occurrence ici des policiers mais c'est assez général).
Par ailleurs il existe une autre catégorie de métier en première lignes: les profs.
On parle jamais de racisme systémique les concernant (historiquement ils sont généralement considérés comme de gauche et assez universalistes) et pourtant il y a exactement le même malaise de fond avec des difficultés de recrutement qui conduisent inévitablement à une baisse de la qualité.
Ces pseudo raisonnements manichéens sont une véritable plaie qui masquent la complexité du monde.
C'est commode parce que c'est facile à assimiler mais ça règle aucun problème et ça empêche toute solution.
Etant donné que la police est une nécessité, on a vraiment affaire à un non raisonnement qui se veut malin.
Si il y a un problème de démission massive au sein de la police, il est urgent d'en comprendre le causes et trouver des solutions sous peine de voir le service se dégrader rapidement (les difficultés de recrutement conduisent inévitablement à une baisse de la qualité des recrutements).
Je dirais plutôt qu'ils n'ont pas vraiment de géants du logiciel.
Malgré tout il y a eu pas mal de controversés liées à ByteDance (TikTok) et n'oublie pas non plus la 5G de Huawai !
Homo sapiens n'a commencé à se sédentariser qu'il y a quelques milliers d'années.
Le fait d'être entouré d'écrans continuellement avec des sollicitations permanentes ça remonte à peine à 15 ans.
Nous ne sommes pas conçus biologiquement pour le monde que nous nous avons créés.
On s'y adapte bien sûr, mais si des études tendent à démontrer qu'il y a une tendance lourde de baisse de la capacité de concentration en Occident voir de l'intelligence (au score de QI, voir les études sur l'effet Flynn), on peut pas les balayer d'un revers de la main en disant que ça a toujours été comme ça.
Pour ChatGPT, c'est encore trop tôt pour en mesurer les effet, mais ça semble évident que les IA risquent de devenir des solutions de facilités et qu'une partie non négligeable de la population risque de s'appuyer dessus et manipuler des concepts qu'ils connaissent pas forcément (ça m'arrive par ailleurs).
Je te prend un exemple simple.
Va voir les vidéos de l'INA sur youtube où des journalistes font des micro trottoirs dans les années 60-70.
Que ça soit en ville ou à la campagne tu pourras noter rapidement que le vocabulaire (de gens lambdas) est généralement plus soutenu qu'à l'heure actuelle, mais surtout les gens parlent plus lentement comparé à aujourd'hui.
Ils prenaient le temps de peser leur mots avant de parler.
Et en dehors du vocabulaire, les phrases sont généralement bien construites comparé à aujourd'hui.
[^] # Re: Et Mistral ?
Posté par Florian.J . En réponse à la dépêche Nouvelles sur l’IA de mars 2025. Évalué à 1 (+0/-0).
Cette discussion m'a permis d'élargir un peu ma perspective.
J'ai un peu la flemme de lire toutes les sources, mais j'ai fais des essais piégeux sur Claude (que je n'avais jamais trop utilisé avant).
J'ai pu lui faire dire des choses imprécises, (qu'il corrigeait rapidement au message suivant) mais je n'ai pas réussi à le faire dérailler.
Après faudrait voir avec un contexte beaucoup très long.
Là je suis vraiment sceptique.
Peut importe quand survient l'erreur si elle survient fatalement, en particulier dans l'idée de rendre les IA autonomes.
Imaginerait on un serveur en production qu'il tendrait à faire des choses incohérentes passé un certain temps ?
La question de savoir si cela prendra un minute ou une heure importe peu à mon sens.
Dans ce contexte, la priorité ne serait elle pas de repérer l'erreur avant de déclencher une action ?
Si les erreurs soient inévitables, la seul chose à faire est de les rendre inoffensives.
L'article d'Anthopic est très intéressant.
J'ai lu en diagonale et ils semblent aborder des phénomènes émergents intéressants, mais assez évidents puisque cela correspond à l'observation (les llm apprennent dans toute langue et restituent la connaissance indépendamment de la langue, les llm planifient leur réponses, etc…).
C'est fascinant à observer, mais ça reste assez limité, ils semblent toujours incapables de dépasser leur données d’entraînement.
Si tu prends par exemple la distillation comme méthode d'apprentissage, ça a permis de très largement améliorer les performances des petits modèles ces derniers mois (avec des modèles de 7 à 14 milliards de paramètres loin d'être ridicules et un rapport capacités/coûts incroyables).
Par contre il y a toujours un plafond de verre.
Plus le modèle maître est performant, plus l'élève l'est, mais l'élève fait toujours moins bien que le maître.
C'est à mon avis parce que les IA apprennent par induction et font au mieux quelques déductions et c'est là où le parallèle avec l'humain atteint ses limites à mon sens.
Tourné comme ça, tu as raison, c'est implacable.
Par contre je ne dirais pas que la mise en place d'un système expert permettant de valider ce que produit un llm (surtout sur le long terme) soit un problème résolu.
Précisément parce que la validation passe par les llm eux même.
Non, je n'avais jamais entendu parler de ce genre de métrique.
C'est ce qui m'a fait changer de point de vu sur les capacités des modèles à long terme (souvent un simple graphique vaut mieux que 1000 mots), et surtout sur les perspectives que ça nous ouvre.
Je continuerai de suivre ça, merci.
[^] # Re: Et Mistral ?
Posté par Florian.J . En réponse à la dépêche Nouvelles sur l’IA de mars 2025. Évalué à 1 (+0/-0). Dernière modification le 11 avril 2025 à 00:26.
Vrai. Par contre la nature du fonctionnement est très différente. Prends un humain moyen et demande lui d'arbitrer un problème rationnel et non idéologique, idéalement quand son intérêt et/ou sécurité sont engagées.
Il fera alors des choix très rationnels, basés sur un savoir objectif, tenant compte de la situation et si il a des lacunes, ils peut les analyser de lui même froidement.
Pour qu'un humain dise ou fasse n'importe quoi, il faut un contexte (religieux, idéologique, égotique, manipulation, à priori, etc…)
Les llms eux, peuvent raconter n'importe quoi et il n'y a aucune distinction de nature entre le vrai et le faux.
Ce sont juste des statistiques.
J'en doute (en tout cas dans l'idée de rendre les IA autonomes).
Imaginons que tu ais le meilleur modèle qui commet une erreur 5% du temps et le moins bon (tout en bas des classements à la mode), qui en fait 15% du temps.
Le meilleur modèle est il pour autant réellement plus utilisable dans le vrai monde quand il s'agit de prendre des décisions qui ont un impact financer et sur la vie de vrai personnes ?
Cela sera t'il si différent si ça tombait à 1% ? Et puis, si par malheurs il tombe sur des problèmes nouveaux et imprévus, les 1% théoriques peuvent vite devenir 30% réels.
Tu le dis toi même, repérer ses propres erreur est un truc sur lequel les llms ont beaucoup de mal.
Un début de résolution (très imparfait par ailleurs) passe par la mise en place d'agents qui contrôlent et valident les sorties avec des instructions spécifique pour ça.
Mais sinon je n'ai jamais vu un llm dire de lui même "au fait excuse moi mais je me suis trompé dans mon message précédent".
Pour que ça arrive, il faut lui indiquer l'erreur (via la sortie d'un interpréteur, la réponse d'un appel de fonction ou une remarque humaine).
Bref, il faut les guider, et donc il faut toujours une sorte d'oracle pour valider les résultats (d’où l'idée des agents centrés sur la génération de code Python comme Smolagents de Huggingface, le système de validation étant l'interpréteur) conjugué à une passe récursive de contrôle critique du llm sur sa propre génération via des instructions spécifiques.
C'est pour ça que j'ai parlé de problème d'alignement.
Le modèle raconte peut être n'importe quoi de ton point de vu parce que c'est pas le résultat attendu, mais c'est correct dans le sens où c'est le strict reflet de ses données d'apprentissage, basés sur des transcriptions de films et d’émissions de télé et radio.
On a exactement le même problème avec les llms à qui l'on veut attribuer des propriétés émergentes alors que ça ne sont que des ajustements induits par leurs développeurs.
Si Gemma-3 et Qwen terminent toutes leurs phrases par des émoticône, c'est pas parce qu'ils sont plus joyeux que les autres.
N'as tu pas dû toi même guider Claude ?
Donc tu as fais à la main ce qu'un logiciel serait amené à faire pour tenter de rendre Claude autonome.
Peut être ais je des failles dans mon raisonnement, mais je n'ai pas l'idée d'un seul domaine du monde réél où on prendrait un llm à qui on demanderait de rendre des services en totale autonomie sans que ça ne tourne rapidement en rond (dans le meilleur des cas), ou en hors sujet (plus probablement).
Ce sont de formidables outils, mais en dehors d'être des agents conversationnels, je reste sceptique quant à leur capacité à être réellement autonomes par eux même.
[^] # Re: Et Mistral ?
Posté par Florian.J . En réponse à la dépêche Nouvelles sur l’IA de mars 2025. Évalué à 1 (+0/-0). Dernière modification le 10 avril 2025 à 18:11.
Je me suis peut être mal exprimé, mais j'ai l'impression qu'on ne parle pas de la même chose.
Évidemment que les llms s'améliorent par itération.
Ils ont toujours plus de connaissance et font moins d'erreurs qu’auparavant.
Par contre, de par leur nature probabiliste, ils ne seront jamais totalement fiables (encore une fois, à moins de changer de techno).
Et surtout, une hallucination peut intoxiquer le contexte à tout moment et rendre les générations suivantes caduques, si bien que plus le contexte traîne en longueur, moins c'est fiable. Et ce ne sont pas des bugs, c'est directement induit par la techno.
En vérité, les llms se sont améliorés sur tous les aspects qui ont rendu ChatGPT révolutionnaire (relative compréhension d'instructions, extraction de données et génération de réponses plausibles, etc…).
Mais n'ont pas vraiment avancés sur le reste (planification et vision à long terme, raisonnement abstrait, etc…).
Je pense que ces limites vont obliger à utiliser des applications chargées de fiabiliser les modèles génératifs.
Si tu prends par exemple Whisper, qui est un des meilleurs modèles voix vers texte actuel et que tu fais une inférence avec du bruit blanc (ou du silence capté par un micro), il te génère quelque chose du genre "Sous-titrage Société Radio-Canada", ce qui est correct en soit (exemple type d'un problème d'alignement).
Le seul moyen de fiabiliser la génération en pratique est de supprimer logiciellement ces blancs (éventuellement en découpant l'audio et en envoyant plusieurs générations).
Pour les llm, tout un tas de systèmes agentiques sont en cours de développement avec des boucles récursives types génération -> contrôle -> action et les modèles de Rerank.
Du coup je vois les IA comme des moteurs, mais un moteur seul sert pas à grand chose tant que tu peux pas le mettre dans une voiture.
Pour l'effet de plateau, il est à mon sens indéniable que les meilleurs modèles ont des performances proches entre eux, avec une division en deux groupes (ceux qui raisonnent" comme les GPT o1 et DeepSeek-r1 et les autres, qui font du chat).
Dans la seconde catégorie, discute avec QwQ 32B, GPT-4 et Mistral-Small. Si il ne s'agit que de discussion et de suivre des instructions, je vois pas de différence en pratique. Pas plus qu'il n'y en a entre eux et les 30 premières entrées du lmarena (pour le dire vite).
Certains s'en sortiront mieux que d'autres pour certaines tâches (génération de code par exemple avec Claude), sans que ça soit non plus extraordinaire.
Bref, tout ce que je voulais signifier, c'est qu'on ne parle toujours que des modèles alors qu'il faudrait à mon avis un peu plus parler d'applications pratiques.
Par exemple aucune entreprise ne confierait sa comptabilité à la meilleure des IA les yeux fermés sans aucun contrôle.
Par contre, le jour où une entreprise propose ce service via des IA et s'engage juridiquement pour en assurer la fiabilité, là il y aura un changement de paradigme. Et je suis certain que si c'est possible avec la techno actuelle, c'est uniquement avec des modèles modeste mais spécialisés, et pilotés par des logiciels qui contrôlent absolument tout.
Dans cet exemple, l'IA est le moteur, sans elle rien ne se fait, mais tu n'as une application pratique que par le logiciel qui l'englobe.
Et ça ne passera pas à mon avis par les gros modèles généralistes comme GPT-4.5, peu importe leur score sur MMLU-Pro et autre comparatif à la mode.
[^] # Re: Et Mistral ?
Posté par Florian.J . En réponse à la dépêche Nouvelles sur l’IA de mars 2025. Évalué à 1 (+0/-0).
Je n'ai pas dis qu'il n'y avait plus de marges de progression, mais la techno actuelle à base de transformeurs semble atteindre un plateau et le groupe des principaux modèles semblent avoir des capacités qui tendent à s'uniformiser.
Seul OpenAI cherche à sortir du lot au prix de milliards d’investissements pour des résultats au mieux notables, mais sans rien révolutionner, et ne leur donnant que quelques mois d'avance.
Pour reprendre ton exemple, lié à la même problématique de la planification, c'est justement ce que cherchent à combler les agents (via souvent du bourrinage s'apparentant à du brute-force).
Mais les llms semblent avoir des limites indépassables lié à leur fonctionnement propre. Ils peuvent notamment à tout moment polluer leur propre contexte de façon aléatoire.
Donc soit il y a une rupture par des technos complètement différentes, soit l'IA agentique reste pour longtemps un domaine de llm.
Et dans ce cas, je vois pas comment on peut éviter la stagnation des performances et l'effet de plateau.
Et c'est dans ce contexte qu'à mon sens qui instrumentent les llms sont au moins aussi importantes que les modèles eux même (on pourrait prendre pour analogie le lien entre un moteur et une voiture).
Et ne pas oublier d'autres types de modèles annexes qui commencent à apparaître pour filtrer les réponses et fiabiliser les résultats (via le Rerank notamment).
# Et Mistral ?
Posté par Florian.J . En réponse à la dépêche Nouvelles sur l’IA de mars 2025. Évalué à 3 (+2/-0).
C'est dommage de faire un inventaire des principaux modèles sans parler de Mistral, qui est la seule entreprise française (voir européenne) à être concurrentielle.
D'autant qu'ils ont fait parti des premiers à publier certains de leurs modèles sous une licence permissive (Apache-2)
Le dernier en date, Mistral-Small a des performances similaires à gpt-4o mini ou Gemma-3.
Puis il y a également la sortie de Llama-4, mais c'est très récent et impossible a essayer en local tant le modèle est énorme et apparemment c'est pas spécialement une révolution si ce n'est qu'il permet dans une de ses déclinaisons une taille de contexte de 10 millions de jetons !
A noter également (puisque le CoT a été abordé) que certains de ces modèles peuvent appeler des fonctions pour créer des systèmes argentiques plus ou moins autonomes et qu'il y a tout un tas de projets qui commencent à ce structurer sur ce sujet.
Un exemple parmi des centaines est OpenHands : https://github.com/All-Hands-AI/OpenHands
Je précise cela dans le sens où je pense que l'écart entre les modèles d'IA est de moins en moins important et qu'il est moins pertinent de parler de modèles alors que l'on devrait plutôt de plus en plus parler des cas d'usages et des outils qui permettront aux IA d'être autre chose que de simples "chat".
De la même manière que l'informatique est devenu progressivement une affaire de logiciel et non plus de matériel, qui est devenu un sujet subalterne à partir d'un certain niveau de maturité.
# Sacré Gorafi
Posté par Florian.J . En réponse au lien Le poisson du Gorafi. Évalué à -6 (+2/-9).
Toujours à raconter ses conneries, même un premier avril.
[^] # Re: Je reprendrais bien des moules
Posté par Florian.J . En réponse au lien Jean Marie Le Pen bronsonisé. Évalué à -10.
La dilution des peuples avant leur effacement par le marché et l'individualisme qui va avec.
Je peux pas faire plus synthétique.
[^] # Re: Je reprendrais bien des moules
Posté par Florian.J . En réponse au lien Jean Marie Le Pen bronsonisé. Évalué à -10. Dernière modification le 07 janvier 2025 à 19:03.
Je supposes que c'est une question de tournure d'esprit (les gens de gauche passent leur temps à soulever des problème qui me semblent ridicules, donc la réciproque est évidente).
Pour ce qui me concerne:
"Comme si l'immigration de masses n'était qu'un fantasme". Y a t'il vraiment un débat à avoir ? Personne ne le conteste.
L'objet du débat est de savoir si c'est une bonne chose.
"la France était une grande puissance industrielle":
En 1980, le PIB par habitant en France était à peu près paritaire vis à vis des Etats-Unis. Aujourd'hui le différentiel est de + ~75% en faveur des USA (qui eux même se voient pourtant en crise car concurrencés par la Chine).
Même vis à vis de l'Allemagne il y a eu un décrochage sévère.
"elle était souveraine":
Des dizaines de traités internationaux, d'organisations supra nationales ont rendu des pays européens impuissants à choisir leur propre destin. Là encore, on peut trouver ça bien, mais le fait est que c'est réél.
Ca n'est pas mon bien aimé.
A vrai dire je trouve qu'il a manqué d'habileté et a lui même contribué à son isolement, ce qui a été préjudiciable à toute la droite.
Il n'a jamais été question de pureté, c'est la gauche qui parle toujours de pureté.
En revanche, avant de me parler d'"organisation ensemble", demande toi ce qui créé le lien entre les communautés d'individus.
Mis à part la nation (avec état, police, justice, etc…) et la religion, je vois pas ce qui empêche les gens d'en faire qu'à leur tête, voir de s'entre-tuer entre eux. Sur ces deux aspects, JMLP fait parti de ceux qui ont tenté que préserver la nation.
Encore une fois, sommes nous en 1980 ?
Tu parles de choses qui remontent au minimum aux années 90.
Des émeutes raciales, des meurtres gratuits il y en a régulièrement en France en ce moment.
Et ni le RN, ni ses électeurs n'ont de rapports avec ça.
Pour ce qui concerne la LFI par contre…
[^] # Re: Je reprendrais bien des moules
Posté par Florian.J . En réponse au lien Jean Marie Le Pen bronsonisé. Évalué à -10.
Sommes nous toujours en 1980 ?
Comme si l'immigration de masses n'était qu'un fantasme, que la France était une grande puissance industrielle et qu'elle était souveraine.
Le monde a considérablement changé en 50 ans, mais certains groupes de personnes semblent faire comme si ce n'était pas le cas et n'ont que des arguments moraux en guise de de parade.
L'action de JMLP peut être discuté sur la forme (il avait un côté Trump avant l'heure, en plus cultivé malgré tout), mais ce qu'il craignait est advenu.
Ce faisant il a été bien plus visionnaire que l'immense majorité de la classe politique au pouvoir.
Après on peut trouver trouver que la situation du pays est tout à fait enviable (j'ai du mal à le concevoir, mais certes), mais faut arrêter avec l'irrespect et la moraline.
[^] # Re: C'est dans les vieux pots…
Posté par Florian.J . En réponse au lien Fusionner Intel et AMD ?. Évalué à 6. Dernière modification le 06 novembre 2024 à 16:26.
Je pense que le lien avec le parti démocrate est lié au côté très technocratique de l'idée.
Certes l'architecture x86 est concurrencée par l'ARM, mais le principal problème pour la survie d'Intel est sont retard technologique sur TSMC.
D'ailleurs TSMC avec sa capacité de gravure à 3nm a mis tout le monde à la ramasse, y compris Samsung.
Donc penser qu'une fusion réglera le problème c'est comme penser qu'il suffit d'injection d'argent pour régler tous les problème du monde (d’où le côté technocrate/gauchiste).
Ils ont eu mal à passer sous la barre des 10nm puis 7nm (avec à chaque fois des années de retards) qu'ils en sont réduits à dépendre de TSMC pour produire des puces en 3nm. Je vois pas en quoi une fusion avec AMD qui ne fabrique plus ses propres puces depuis 15 ans pourrait améliorer leur situation.
Et ça n'est pas l'argent qui manque, ce dont ils ont besoin c'est d'un coup de génie créatif pour créer la bonne rupture technologique pour disposer de leur propre techno, donc des ingénieurs talentueux.
L'argent sera nécessaire quand il faudra créer des usines.
# Avis d'une personne de droite (si tant est que ça intéresse des convaincus du bord opposé)
Posté par Florian.J . En réponse au lien "Influenceurs" d’extrême droite : le moteur caché du succès du RN ?. Évalué à -4. Dernière modification le 03 juillet 2024 à 21:01.
Je peux comprendre qu'un bouleversement majeur au sein d'une société interroge sur les origines du changement, mais je suis surpris que nombre de commentateurs / pourfendeurs ne semblent jamais en comprendre l'origine.
La droite (et surtout l’extrême droite) a toujours reproché à la gauche sont angélisme.
Face à la réalité des choses, la gauche a toujours tendance à minimiser ses propres renoncements (le fait d'être passé d'un modèle universaliste post-chrétien au multi-culturalisme) sans comprendre que la droite, elle, a beaucoup évolué (passé d'un modèle très libéral au protectionnisme).
Ca fait 15 ans que ce processus est amorcé, ça semble péter à la gueule de tout le monde, mais ça n'est pas un accident de l'histoire, c'est une vague de fond (l’élection de Trump et le Brext aurait dû être un signal d'alarme pour la gauche Française…).
Vous pouvez toujours vous convaincre que quelques influenceurs ou quelques médias en sont à l'origine (comme Cnews, dont les audiences ne représentent que quelques % de l'ensemble), mais je vous assure que vous êtes loin du compte.
Maintenant un petit Quizz:
Pensez vous que le RN ferait 35% si il n'y avait pas eu les émeutes l'an dernier ?
Que dire des manifestations des agriculteurs, de la façon dont a parlé des gilets jaunes, des policiers traités comme des assassins potentiels, de la façon dont on parle de la France, des français, de notre histoire, et cela à longueur d'années…
Et surtout, pensez vous que le RN ferait 35% si la réaction de la gauche face à tous ces événements avait été autre ?
La force de la gauche depuis l''origine (les lumières), c'est qu' elle comprend la force de la méta politique, contrairement à la droite.
C'est pour ça qu'elle infiltre toujours les médias, le cinéma, la musique, la culture en général et instille ses idées par ces moyens.
Sauf que cette force devient une faiblesse dès lors que le monde change (et toutes les civilisations du monde sont bousculées par la mondialisation).
Les gens subventionnés finissent par devenir des donneurs de leçon d'un monde révolu qu'ils souhaitent immuable, ce qui donne aujourd'hui des discours qui n'ont pas évolué depuis les années 80 et SOS racisme. Sauf que le RN, lui a évolué.
Aujourd'hui les gens qui ne veulent pas que les choses changent (les conservateurs) ne sont plus de droite, ils sont de gauche !
# La bonne blague
Posté par Florian.J . En réponse au lien Droits voisins : Mediapart lance la bataille de la transparence contre Google. Évalué à -10. Dernière modification le 28 avril 2024 à 22:52.
Mediapart et transparence, ça sonne comme le début d'une blague.
Je parle évidemment du titre. Dans l'absolu si ils s'estiment floués vis à vis de leur propriété intellectuelle, c'est leur droit le plus strict.
Bon c'est une notion de droite et bourgeoise mais étant moi même de droite j'irai pas leur faire ce reproche.
[^] # Re: ...
Posté par Florian.J . En réponse au lien Le broutage tue. Évalué à 6.
En effet et alors ?
Si il s'agissait de rebondir sur l'assertion selon laquelle il s'agit de gens sans foi ni loi, je trouve que l’escroquerie en ligne est un fléau bien plus important par ce que:
Puisque c'est en ligne c'est bien plus massif, avant d’hameçonner une victime tout un tas de tâches peuvent être automatisée.
Les escroqueries telles qu'elles existent depuis la nuit des temps s'attaquent généralement à des personnes ayant des moyens financiers suffisant pour attirer l'escroc sinon le rapport risque/bénéfice n'est pas assez important.
Par exemple Bernard Madoff n'a jamais volé de smicards.
Là les cibles sont avant tout des gens en position de faiblesse.
Le fait que tout se fasse à distance amène à une virtualisation de l'arnaque et donc une baisse de l'empathie et une déresponsabilisation qui annihile toute barrière morale (et dans le cas présent conduit à la mort d'une femme qui n'a rien demandé).
Enfin, puisque les escrocs dont il est question ne peuvent être arrêtés tant que les autorités dont elle dépendent ne s'en chargent pas, il est difficile de lutter si ce n'est en sensibilisant la population.
Donc je trouve que c'est important d'en parler.
Mais on a également nos pépites en France, Micode avait sorti il y a quelques mois une vidéo sur le enquête tout simplement excellente:
https://www.youtube.com/watch?v=6Jv0EzXdQbk
[^] # Re: ...
Posté par Florian.J . En réponse au lien Le broutage tue. Évalué à 4. Dernière modification le 27 avril 2024 à 12:37.
Cela reste malgré tout connexe à la sécurité informatique (la technique diffère mais le principe reste du piratage, avec dans ce cas une dimension tragique).
Personnellement je connaissais le principe du broutage par le détournement de Mozinor, qui est un de ses grands classiques:
https://www.youtube.com/watch?v=tMwJ2IqBFJs
Mes parents ont géré un hôtel il y a quelques années et ont eut tout un lot de réservations sur un mois par un groupe de sois disant ouvriers travaillant sur des installations pétrolières au Togo.
Le seul soucis était qu'ils ne pouvaient pas payer d’acompte, ils avaient besoin d'un compte intermédiaire.
Je sais pas exactement comment fonctionnait l'arnaque derrière, mais on a vite compris qu'ils avaient absolument besoin qu'on leur ouvre un compte.
C'était hyper douteux, donc ça s'est pas conclu.
Ces gens sont de véritables parasites sans foi ni loi, je ne suis pas surpris que dans le lot des gens se fassent avoir pas naïveté ou empathie.
# Précision
Posté par Florian.J . En réponse au lien Classement collaboratif des meilleurs LLMs. Évalué à 6. Dernière modification le 25 avril 2024 à 12:53.
Ce comparatif est souvent donné en référence puisqu'il s'agit d'une évaluation faite par des humains.
Il faut quand même préciser que selon leur statistiques:
https://colab.research.google.com/drive/1KdwokPjirkTmpO_P1WByFNFiqxWQquwH#scrollTo=m-eu9nhUqUYB
90% des "conversations" ne dépassent pas un tour, donc la plupart des gens posent une question, ont une réponse, votent et quittent.
Ce qui n'est pas représentatif de ce que l'on attends d'un llm au quotidien.
Et c'est pour ça que des modèles comme Zephyr-7B s'en sortent si bien ici alors qu'en discussion multi tour c'est loin d'être aussi brillant.
Par ailleurs, la grand majorité des questions se font en anglais et ça ne permet pas de comparer des applications spécifiques pourtant importantes (génération de code, extraction et déduction logique à partir de données, etc..)
Bref c'est un bon comparatif mais c'est pas parce que c'est jugé par des humains que c'est infaillible.
En l’occurrence ça juge surtout la capacité des modèle à générer du texte convaincants, la guerre entre llms est de plus en plus porté sur leur autonomie et leur capacité à interagir avec des outils extérieurs.
[^] # Re: arrêt des services
Posté par Florian.J . En réponse au lien Une petite ville française paralysée par une cyberattaque qui prive les habitants de leurs services . Évalué à 3. Dernière modification le 21 avril 2024 à 14:32.
Toutafé.
Ca peut autant être une erreur de cible ou au contraire une première étape (probablement ratée parce qu'il faut que ça soit discret) d'infiltration par hôte de confiance.
Si la mairie a un accès au réseau de l'AIA (improbable) ou qu'il y a des communications entre les services de la Mairie et l'AIA par courriel vérolés (plausible), ça peut permettre d'infiltrer le réseau.
Quand j'ai vu cette info ça m'a fait penser à l'affaire McKinnon (https://fr.wikipedia.org/wiki/Gary_McKinnon).
Le gars n'était pas forcément un pirate extrêmement doué, mais il était acharné et est parvenu à infiltrer très profondément les systèmes de la NSA et du Pentagone sans même avoir à les pirater.
Par contre il a commencé à infiltrer des réseaux de machines se faisant confiance entre eux, donc à partir du moment où t'as un point d'entrée c'est rapidement open-bar.
Je pense qu'on est pas près savoir le fin mot de l'histoire mais je suis près à parier qu'il y ait des contrôles à l'AIA pour ne pas prendre le risque.
[^] # Re: arrêt des services
Posté par Florian.J . En réponse au lien Une petite ville française paralysée par une cyberattaque qui prive les habitants de leurs services . Évalué à 3. Dernière modification le 20 avril 2024 à 21:54.
On peut pas trop savoir si ça un rapport direct, mais il y a un centre important de l'AIA à Floirac.
Ils travaillent notamment à la maintenance de tout un tas de moteurs conçus pour l'aéronautique et notamment le M88 utilisé par le Rafale.
Je connais aucun détails technique mais j'ai discuté une fois avec un collègue qui y a bossé pour faire un chantier et les contrôles étaient très poussés (avec une liste précise des entreprises extérieures habilitées à travailler, contrôle de l'identité, fouille en entrant et en sortant des locaux, impossible de se déplacer librement à l'intérieur, caméras, etc…)
Bref, ça n'a peut être aucun rapport avec l'attaque des services de la Mairie, mais ça n'est pas totalement inenvisageable.
[^] # Re: Il y a bien une solution
Posté par Florian.J . En réponse au lien Une petite ville française paralysée par une cyberattaque qui prive les habitants de leurs services . Évalué à 3.
Les sweat à capuche étant nombreux dans les hauteurs de Cenon, c'est donc une attaque venant du Nord je suppose…
# On verra
Posté par Florian.J . En réponse au lien Llama 3 est sorti et disponible au téléchargement pour l'utiliser en local. Évalué à 2.
J'ai pas encore fais de tests très approfondis sur llama3-8B, mais ça a l'air supérieur à Mistral-7B.
Par contre je comprend pas comment on peut sortir un nouveau modèle sans gérer nativement le rôle "tool" (je parle bien du modèle instruct).
Il a l'air largement assez malin pour permettre le RAG mais un llm qui produit du texte c'était bien il y a un an, mais pour que ça ait une utilité dans le monde réél, il faut aussi pouvoir lui permettre de gérer des appels de fonctions.
Je suppose qu'ils se disent que la communauté fera le travail, mais ça m'a quand même l'air étonnant étant donné les moyens qu'ils ont dû abattre pour développer le modèle.
J'ai quand même pu lui faire appeler des fonctions via des instructions spécifique mais il manque de subtilité.
Si je lui demande d'appeler une fonction de recherche uniquement quand c'est nécessaire, il l’appelle systématiquement.
De ce point de vue Mistral-7B-instruct s'en sortait mieux.
A mon avis on ne pourra en tirer des conclusions que dans les mois à venir.
NousResearch a sorti il y a un mois un excellent modèle pour gérer les appels de fonctions avec Mistral-7B.
Si ils reprennent la même formule avec llama-3, ça pourrait être une petite révolution.
[^] # Re: Problème de fond bien ancien
Posté par Florian.J . En réponse au lien [HS] Malaise dans la police nationale - Sous les radars (podcast audio 28min). Évalué à -6.
Bravo, tu m'as convaincu !
[^] # Re: Il suffit de traverser la rue…
Posté par Florian.J . En réponse au lien [HS] Malaise dans la police nationale - Sous les radars (podcast audio 28min). Évalué à 1.
Je vois pas comment on pourrait mesurer finement la qualité de service de la police ou de la gendarmerie, mais une bonne métrique est l'indice de corruption:
https://www.liberation.fr/societe/police-justice/la-police-nationale-fait-face-a-une-hausse-de-la-corruption-de-basse-intensite-dans-ses-rangs-20240304_GHKNTDEWINFH5OB7IYQ56CYN2I/
https://www.bfmtv.com/police-justice/petits-services-tricoche-dealers-informes-la-police-face-au-fleau-de-la-corruption-de-basse-intensite_AV-202403070349.html
[^] # Re: Problème de fond bien ancien
Posté par Florian.J . En réponse au lien [HS] Malaise dans la police nationale - Sous les radars (podcast audio 28min). Évalué à -10.
Sans parler du fait que certains politiques en font des caisses sur le soi-disant racisme au sein de la police sans être capables de comprendre que les policiers et gendarmes sont en première ligne pour gérer tout ce que nos sociétés créaient de plus vils et barbares.
Quand des "jeunes" font des rodéos urbains et manquent de renverser à peu près n'importe qui sur leur passage, il faut bien des gens pour essayer d'y mettre fin, et ce souvent au péril de leur propre vie.
Par contre si un "jeune" se fait abattre parce qu'il est allé trop loin on a droit a des émeutes et certains politiques/médias pour nous parler de racisme.
L'individualisme est en train de tuer la collectivité parce trop de gens ne sont plus capables de se mettre à la place des autres (en l’occurrence ici des policiers mais c'est assez général).
Par ailleurs il existe une autre catégorie de métier en première lignes: les profs.
On parle jamais de racisme systémique les concernant (historiquement ils sont généralement considérés comme de gauche et assez universalistes) et pourtant il y a exactement le même malaise de fond avec des difficultés de recrutement qui conduisent inévitablement à une baisse de la qualité.
Ces pseudo raisonnements manichéens sont une véritable plaie qui masquent la complexité du monde.
C'est commode parce que c'est facile à assimiler mais ça règle aucun problème et ça empêche toute solution.
[^] # Re: Il suffit de traverser la rue…
Posté par Florian.J . En réponse au lien [HS] Malaise dans la police nationale - Sous les radars (podcast audio 28min). Évalué à 0.
Etant donné que la police est une nécessité, on a vraiment affaire à un non raisonnement qui se veut malin.
Si il y a un problème de démission massive au sein de la police, il est urgent d'en comprendre le causes et trouver des solutions sous peine de voir le service se dégrader rapidement (les difficultés de recrutement conduisent inévitablement à une baisse de la qualité des recrutements).
[^] # Re: Hopital … charité
Posté par Florian.J . En réponse au lien Suspicion de vol de données US par la RPC. Évalué à 1.
Je dirais plutôt qu'ils n'ont pas vraiment de géants du logiciel.
Malgré tout il y a eu pas mal de controversés liées à ByteDance (TikTok) et n'oublie pas non plus la 5G de Huawai !
[^] # Re: Réactionnaire
Posté par Florian.J . En réponse au lien « Impact catastrophique » : le gouvernement explore le bannissement des smartphones des collèges . Évalué à 8.
Faut arrêter avec le relativisme systématique.
Homo sapiens n'a commencé à se sédentariser qu'il y a quelques milliers d'années.
Le fait d'être entouré d'écrans continuellement avec des sollicitations permanentes ça remonte à peine à 15 ans.
Nous ne sommes pas conçus biologiquement pour le monde que nous nous avons créés.
On s'y adapte bien sûr, mais si des études tendent à démontrer qu'il y a une tendance lourde de baisse de la capacité de concentration en Occident voir de l'intelligence (au score de QI, voir les études sur l'effet Flynn), on peut pas les balayer d'un revers de la main en disant que ça a toujours été comme ça.
Pour ChatGPT, c'est encore trop tôt pour en mesurer les effet, mais ça semble évident que les IA risquent de devenir des solutions de facilités et qu'une partie non négligeable de la population risque de s'appuyer dessus et manipuler des concepts qu'ils connaissent pas forcément (ça m'arrive par ailleurs).
Je te prend un exemple simple.
Va voir les vidéos de l'INA sur youtube où des journalistes font des micro trottoirs dans les années 60-70.
Que ça soit en ville ou à la campagne tu pourras noter rapidement que le vocabulaire (de gens lambdas) est généralement plus soutenu qu'à l'heure actuelle, mais surtout les gens parlent plus lentement comparé à aujourd'hui.
Ils prenaient le temps de peser leur mots avant de parler.
Et en dehors du vocabulaire, les phrases sont généralement bien construites comparé à aujourd'hui.