Et les milliards de Microsoft n'ont pas permis d'imposer ASP.
Comme quoi, c'est pas toujours une question d'agent.
Souvent être le premier acteur majeur sur un marché favorise grandement la position hégémonique, parce qu'allez savoir pourquoi, le marché des logiciels aime les monopoles (Windows, Chrome, Suite Office, presque tous les secteurs que je connaisse ont un progiciel dominant laissant des miettes à la concurrence, comme Photoshop, AutoCAD pour la DAO, etc…).
Le monde du dev semble un peu moins impacté (et encore, Python est progressivement devenu la lingua franca côté client, JS/TS pour le Web et PHP côté serveur).
Probablement que c'est un moyen pour les utilisateurs de combattre l'hétérogénéité et créer des normes de fait.
Je pense que Sam Altman pense à ça.
Si la bulle éclate, il sera très probablement le grand gagnant et beaucoup de concurrents qui captent actuellement des capitaux pourraient disparaître.
Tout ça parce que pour 90% de la population, IA, llm et ChatGPT c'est la même chose. Le reste est juste de la curiosité et des noms que l'on peut vaguement citer (comme Linux sur le marché des OS).
Même en France Mistral peine à concurrencer OpenAI, c'est dire si ce phénomène normatif est puissant.
La seule spécificité de ce marché, c'est que l'IA tend à s'intégrer à d'autre types de logiciels par des API, donc il y a aura probablement la possibilité pour certains acteurs d'avoir des parts de marché importante, même si c'est invisible pour l'utilisateur moyen.
Mais pour le grand public, je pense que si ils font pas n'importe quoi, à priori rien ne pourra empêcher le monopole d'OpenAI, c'est un scénario tout tracé que l'on a vu des dizaines de fois ces dernières décennies…
Des métriques, il y a en a tout un tas, ça dépends de ce que tu cherches.
Tu prends l'exemple des FPS, mais avec les llm le nombre de tokens par secondes est tout aussi pertinent.
Maintenant le temps de génération global est également dépendant de la longueur de la génération, surtout que tu as l'air d'utiliser gpt-oss (déduction puisque 120b et dernier modèle à la mode…), qui est un modèle de raisonnement.
Ce genre de modèle a une première étape de génération de "raisonnement" et ensuite de génération de la réponse finale, qui peut potentiellement n'être générée qu'à partir de 200, 300 tokens ou plus. Donc c'est certain que ça créé de la latence.
Le truc c'est que c'est spécifique à chaque modèle (la verbosité du raisonnement de gpt-oss peut être configuré, mais c'est le seul à faire ça, Qwen3 à côté est soit hyper verbeux, soit répond directement sans raisonnement). Et les instructions que tu spécifies au modèle ont également une incidence.
Donc non, il n'y a pas de barème magique pour comparer simplement tout ce monde là, car tous les modèles sont différents et beaucoup de modèles ont des domaines d'application privilégiés (dans l'absolu un modèle petit et performant mais verbeux pourrait donner des réponses plus lentement qu'un modèle plus lourd mais concis).
On compare généralement la qualité des réponses par domaines plus ou moins généraux, les capacités linguistiques, techniques, et la factualités.
Et pour la performance brute, le nombre de tokens à la seconde suffit, même si c'est pas forcément mis en avant parce que quand tu as l'habitude, le simple fait de connaître le nombre de paramètres actifs suffit à en avoir une idée approximative (en l’occurrence gpt-oss-120b, c'est 5,1 milliards de paramètres actifs par tokens, donc en théorie plus rapide qu'un modèle de seulement 8 milliards de paramètres tel que Llama-3.1-8B, même si des détails architecturaux et d'implémentation peuvent varier, dans les grandes lignes ça marche).
J'ai par contre je n'ai jamais entendu parler d'un comparatif qui notait la concision des réponses.
C'est dommage parce que ça serait une bonne chose que les llm soient les plus concis possible, le problème est qu'ils tendent à être moins précis et moins qualitatifs quand on leur impose d'écourter les réponses via des instructions…
Les petits modèles ont deux utilités, tester une architecture avant de dépenser beaucoup d'énergie pour entraîner des modèles plus gros.
Sinon répondre à des besoins précis (via le fine-tuning) avec des modèles spécialisés économes en ressources.
Si tu prends un modèle comme Qwen3-4B, tu peux typiquement le faire tourner sur un téléphone haut de gamme.
Donc si tu as un GPU avec au moins 6 Go de vram, ça devrait pas être un problème à faire tourner sur ta machine.
Faut savoir qu'avoir 16 Go de Ram c'est bien, mais si tu peux avoir cette mémoire dans ton GPU c'est mieux niveau performances, et de loin !
Si un jour tu décides d'acheter un GPU avec l'idée de faire ton propre ChatGPT, penses que dans ce cas d'usage la quantité de mémoire disponible sera toujours plus importante que la puissance de calcul (ne te fais pas influencer pas les comparatifs et autre benchs qui sont orientés jeux vidéos).
Parce que tu peux avoir le GPU le plus puissant du monde, les performances s'effondreront si tu es obligé de faire tourner en partie le modèle sur la mémoire centrale.
Plus tu as de vram, plus tu aura un large choix de modèles, et plus ils seront potentiellement qualitatifs.
Si tu prends la famille des Qwen3-30B-A3B, ils sont calibrés pour pouvoir être utilisés avec 24 Go de vram une fois quantifié en 4 bits par poids, mais avec une taille de contexte relativement petite (~16K hors optimisation type flash attention).
Donc plus tu auras de mémoire en plus, plus tu auras du confort d'utilisation, surtout si tu veux t'en servir comme assistant de travail (code, écriture, rédaction d'articles, etc…).
Je connais ollama que de nom, j'ai jamais utilisé.
Je passe par vllm pour mon propre serveur dédié et llama.cpp en complément sur ma machine de travail (ollama est basé sur llama.cpp).
Donc je connais pas le détail pour ollama, mais llama.cpp permet de spécifier le nombre de couches du modèle sur le GPU.
Cela permet de faire tourner des modèles qui ne rentrent pas dans ta VRAM en utilisant la mémoire centrale (au prix d'un ralentissement de l'ensemble).
Sur llama.cpp, cela se règles avec des paramètres tels que:
--n-gpu-layers (nombre de couches sur GPU)
--tensor-split (si tu as plusieurs GPU)
--ctx-size" (taille du contexte. Plus tu réduis la taille du contexte moins tu auras besoin de mémoire, mais si ta machine a les capacités, mets la valeur maximale supportée par le modèle).
En local, j'ai deux GPU de 16 Go, donc ça me permet de charger des modèles jusqu'à environ 30 milliards de paramètres avec une taille de contexte raisonnable après quantification en Q4_K_M (typiquement ce que propose ollama généralement).
Le problème de ollama, c'est que c'est conçu pour être une solution simple et générique, mais c'est plus compliqué pour adapter à des cas particuliers (comme le déchargement sur la mémoire centrale ou définir la taille de contexte). Et pour être compatible avec un maximum de configuration, ils définissent souvent une taille contexte très petite (4096), alors que beaucoup de modèles actuels supportent jusqu'à 128K tokens, voir plus.
Si tu veux pas te prendre la tête à passer directement par llama.cpp et/ou que tu ne sais pas comment t'y retrouver parmi tous les modèles, je te conseille une interface comme lm-studio.
L'interface est bordélique, c'est une application Electron type avec une l'ergonomie douteuse (je déteste ça). Par contre c'est très complet.
Et lancer une serveur compatible OpenAI en local avec llama-serveur (de llama.cpp):
llama-server --model Qwen3-Coder-30B-A3B-Instruct-Q4_K_M.gguf --jinja --n-gpu-layers 1000 --port 8080 --alias default --ctx-size 24000
Maintenant tu peux t'y connecter avec tout client qui permet de définir manuellement le point d'entrée pour OpenAI (ici http://127.0.0.1:8080/v1/chat/completions, modèle 'default').
Si tu connais pas, tu peux être perdu au début (surtout avec tous ces modèles, leur quantification et leurs variantes), mais les outils ne sont pas si complexes et c'est facile de se créer des scripts bash qui vont bien une fois que tu as trouvé ton bonheur.
+1 pour Qwen3-Coder-30B-A3B, les modèles Qwen3 sont probablement la meilleur familles de modèles à l'heure actuelle pour l'usage local (en terme de rapport qualité/rapidité).
C'est dommage pour Mistral puisqu'ils ont inspirés ce genre de modèles avec Mixtral-8x7B mais qu'ils n'ont pas persévéré, alors que Qwen a poussé la logique de l'architecture MoE à fond (sous-modèles très petits et rapides), et ils obtiennent des modèles exceptionnels et étonnamment peut médiatisés en dehors de l'engouement sur HuggingFace.
D'ailleurs OpenAI a suivi le même chemin avec gpt-oss…
Pour le développement Python, j'utilise Pycharm avec l'extension ProxyAI. Il suffit ensuite de configurer la connexion sur un serveur de type "custom OpenAI".
Sur OSS Code j'utilise Cline pour l'assistance mais j'ai jamais cherché à faire du vibe-coding, ça m'a l'air superflus pour l'usage que j'en ai.
Je ne crois pas que la réforme de 90 avait pour ambition d'assainir Twitter, mais je peux me tromper.
Le sujet n'est pas Twitter en soit, mais le niveau général (et notamment linguistique).
J'ai pris Twitter pour exemple car c'est le principal Agora, mais de ce que j'ai pu voir, c'est probablement encore pire sur Instagram ou Tiktok…
Je parlais de la vidéo du sénat où il invitait aussi le sénat à auditionner d'autres sachants sur l'IA :
« Faites ça avec Yann Le Cun, avec des gens qui savent et connaissent les IA. Ne faites pas ça avec des gens qui disent n'importe quoi comme Laurent Alexandre ».
Pour le coup personne ne lui donnera tort sur le fond concernant Laurent Alexandre.
Cependant il me semble mal placé pour donner des leçons de compétences.
La visibilité de Julia est faible par rapport aux discours laudatifs sur l'IA générative dans les médias (TV, radio, Web, etc.) et des politiciens, notamment Macron !
Si tu parles du discours ambiant, tu as probablement raison. Par contre il fait probablement parti des "expert" les plus présents sur les plateaux.
En fait c'est même le seul à être régulièrement invité à ma connaissance.
Si tu compares avec un gars comme Arthur Mensch (qui est lui un réel expert du domaine, personne ne le niera), tapes les deux noms sur Youtube, la différence saute aux yeux.
Luc Julia profite probablement d'avoir été présent sur des plateaux depuis plusieurs années, avant même l'explosion de ChatGPT, et de pas trop s’appesantir sur des détails techniques, ce qui en fait probablement un "bon client".
Maintenant ça ne me parait pas à la hauteur des enjeux.
Aux Etats-Unis, les entrepreneurs du secteur comme Sam Altman ou Jensen Huang ont une présence médiatique largement supérieure à ce que l'on peut voir en France, où l'on préfère généralement passer par des "experts", des intermédiaires au discours convenu et prévisible.
Hum, là tu sembles fortement influencé par la vidéo du clown, il est quand même directeur scientifique chez RENAULT depuis 4 ans.
Oui, Renault, la fameux entreprise connue pour ses recherches et avancées techniques en IA et autres LLM…
Merci pour la correction -^ (trop tard pour éditer).
J'ai effectivement quelques lacune, et c'est d'ailleurs la difficulté de l’exercice quand il s'agit de critiquer les autres, mais tu admettra qu'il y a quand une différence entre mal formuler certaines tournures de phrases, faire quelques fautes de ci, de là et systématiquement détruire la structure des phrases, et en utilisant le minimum de vocabulaire.
Concernant l'idée selon laquelle ont n'écrit pas de la même façon sur une plateforme de micro-blogging, il est évident que le format n'aide pas à l'élaboration de la pensée abstraite et que les utilisateurs tendent à s'exprimer de la même façon qu'à l'oral.
Donc ça ne change rien à mon propos, puisqu'on peut difficilement imaginer que des posteurs indigents sur Twitter se révèlent comme par magie être de fin lettrés une fois leur téléphone en veille…
Je ne sais pas de quelle vidéo tu parles exactement. Son audition au sénat ou le débat chez Le Futurologue ?
L'argument de l'écologie est pertinent.
Et effectivement, Monsieur Phi ne l'a pas mis à son crédit.
Maintenant, Luc Julia se contente d'appliquer toujours la même méthode, à savoir qu'une large partie de la population est anxieuse vis à vis de l'écologie, donc il appui sur cet aspect (ce qu'il ne faisait pas en 2023 par ailleurs, c'est visiblement plus récent).
Pour moi ça ne change rien au fait que le gars semble avoir une visibilité trop important au vu de ses compétences réelles, ce qui n'aide pas à éclairer le débat.
Et plus que tout, où sont ses contradicteurs dans le débat publique ?
La vidéo de monsieur Phi met également l'accent sur le fait que le gars soit invité partout et qu'il a rarement des contradicteurs (l'exception étant chez le Futurologue, où il s'est révélé être particulièrement désagréable par ailleurs).
Et il me semble donc nécessaire d'insister que c'est un scandale qu'il puisse être auditionné au sénat alors qu'il semble avoir de profondes lacunes techniques.
Je doute de l'intérêt du débat dans le sens où je ne sais pas si une simple réforme aurait pu changer grand chose à la situation actuelle.
Il suffit de créer un compte Twitter vierge (ce que j'ai fais très récemment) pour tomber au hasard sur des discussions insoupçonnée.
Les conjonctions et la ponctuation semblent avoir disparues en nouvelle France.
De nouvelle formes de ponctuations apparaissent, tels que "sah".
Ainsi il est admis d'énoncer "Les frères je crois pas on va aller au ciné" (fautes d'orthographes non incluses).
Dans ces conditions, je ne vois pas ce qu'une réforme aurait pu changer puisque que la force du changement est principalement démographique.
Pour le coup j'ai trouvé la vidéo de Monsieur Phi travaillée, sourcée et plus factuelle que Luc Julia qui répète les même histoires depuis la sortie initiale de ChatGPT, alors que le monde change à grande vitesse (il n'y a qu'à voir ce qui se passe en ce moment autour du protocole MCP).
Si j'ai pu regarder certaines de des conférences de Luc Julia (sans être convaincu), j'avais vu la série de reportages sur la Silicon Valley qu'il avait commis pour Arte. Et je l'avais trouvé insupportable !
Sa façon soixante-huitarde de faire passer son insolence et son irrévérence pour de la "coolitude" (notamment le moment où il pousse le journaliste à entrer dans le bâtiment d'une entreprise sans y être invité), c'était vraiment malsain.
Bon vous me direz que c'est hors sujet, mais j'ai rien de plus à ajouter que ce qui a été dit dans la vidéo de Monsieur Phi…
Je suis gré envers Monsieur Phi d'avoir tiré un missile en direction ce pitre (décoré de la légion d'honneur), dont l'influence dans le débat sur l'IA en France surpasse de loin celle des fondateurs de Mistral AI, ce qui en dit beaucoup sur l'état catastrophique du débat.
Nous fûmes l'une des nations à la pointe de la science, nous sombrons dans l'obscurantisme et la peur de l'innovation.
Et de ce point de vu, un gars tel que Luc Julia est parfait pour assurer le rôle du "en même temps".
Appliqué à l'IA ça devient "ne vous inquiétez pas, c'est rien du tout finalement".
Alors que si, tout est en train de changer, qu'on le veuille ou non.
Il faut prendre la techno à bras le corps, sinon les conséquences seront bien pire que l'inaction…
L'un des problèmes auquel a été confronté le RN depuis des décennies est que les banques refusaient de lui prêter de l'argent pour financer ses campagnes présidentielles et législatives (c'est illégal mais personne n'en parle là).
Donc il y a pas de quoi pavoiser avec la moraline du type "le FN/RN se fait financer par des banques Russes" ou "le RN appel à des particuliers" quand les autres partis en dehors du RN et Reconquête qui sont assurés de faire plus de 5% n'ont aucun problème de financement.
Pour l'affaire qui a provoquée l'inéligibilité de MLP je me permet de rappeler que Bayrou a été condamné pour les mêmes faits, ce qui ne l'a pas empêché d'être premier ministre par la suite et que Mélenchon est également poursuivi pour la même raison (son affaire est au point mort pour le moment).
Pour information je suis même pas spécialement pro RN, mais faut faire la part des chose et savoir être honnête.
Si Mélenchon était rendu inéligible je trouverai ça aussi scandaleux (le principe de la démocratie, c'est que c'est au peuple de juger, non ?).
Taper au porte-monnaie est une chose, mais si on accepte que la justice s'invite dans toutes les campagnes électorales ont commence à ouvrir une boite de pandore dangereuse (ça avait commencé en 2017 avec Fillon).
Je me souviens d'un reportage il y a une dizaine d'années environ qui parlait des magouilles de Poutine pour se maintenir au pouvoir en décrédibilisant ses adversaire les plus sérieux, notamment le chantage via des caméra cachées compromettante (après une recherche il s'agirait de Mikhail Kasyanov).
On fonctionne un peu différemment mais fondamentalement le résultat est le même actuellement en France et il n'y a pas lieu de se réjouir.
Et merci pour l'énième article du monde à charge contre Stérin, mais je n'accorde qu'une crédibilité toute relative à ce journal partial qui ne s'est jamais penché sur tout l'entourage oligarchiques de Macron dès la sortie de l'ENA avec Jean-Pierre Jouyet, Alain Minc et Jacques Attali puis plus tard des gens comme Matthieu Pigasse et Xavier Niel, entre autres.
Là le "journal de référence" semble avoir fait preuve d'une cécité tout à fait étonnante.
Votre grille de lecture datée vous aveugle, mais, outre tout ce qui a été accompli par la commission von der leyen ces dernières années, elle travaille en ce moment à l'accès aux données chiffrées sans mandat de justice: https://ec.europa.eu/commission/presscorner/detail/fr/ip_25_1599
Nous glissons vers la dictature, la justice en France comme en Europe est de plus en plus utilisé pour attaquer les opposition (de gauche comme de droite), des gens qui se nomment entre eux peuvent décider pour tout le continent et exploitent chaque crise pour se doter sans cesse de nouvelle compétences en dehors des traités initiaux et sans contre pouvoir possible.
Dans ces conditions, s'il leur suffit de dire "n'écoutez pas l'opposition, elles est d’extrême droite" pour que des gens modérés et sérieux comme vous gobent tout, contrairement à ces ploucs franchouillards qui ont piqués des millions dans la caisse, votre mépris est une distinction.
Le fait que la procédure ait été ouverte pile au moment où circulait une pétition entre députés européens pour ouvrir une motion de censure contre la commission von der Leyen est probablement tout à fait fortuit et n'a absolument aucun rapport, pas plus que l’abstention massive des députés patriotes français pour la soutenir (et qui se feront probablement discrets lors du vote).
Tout va bien la démocratie est sauve, la motion de censure est tuée dans l’œuf et tout ceci participe d'un monde meilleur, n'en doutons pas !
Quand je vois "Commission Européenne", j'ai les poils qui se hérissent !
En particulier si la commission Von des Layen venait à plébisciter un acteur français, ça serait une vrai surprise.
Je suis très sceptique mais si ça venait à se concrétiser, je gage que l'on apprendra dans quelques temps le revers de la médaille…
En sachant que choisir un prestataire français coûte généralement moins cher parce que l'état récupère la différence en impôts et prélèvement indirects.
Faire appel à l'étranger pour un service réalisé à distance sur internet est une perte sèche.
Le transfert de nos données de santé sur Azure n'a pas déclenché de scandale, donc de l'analyse de données sur les RS, on est vraiment sur un non problème pour nos décideurs.
Le problème est que l'on a tellement attaqué le principe d'état nation en Europe que c'est même plus un problème, c'est devenu normal.
Après il y a peut être aussi un non dit qui est la minimisation du risque de fuite de la presse en France sur la nature des investigation du gouvernement…
J'adhère dans les grandes lignes avec le contenu de l'article et je ne partage pas non plus l'engouement actuel pour le "vibe coding", mais on ne peut pas dire non plus qu'ils sont fondamentalement inutiles et/ou inefficaces.
Bien utilisés, ils permettent d'augmenter la productivité.
Personnellement j'utilise très rarement des llm pour la génération de code, (je trouve pénible de devoir relire).
Par contre ils sont très utiles pour être questionnés, explorer de nouveaux concepts que l'on ne maîtrise pas bien.
Ils peuvent se tromper, mais ça donne toujours une base sur laquelle s'appuyer, qui peut ensuite être complétée par une recherche web.
Après il faut distinguer la capacité des modèles à générer du code au milieu d'un bloc existant (fill in the middle, donc du complètement) et l'utilisation agentique, où toutes les critiques que l'on peut faire sont à mon sens fondés.
En particulier les attentes autour des agents soit-disant capables de générer des applications complètes à partir de quelques instructions sont totalement déraisonnables à l'heure actuelle.
Maintenant on verra bien dans quelques années, parce que peut être que toutes ces critiques paraîtront bientôt aussi peu inspirées que d’hypothétiques éleveurs de chevaux en 1890 déclamant que l'automobile ne remplacerait jamais le cheval parce que ça pue, ça va pas vite, c'est pas fiable, c'est bruyant, faut du pétrole, etc…
D'ailleurs toutes les critiques que l'on pouvait imaginer sont toujours valables, sauf "ça va pas vite".
Le simple fait que ça aille plus vite justifie tout le reste. Probablement qu'il en sera de même avec les llm…
C'est vrai à certains égards mais un revirement est toujours possible.
Dans un marché où l'on peut faire de nombreux parallèles, celui des navigateurs internet, c'est même arrivé plusieurs fois (Internet Explorer a écrasé Netscape, qui revient en force sous le nom de Firefox avant que Chrome n'écrase tout le monde).
Pourtant à partir de 2001 et la sortie de Window XP, pour la plupart des gens Internet Explorer était indissociablement lié au web.
Après c'est certain que c'est plus facile de changer de navigateur que de système d'exploitation.
Mais si ce dernier propose un réel avantage c'est pas impossible, ça prendra simplement plus de temps.
Il ne s'agit pas forcément d'une nouvelle fonctionnalité magique, mais simplement un meilleur alignement avec le marché.
Je ne sais pas ce que tu entends par "de droite", je suppose qu'on ne s'entendrait jamais sur la définition, mais la droite ne se limite pas à la liberté économique .
Par contre tu dis "les gens votent systématiquement pour l’individualisme".
Si le contraire serait le collectivisme, je dirais que la part des dépenses publiques dans le PIB est passé de moins de 20% dans les années 80 à plus de 65% aujourd'hui (source https://www.ifrap.org/data/les-depenses-publiques-de-la-france-depuis-1978).
Donc non, la vie publique tend de plus en plus vers le collectivisme et non le libéralisme.
Le plus dramatique c'est que tous ceux qui entreprennent se font matraquer d’impôts, ce qui les mets dans difficulté, ça réduit la portion productive, et créé une boucle vers le collectivisme, l'état étant entraîné à maintenir le niveau de vie de la population tant par l'endettement, ce qui ne peut que mal finir à terme.
Mais on nous dit que le problème c'est l'ultralibéralisme ?
Mirosoft qui risquent de voir leurs factures, négociations et contrats s’évaporer.
C'est possible, mais quand tu vois que même en France l’état a préféré Microsoft par rapport à OVH pour héberger nos données médicales, je sais pas si ils ont des alternatives crédibles.
Mais peut être parce que l'Occident a une responsabilité particulière dans le conflit israëlo-palestinien
Donc on est d'accord, tout est une question de subjectivité et de notre propre rapport au conflit…
On peut également considérer que ça ne nous regarde pas.
Après, effectivement la France, a toujours été alliée à Israel, (bien qu'elle soit plus ambiguë que par le passé).
Par contre ça n'a à mon sens pas à être l'un des sujets principaux des débats politiques.
En ce moment le nombre de faillites d'entreprises explose du fait du remboursement des dettes Covid et de l'explosion des factures d’électricité.
Cela devrait être un sujet de discussion majeur.
Mais non, on va tous ne parler que d'un conflit, où par ailleurs, nous n'avons aucune prise, que cela nous plaise ou non nous resterons des spectateurs.
Le fait que Israël a l'arme atomique en théorie, et un soutien militaire direct des USA et de l'armement de pointe venant du monde entier explique en partie aussi leur réaction prudente.
Actuellement beaucoup de pays tournent le dos à l'Occident, notamment au Sahel en prenant appui sur la Chine et la Russie.
C'est aussi le cas d'une partie de l'Asie centrale et du Sud, bien que ça soit plutôt sous la contrainte.
Le monde arabe pourrait tenter la même approche mais le fait pas (ce qui pourrait à terme finir de provoquer un mouvement d'isolement général de l'Occident).
Probablement ont ils leur raisons, peut être que ça viendra plus tard, peut être trouvent ils très bien de pas trop s'en mêler pour le moment mais laisser leur population venir en masse en Occident et récolter les fruits plus tard, j'en sais rien.
Nous avions pour acquis l'essentiel : la santé et le développement[…]
Ca me semble assez nébuleux.
Mais si tu veux mon avis, nos "valeurs" ne valent que si nous sommes puissants.
Quand l'occident illuminait le monde, c'est pas parce qu'il inspiraient tantôt le respect, tantôt la crainte par sa réussite.
Les "valeurs" c'est surtout pour nous même, pour se donner bonne conscience, le reste du monde n'en a rien à faire.
Tous les peuples du monde, toutes les civilisations ont des valeurs, dont un certain nombre nous rebutent.
Par exemple les crimes d'honneur au Pakistan ou en Afghanistan sont à nos yeux injustifiables. C'est pourtant tout à fait normal pour eux.
Si maintenant la France ou l'Europe chute, les "valeurs" à défendre disparaîtront avec, c'est aussi simple que ça.
Mais rien du tout. Ici par exemple c'est Logiciel Libre, alors je me contrefous que tu sois d'extrême droite, de droite, de gauche ou d'extrême gauche […]
On dit souvent que tout est politique.
Mais peut être que pour le bien commun, l'on devrait moins politiser tout un tas de choses et en rester à des grand sujets qui concernent concrètement tout le monde (santé, éducation, infrastructures, justice, impôts, le régalien quoi…).
Donc si tu veux mon avis, peut être que l'on devraient moins parler politique sur Linuxfr, parce que c'est en principe pas le sujet du site .
C'est certain que dans l'absolu ça n'a pas à être un enjeu politique puisque c'est un conflit étranger, donc en dehors de la cité.
Mais c'est une question de gauche dans notre cas puisque la gauche ne parle que de ça depuis l'an dernier.
C'est d'ailleurs mon point de vue, je comprends pas pourquoi.
Même d'un point de vu tactique ça m'a l'air hasardeux comme stratégie, Mélenchon s'en prend autant dans la gueule que le père Le Pen dans les années 80-90…
C'est bien du Jean-Marie Le Pen dans le texte, aucun doute possible. Mettre un problème de pays riche et développé (la désindustrialisation) sur le même plan que des guerres ou les civils meurent en masse, c'est tout simplement stupide.
Je ne vois pas en quoi c'est stupide
Là où se place notre affect est très subjectif. On peut y mettre de la morale mais c'est pas une question d'intellect.
Par exemple, il y a eu il y a quelques années un conflit en Ethiopie qui aurait fait dans les 800 000 morts, soit plus que la population à Gaza.
J'ai pas le souvenir que grand monde en ait eu grand chose à faire. Pas de manifs, pas de relais dans les médias appelant à prendre telle ou telle position, etc…
Si le conflit à Gaza passionne autant c'est qu'il est à certains égards perçu comme singulier.
Et cette singularité est probablement plus en rapport avec de la politique intérieure en Occident qu'une quelconque proximité avec la Gazaouis.
Même les Egyptiens (qui leur sont bien plus proche à tout point de vue) pourraient leur venir en aide mais ne le font pas.
[^] # Re: Le gagnant remporte tout
Posté par Florian.J . En réponse au lien Même le patron de OpenAI reconnaît que la bulle de l'IA éclatera 🎶💸🍾🥂 🥳🎉🎊🎆. Évalué à 3 (+2/-0).
Et les milliards de Microsoft n'ont pas permis d'imposer ASP.
Comme quoi, c'est pas toujours une question d'agent.
Souvent être le premier acteur majeur sur un marché favorise grandement la position hégémonique, parce qu'allez savoir pourquoi, le marché des logiciels aime les monopoles (Windows, Chrome, Suite Office, presque tous les secteurs que je connaisse ont un progiciel dominant laissant des miettes à la concurrence, comme Photoshop, AutoCAD pour la DAO, etc…).
Le monde du dev semble un peu moins impacté (et encore, Python est progressivement devenu la lingua franca côté client, JS/TS pour le Web et PHP côté serveur).
Probablement que c'est un moyen pour les utilisateurs de combattre l'hétérogénéité et créer des normes de fait.
Je pense que Sam Altman pense à ça.
Si la bulle éclate, il sera très probablement le grand gagnant et beaucoup de concurrents qui captent actuellement des capitaux pourraient disparaître.
Tout ça parce que pour 90% de la population, IA, llm et ChatGPT c'est la même chose. Le reste est juste de la curiosité et des noms que l'on peut vaguement citer (comme Linux sur le marché des OS).
Même en France Mistral peine à concurrencer OpenAI, c'est dire si ce phénomène normatif est puissant.
La seule spécificité de ce marché, c'est que l'IA tend à s'intégrer à d'autre types de logiciels par des API, donc il y a aura probablement la possibilité pour certains acteurs d'avoir des parts de marché importante, même si c'est invisible pour l'utilisateur moyen.
Mais pour le grand public, je pense que si ils font pas n'importe quoi, à priori rien ne pourra empêcher le monopole d'OpenAI, c'est un scénario tout tracé que l'on a vu des dizaines de fois ces dernières décennies…
[^] # Re: Benchmark possible ? Valeur indicative de vitesse ?
Posté par Florian.J . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 3 (+2/-0).
Des métriques, il y a en a tout un tas, ça dépends de ce que tu cherches.
Tu prends l'exemple des FPS, mais avec les llm le nombre de tokens par secondes est tout aussi pertinent.
Maintenant le temps de génération global est également dépendant de la longueur de la génération, surtout que tu as l'air d'utiliser gpt-oss (déduction puisque 120b et dernier modèle à la mode…), qui est un modèle de raisonnement.
Ce genre de modèle a une première étape de génération de "raisonnement" et ensuite de génération de la réponse finale, qui peut potentiellement n'être générée qu'à partir de 200, 300 tokens ou plus. Donc c'est certain que ça créé de la latence.
Le truc c'est que c'est spécifique à chaque modèle (la verbosité du raisonnement de gpt-oss peut être configuré, mais c'est le seul à faire ça, Qwen3 à côté est soit hyper verbeux, soit répond directement sans raisonnement). Et les instructions que tu spécifies au modèle ont également une incidence.
Donc non, il n'y a pas de barème magique pour comparer simplement tout ce monde là, car tous les modèles sont différents et beaucoup de modèles ont des domaines d'application privilégiés (dans l'absolu un modèle petit et performant mais verbeux pourrait donner des réponses plus lentement qu'un modèle plus lourd mais concis).
On compare généralement la qualité des réponses par domaines plus ou moins généraux, les capacités linguistiques, techniques, et la factualités.
Et pour la performance brute, le nombre de tokens à la seconde suffit, même si c'est pas forcément mis en avant parce que quand tu as l'habitude, le simple fait de connaître le nombre de paramètres actifs suffit à en avoir une idée approximative (en l’occurrence gpt-oss-120b, c'est 5,1 milliards de paramètres actifs par tokens, donc en théorie plus rapide qu'un modèle de seulement 8 milliards de paramètres tel que Llama-3.1-8B, même si des détails architecturaux et d'implémentation peuvent varier, dans les grandes lignes ça marche).
J'ai par contre je n'ai jamais entendu parler d'un comparatif qui notait la concision des réponses.
C'est dommage parce que ça serait une bonne chose que les llm soient les plus concis possible, le problème est qu'ils tendent à être moins précis et moins qualitatifs quand on leur impose d'écourter les réponses via des instructions…
[^] # Re: LocalLLaMA
Posté par Florian.J . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 2 (+1/-0).
Les petits modèles ont deux utilités, tester une architecture avant de dépenser beaucoup d'énergie pour entraîner des modèles plus gros.
Sinon répondre à des besoins précis (via le fine-tuning) avec des modèles spécialisés économes en ressources.
Si tu prends un modèle comme Qwen3-4B, tu peux typiquement le faire tourner sur un téléphone haut de gamme.
Donc si tu as un GPU avec au moins 6 Go de vram, ça devrait pas être un problème à faire tourner sur ta machine.
Faut savoir qu'avoir 16 Go de Ram c'est bien, mais si tu peux avoir cette mémoire dans ton GPU c'est mieux niveau performances, et de loin !
Si un jour tu décides d'acheter un GPU avec l'idée de faire ton propre ChatGPT, penses que dans ce cas d'usage la quantité de mémoire disponible sera toujours plus importante que la puissance de calcul (ne te fais pas influencer pas les comparatifs et autre benchs qui sont orientés jeux vidéos).
Parce que tu peux avoir le GPU le plus puissant du monde, les performances s'effondreront si tu es obligé de faire tourner en partie le modèle sur la mémoire centrale.
Plus tu as de vram, plus tu aura un large choix de modèles, et plus ils seront potentiellement qualitatifs.
Si tu prends la famille des Qwen3-30B-A3B, ils sont calibrés pour pouvoir être utilisés avec 24 Go de vram une fois quantifié en 4 bits par poids, mais avec une taille de contexte relativement petite (~16K hors optimisation type flash attention).
Donc plus tu auras de mémoire en plus, plus tu auras du confort d'utilisation, surtout si tu veux t'en servir comme assistant de travail (code, écriture, rédaction d'articles, etc…).
[^] # Re: LocalLLaMA
Posté par Florian.J . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 2 (+1/-0). Dernière modification le 17 août 2025 à 16:55.
Je connais ollama que de nom, j'ai jamais utilisé.
Je passe par vllm pour mon propre serveur dédié et llama.cpp en complément sur ma machine de travail (ollama est basé sur llama.cpp).
Donc je connais pas le détail pour ollama, mais llama.cpp permet de spécifier le nombre de couches du modèle sur le GPU.
Cela permet de faire tourner des modèles qui ne rentrent pas dans ta VRAM en utilisant la mémoire centrale (au prix d'un ralentissement de l'ensemble).
Sur llama.cpp, cela se règles avec des paramètres tels que:
--n-gpu-layers (nombre de couches sur GPU)
--tensor-split (si tu as plusieurs GPU)
--ctx-size" (taille du contexte. Plus tu réduis la taille du contexte moins tu auras besoin de mémoire, mais si ta machine a les capacités, mets la valeur maximale supportée par le modèle).
En local, j'ai deux GPU de 16 Go, donc ça me permet de charger des modèles jusqu'à environ 30 milliards de paramètres avec une taille de contexte raisonnable après quantification en Q4_K_M (typiquement ce que propose ollama généralement).
Le problème de ollama, c'est que c'est conçu pour être une solution simple et générique, mais c'est plus compliqué pour adapter à des cas particuliers (comme le déchargement sur la mémoire centrale ou définir la taille de contexte). Et pour être compatible avec un maximum de configuration, ils définissent souvent une taille contexte très petite (4096), alors que beaucoup de modèles actuels supportent jusqu'à 128K tokens, voir plus.
Si tu veux pas te prendre la tête à passer directement par llama.cpp et/ou que tu ne sais pas comment t'y retrouver parmi tous les modèles, je te conseille une interface comme lm-studio.
L'interface est bordélique, c'est une application Electron type avec une l'ergonomie douteuse (je déteste ça). Par contre c'est très complet.
Sinon tu peux simplement télécharger le modèle directement:
https://huggingface.co/lmstudio-community/Qwen3-Coder-30B-A3B-Instruct-GGUF/tree/main (je conseille Qwen3-Coder-30B-A3B-Instruct-Q4_K_M.gguf)
Si tu veux dans un premier temps expérimenter, prends des mini modèles:
https://huggingface.co/lmstudio-community/Qwen3-0.6B-GGUF/tree/main
https://huggingface.co/lmstudio-community/Qwen3-4B-Instruct-2507-GGUF/tree/main (petit mais loin d'être ridicule)
Et lancer une serveur compatible OpenAI en local avec llama-serveur (de llama.cpp):
llama-server --model Qwen3-Coder-30B-A3B-Instruct-Q4_K_M.gguf --jinja --n-gpu-layers 1000 --port 8080 --alias default --ctx-size 24000
Maintenant tu peux t'y connecter avec tout client qui permet de définir manuellement le point d'entrée pour OpenAI (ici http://127.0.0.1:8080/v1/chat/completions, modèle 'default').
Si tu connais pas, tu peux être perdu au début (surtout avec tous ces modèles, leur quantification et leurs variantes), mais les outils ne sont pas si complexes et c'est facile de se créer des scripts bash qui vont bien une fois que tu as trouvé ton bonheur.
[^] # Re: LocalLLaMA
Posté par Florian.J . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 4 (+3/-0).
+1 pour Qwen3-Coder-30B-A3B, les modèles Qwen3 sont probablement la meilleur familles de modèles à l'heure actuelle pour l'usage local (en terme de rapport qualité/rapidité).
C'est dommage pour Mistral puisqu'ils ont inspirés ce genre de modèles avec Mixtral-8x7B mais qu'ils n'ont pas persévéré, alors que Qwen a poussé la logique de l'architecture MoE à fond (sous-modèles très petits et rapides), et ils obtiennent des modèles exceptionnels et étonnamment peut médiatisés en dehors de l'engouement sur HuggingFace.
D'ailleurs OpenAI a suivi le même chemin avec gpt-oss…
Pour le développement Python, j'utilise Pycharm avec l'extension ProxyAI. Il suffit ensuite de configurer la connexion sur un serveur de type "custom OpenAI".
Sur OSS Code j'utilise Cline pour l'assistance mais j'ai jamais cherché à faire du vibe-coding, ça m'a l'air superflus pour l'usage que j'en ai.
[^] # Re: Intérêt du débat ?
Posté par Florian.J . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à -1 (+0/-2).
Le sujet n'est pas Twitter en soit, mais le niveau général (et notamment linguistique).
J'ai pris Twitter pour exemple car c'est le principal Agora, mais de ce que j'ai pu voir, c'est probablement encore pire sur Instagram ou Tiktok…
[^] # Re: Intérêt du débat ?
Posté par Florian.J . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à -5 (+0/-6).
Et pourtant elle tourne…
[^] # Re: Mr Phi est un expert en IA ?
Posté par Florian.J . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 8 (+9/-2).
Pour le coup personne ne lui donnera tort sur le fond concernant Laurent Alexandre.
Cependant il me semble mal placé pour donner des leçons de compétences.
Si tu parles du discours ambiant, tu as probablement raison. Par contre il fait probablement parti des "expert" les plus présents sur les plateaux.
En fait c'est même le seul à être régulièrement invité à ma connaissance.
Si tu compares avec un gars comme Arthur Mensch (qui est lui un réel expert du domaine, personne ne le niera), tapes les deux noms sur Youtube, la différence saute aux yeux.
Luc Julia profite probablement d'avoir été présent sur des plateaux depuis plusieurs années, avant même l'explosion de ChatGPT, et de pas trop s’appesantir sur des détails techniques, ce qui en fait probablement un "bon client".
Maintenant ça ne me parait pas à la hauteur des enjeux.
Aux Etats-Unis, les entrepreneurs du secteur comme Sam Altman ou Jensen Huang ont une présence médiatique largement supérieure à ce que l'on peut voir en France, où l'on préfère généralement passer par des "experts", des intermédiaires au discours convenu et prévisible.
Oui, Renault, la fameux entreprise connue pour ses recherches et avancées techniques en IA et autres LLM…
[^] # Re: Intérêt du débat ?
Posté par Florian.J . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à 1 (+2/-2). Dernière modification le 14 août 2025 à 23:00.
Merci pour la correction -^ (trop tard pour éditer).
J'ai effectivement quelques lacune, et c'est d'ailleurs la difficulté de l’exercice quand il s'agit de critiquer les autres, mais tu admettra qu'il y a quand une différence entre mal formuler certaines tournures de phrases, faire quelques fautes de ci, de là et systématiquement détruire la structure des phrases, et en utilisant le minimum de vocabulaire.
Concernant l'idée selon laquelle ont n'écrit pas de la même façon sur une plateforme de micro-blogging, il est évident que le format n'aide pas à l'élaboration de la pensée abstraite et que les utilisateurs tendent à s'exprimer de la même façon qu'à l'oral.
Donc ça ne change rien à mon propos, puisqu'on peut difficilement imaginer que des posteurs indigents sur Twitter se révèlent comme par magie être de fin lettrés une fois leur téléphone en veille…
[^] # Re: Mr Phi est un expert en IA ?
Posté par Florian.J . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 9 (+9/-1).
Je ne sais pas de quelle vidéo tu parles exactement. Son audition au sénat ou le débat chez Le Futurologue ?
L'argument de l'écologie est pertinent.
Et effectivement, Monsieur Phi ne l'a pas mis à son crédit.
Maintenant, Luc Julia se contente d'appliquer toujours la même méthode, à savoir qu'une large partie de la population est anxieuse vis à vis de l'écologie, donc il appui sur cet aspect (ce qu'il ne faisait pas en 2023 par ailleurs, c'est visiblement plus récent).
Pour moi ça ne change rien au fait que le gars semble avoir une visibilité trop important au vu de ses compétences réelles, ce qui n'aide pas à éclairer le débat.
Et plus que tout, où sont ses contradicteurs dans le débat publique ?
La vidéo de monsieur Phi met également l'accent sur le fait que le gars soit invité partout et qu'il a rarement des contradicteurs (l'exception étant chez le Futurologue, où il s'est révélé être particulièrement désagréable par ailleurs).
Et il me semble donc nécessaire d'insister que c'est un scandale qu'il puisse être auditionné au sénat alors qu'il semble avoir de profondes lacunes techniques.
# Intérêt du débat ?
Posté par Florian.J . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à -2 (+6/-9). Dernière modification le 14 août 2025 à 21:46.
Je doute de l'intérêt du débat dans le sens où je ne sais pas si une simple réforme aurait pu changer grand chose à la situation actuelle.
Il suffit de créer un compte Twitter vierge (ce que j'ai fais très récemment) pour tomber au hasard sur des discussions insoupçonnée.
Les conjonctions et la ponctuation semblent avoir disparues en nouvelle France.
De nouvelle formes de ponctuations apparaissent, tels que "sah".
Ainsi il est admis d'énoncer "Les frères je crois pas on va aller au ciné" (fautes d'orthographes non incluses).
Dans ces conditions, je ne vois pas ce qu'une réforme aurait pu changer puisque que la force du changement est principalement démographique.
[^] # Re: Mr Phi est un expert en IA ?
Posté par Florian.J . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 7 (+9/-3).
Pour le coup j'ai trouvé la vidéo de Monsieur Phi travaillée, sourcée et plus factuelle que Luc Julia qui répète les même histoires depuis la sortie initiale de ChatGPT, alors que le monde change à grande vitesse (il n'y a qu'à voir ce qui se passe en ce moment autour du protocole MCP).
Si j'ai pu regarder certaines de des conférences de Luc Julia (sans être convaincu), j'avais vu la série de reportages sur la Silicon Valley qu'il avait commis pour Arte. Et je l'avais trouvé insupportable !
Sa façon soixante-huitarde de faire passer son insolence et son irrévérence pour de la "coolitude" (notamment le moment où il pousse le journaliste à entrer dans le bâtiment d'une entreprise sans y être invité), c'était vraiment malsain.
Bon vous me direz que c'est hors sujet, mais j'ai rien de plus à ajouter que ce qui a été dit dans la vidéo de Monsieur Phi…
Je suis gré envers Monsieur Phi d'avoir tiré un missile en direction ce pitre (décoré de la légion d'honneur), dont l'influence dans le débat sur l'IA en France surpasse de loin celle des fondateurs de Mistral AI, ce qui en dit beaucoup sur l'état catastrophique du débat.
Nous fûmes l'une des nations à la pointe de la science, nous sombrons dans l'obscurantisme et la peur de l'innovation.
Et de ce point de vu, un gars tel que Luc Julia est parfait pour assurer le rôle du "en même temps".
Appliqué à l'IA ça devient "ne vous inquiétez pas, c'est rien du tout finalement".
Alors que si, tout est en train de changer, qu'on le veuille ou non.
Il faut prendre la techno à bras le corps, sinon les conséquences seront bien pire que l'inaction…
[^] # Re: Le hasard
Posté par Florian.J . En réponse au lien Le parquet européen poursuit le RN et ses alliés européens sur des soupçons de financement occulte. Évalué à -4 (+1/-6).
L'un des problèmes auquel a été confronté le RN depuis des décennies est que les banques refusaient de lui prêter de l'argent pour financer ses campagnes présidentielles et législatives (c'est illégal mais personne n'en parle là).
Donc il y a pas de quoi pavoiser avec la moraline du type "le FN/RN se fait financer par des banques Russes" ou "le RN appel à des particuliers" quand les autres partis en dehors du RN et Reconquête qui sont assurés de faire plus de 5% n'ont aucun problème de financement.
Pour l'affaire qui a provoquée l'inéligibilité de MLP je me permet de rappeler que Bayrou a été condamné pour les mêmes faits, ce qui ne l'a pas empêché d'être premier ministre par la suite et que Mélenchon est également poursuivi pour la même raison (son affaire est au point mort pour le moment).
Pour information je suis même pas spécialement pro RN, mais faut faire la part des chose et savoir être honnête.
Si Mélenchon était rendu inéligible je trouverai ça aussi scandaleux (le principe de la démocratie, c'est que c'est au peuple de juger, non ?).
Taper au porte-monnaie est une chose, mais si on accepte que la justice s'invite dans toutes les campagnes électorales ont commence à ouvrir une boite de pandore dangereuse (ça avait commencé en 2017 avec Fillon).
Je me souviens d'un reportage il y a une dizaine d'années environ qui parlait des magouilles de Poutine pour se maintenir au pouvoir en décrédibilisant ses adversaire les plus sérieux, notamment le chantage via des caméra cachées compromettante (après une recherche il s'agirait de Mikhail Kasyanov).
On fonctionne un peu différemment mais fondamentalement le résultat est le même actuellement en France et il n'y a pas lieu de se réjouir.
Et merci pour l'énième article du monde à charge contre Stérin, mais je n'accorde qu'une crédibilité toute relative à ce journal partial qui ne s'est jamais penché sur tout l'entourage oligarchiques de Macron dès la sortie de l'ENA avec Jean-Pierre Jouyet, Alain Minc et Jacques Attali puis plus tard des gens comme Matthieu Pigasse et Xavier Niel, entre autres.
Là le "journal de référence" semble avoir fait preuve d'une cécité tout à fait étonnante.
[^] # Re: Le hasard
Posté par Florian.J . En réponse au lien Le parquet européen poursuit le RN et ses alliés européens sur des soupçons de financement occulte. Évalué à -3 (+2/-6).
Votre grille de lecture datée vous aveugle, mais, outre tout ce qui a été accompli par la commission von der leyen ces dernières années, elle travaille en ce moment à l'accès aux données chiffrées sans mandat de justice:
https://ec.europa.eu/commission/presscorner/detail/fr/ip_25_1599
Nous glissons vers la dictature, la justice en France comme en Europe est de plus en plus utilisé pour attaquer les opposition (de gauche comme de droite), des gens qui se nomment entre eux peuvent décider pour tout le continent et exploitent chaque crise pour se doter sans cesse de nouvelle compétences en dehors des traités initiaux et sans contre pouvoir possible.
Dans ces conditions, s'il leur suffit de dire "n'écoutez pas l'opposition, elles est d’extrême droite" pour que des gens modérés et sérieux comme vous gobent tout, contrairement à ces ploucs franchouillards qui ont piqués des millions dans la caisse, votre mépris est une distinction.
# Le hasard
Posté par Florian.J . En réponse au lien Le parquet européen poursuit le RN et ses alliés européens sur des soupçons de financement occulte. Évalué à -10 (+1/-12).
Le fait que la procédure ait été ouverte pile au moment où circulait une pétition entre députés européens pour ouvrir une motion de censure contre la commission von der Leyen est probablement tout à fait fortuit et n'a absolument aucun rapport, pas plus que l’abstention massive des députés patriotes français pour la soutenir (et qui se feront probablement discrets lors du vote).
Tout va bien la démocratie est sauve, la motion de censure est tuée dans l’œuf et tout ceci participe d'un monde meilleur, n'en doutons pas !
[^] # Re: Quelques façons de devenir stupide
Posté par Florian.J . En réponse au lien ChatGPT rend-il « stupide » ? [sur une étude américaine, démystification]. Évalué à -2 (+0/-3).
Et moi qui ne veut pas être stupide, que dois je faire ?
Dans le doute, je vais de ce pas me taper la tête contre les murs, ça peut pas être pire que discuter avec un llm si j'en crois ce que dit la science.
# Attendons de voir
Posté par Florian.J . En réponse au journal [HS] La commission européenne envisage de dégager Microsoft Azure. Évalué à 0 (+5/-6).
Quand je vois "Commission Européenne", j'ai les poils qui se hérissent !
En particulier si la commission Von des Layen venait à plébisciter un acteur français, ça serait une vrai surprise.
Je suis très sceptique mais si ça venait à se concrétiser, je gage que l'on apprendra dans quelques temps le revers de la médaille…
[^] # Re: -75%
Posté par Florian.J . En réponse au lien Matignon choisit une entreprise étrangère pour surveiller les réseaux sociaux . Évalué à 7 (+7/-1).
En sachant que choisir un prestataire français coûte généralement moins cher parce que l'état récupère la différence en impôts et prélèvement indirects.
Faire appel à l'étranger pour un service réalisé à distance sur internet est une perte sèche.
Le transfert de nos données de santé sur Azure n'a pas déclenché de scandale, donc de l'analyse de données sur les RS, on est vraiment sur un non problème pour nos décideurs.
Le problème est que l'on a tellement attaqué le principe d'état nation en Europe que c'est même plus un problème, c'est devenu normal.
Après il y a peut être aussi un non dit qui est la minimisation du risque de fuite de la presse en France sur la nature des investigation du gouvernement…
# Programmes qui programment ?
Posté par Florian.J . En réponse au lien Les programmes programment sans intelligence. Évalué à 3 (+2/-0). Dernière modification le 07 juin 2025 à 18:41.
D'ailleurs programment t'ils vraiment ?
Moi j'appelle ça pisser du code.
J'adhère dans les grandes lignes avec le contenu de l'article et je ne partage pas non plus l'engouement actuel pour le "vibe coding", mais on ne peut pas dire non plus qu'ils sont fondamentalement inutiles et/ou inefficaces.
Bien utilisés, ils permettent d'augmenter la productivité.
Personnellement j'utilise très rarement des llm pour la génération de code, (je trouve pénible de devoir relire).
Par contre ils sont très utiles pour être questionnés, explorer de nouveaux concepts que l'on ne maîtrise pas bien.
Ils peuvent se tromper, mais ça donne toujours une base sur laquelle s'appuyer, qui peut ensuite être complétée par une recherche web.
Après il faut distinguer la capacité des modèles à générer du code au milieu d'un bloc existant (fill in the middle, donc du complètement) et l'utilisation agentique, où toutes les critiques que l'on peut faire sont à mon sens fondés.
En particulier les attentes autour des agents soit-disant capables de générer des applications complètes à partir de quelques instructions sont totalement déraisonnables à l'heure actuelle.
Maintenant on verra bien dans quelques années, parce que peut être que toutes ces critiques paraîtront bientôt aussi peu inspirées que d’hypothétiques éleveurs de chevaux en 1890 déclamant que l'automobile ne remplacerait jamais le cheval parce que ça pue, ça va pas vite, c'est pas fiable, c'est bruyant, faut du pétrole, etc…
D'ailleurs toutes les critiques que l'on pouvait imaginer sont toujours valables, sauf "ça va pas vite".
Le simple fait que ça aille plus vite justifie tout le reste. Probablement qu'il en sera de même avec les llm…
[^] # Re: l idee est bonne mais helas ca va pas aller tres loin
Posté par Florian.J . En réponse à la dépêche (Début de) la fin de Windows (10). Évalué à 0 (+0/-1).
C'est vrai à certains égards mais un revirement est toujours possible.
Dans un marché où l'on peut faire de nombreux parallèles, celui des navigateurs internet, c'est même arrivé plusieurs fois (Internet Explorer a écrasé Netscape, qui revient en force sous le nom de Firefox avant que Chrome n'écrase tout le monde).
Pourtant à partir de 2001 et la sortie de Window XP, pour la plupart des gens Internet Explorer était indissociablement lié au web.
Après c'est certain que c'est plus facile de changer de navigateur que de système d'exploitation.
Mais si ce dernier propose un réel avantage c'est pas impossible, ça prendra simplement plus de temps.
Il ne s'agit pas forcément d'une nouvelle fonctionnalité magique, mais simplement un meilleur alignement avec le marché.
[^] # Re: La différence entre démocratie et totalitarisme
Posté par Florian.J . En réponse au lien Microsoft bloque les emails de ses employés contenant les mots « Palestine », « Gaza », « génocide ». Évalué à -5.
Je ne sais pas ce que tu entends par "de droite", je suppose qu'on ne s'entendrait jamais sur la définition, mais la droite ne se limite pas à la liberté économique .
Par contre tu dis "les gens votent systématiquement pour l’individualisme".
Si le contraire serait le collectivisme, je dirais que la part des dépenses publiques dans le PIB est passé de moins de 20% dans les années 80 à plus de 65% aujourd'hui (source https://www.ifrap.org/data/les-depenses-publiques-de-la-france-depuis-1978).
Donc non, la vie publique tend de plus en plus vers le collectivisme et non le libéralisme.
Le plus dramatique c'est que tous ceux qui entreprennent se font matraquer d’impôts, ce qui les mets dans difficulté, ça réduit la portion productive, et créé une boucle vers le collectivisme, l'état étant entraîné à maintenir le niveau de vie de la population tant par l'endettement, ce qui ne peut que mal finir à terme.
Mais on nous dit que le problème c'est l'ultralibéralisme ?
C'est possible, mais quand tu vois que même en France l’état a préféré Microsoft par rapport à OVH pour héberger nos données médicales, je sais pas si ils ont des alternatives crédibles.
[^] # Re: La différence entre démocratie et totalitarisme
Posté par Florian.J . En réponse au lien Microsoft bloque les emails de ses employés contenant les mots « Palestine », « Gaza », « génocide ». Évalué à -4.
Donc on est d'accord, tout est une question de subjectivité et de notre propre rapport au conflit…
On peut également considérer que ça ne nous regarde pas.
Après, effectivement la France, a toujours été alliée à Israel, (bien qu'elle soit plus ambiguë que par le passé).
Par contre ça n'a à mon sens pas à être l'un des sujets principaux des débats politiques.
En ce moment le nombre de faillites d'entreprises explose du fait du remboursement des dettes Covid et de l'explosion des factures d’électricité.
Cela devrait être un sujet de discussion majeur.
Mais non, on va tous ne parler que d'un conflit, où par ailleurs, nous n'avons aucune prise, que cela nous plaise ou non nous resterons des spectateurs.
Actuellement beaucoup de pays tournent le dos à l'Occident, notamment au Sahel en prenant appui sur la Chine et la Russie.
C'est aussi le cas d'une partie de l'Asie centrale et du Sud, bien que ça soit plutôt sous la contrainte.
Le monde arabe pourrait tenter la même approche mais le fait pas (ce qui pourrait à terme finir de provoquer un mouvement d'isolement général de l'Occident).
Probablement ont ils leur raisons, peut être que ça viendra plus tard, peut être trouvent ils très bien de pas trop s'en mêler pour le moment mais laisser leur population venir en masse en Occident et récolter les fruits plus tard, j'en sais rien.
[^] # Re: La différence entre démocratie et totalitarisme
Posté par Florian.J . En réponse au lien Microsoft bloque les emails de ses employés contenant les mots « Palestine », « Gaza », « génocide ». Évalué à -1.
Ca me semble assez nébuleux.
Mais si tu veux mon avis, nos "valeurs" ne valent que si nous sommes puissants.
Quand l'occident illuminait le monde, c'est pas parce qu'il inspiraient tantôt le respect, tantôt la crainte par sa réussite.
Les "valeurs" c'est surtout pour nous même, pour se donner bonne conscience, le reste du monde n'en a rien à faire.
Tous les peuples du monde, toutes les civilisations ont des valeurs, dont un certain nombre nous rebutent.
Par exemple les crimes d'honneur au Pakistan ou en Afghanistan sont à nos yeux injustifiables. C'est pourtant tout à fait normal pour eux.
Si maintenant la France ou l'Europe chute, les "valeurs" à défendre disparaîtront avec, c'est aussi simple que ça.
On dit souvent que tout est politique.
Mais peut être que pour le bien commun, l'on devrait moins politiser tout un tas de choses et en rester à des grand sujets qui concernent concrètement tout le monde (santé, éducation, infrastructures, justice, impôts, le régalien quoi…).
Donc si tu veux mon avis, peut être que l'on devraient moins parler politique sur Linuxfr, parce que c'est en principe pas le sujet du site .
[^] # Re: La différence entre démocratie et totalitarisme
Posté par Florian.J . En réponse au lien Microsoft bloque les emails de ses employés contenant les mots « Palestine », « Gaza », « génocide ». Évalué à -6.
C'est certain que dans l'absolu ça n'a pas à être un enjeu politique puisque c'est un conflit étranger, donc en dehors de la cité.
Mais c'est une question de gauche dans notre cas puisque la gauche ne parle que de ça depuis l'an dernier.
C'est d'ailleurs mon point de vue, je comprends pas pourquoi.
Même d'un point de vu tactique ça m'a l'air hasardeux comme stratégie, Mélenchon s'en prend autant dans la gueule que le père Le Pen dans les années 80-90…
[^] # Re: La différence entre démocratie et totalitarisme
Posté par Florian.J . En réponse au lien Microsoft bloque les emails de ses employés contenant les mots « Palestine », « Gaza », « génocide ». Évalué à 2.
Je ne vois pas en quoi c'est stupide
Là où se place notre affect est très subjectif. On peut y mettre de la morale mais c'est pas une question d'intellect.
Par exemple, il y a eu il y a quelques années un conflit en Ethiopie qui aurait fait dans les 800 000 morts, soit plus que la population à Gaza.
J'ai pas le souvenir que grand monde en ait eu grand chose à faire. Pas de manifs, pas de relais dans les médias appelant à prendre telle ou telle position, etc…
Si le conflit à Gaza passionne autant c'est qu'il est à certains égards perçu comme singulier.
Et cette singularité est probablement plus en rapport avec de la politique intérieure en Occident qu'une quelconque proximité avec la Gazaouis.
Même les Egyptiens (qui leur sont bien plus proche à tout point de vue) pourraient leur venir en aide mais ne le font pas.