Florian.J a écrit 285 commentaires

  • # Mouais

    Posté par  . En réponse au lien Zorin OS peut remercier Microsoft, la distribution Linux passe le cap du million de téléchargements . Évalué à 2 (+1/-0). Dernière modification le 22 novembre 2025 à 14:58.

    Si j'en crois statcounter:
    https://gs.statcounter.com/os-market-share/desktop/worldwide

    Il y a bien un retrait très net d'utilisateurs Windows vers d'autres systèmes. Mais c'est apparemment Apple qui en tire le gros du bénéfice.

    C'est probablement lié au fait que ces migrations concernent probablement principalement des postes en entreprises.
    Si l'on prend les statistiques de Steam:
    https://store.steampowered.com/hwsurvey

    Windows semble indéboulonnable sur le multimédia (donc les utilisateurs à la maison) malgré Steam+Proton sur Linux.

    On est peut être effectivement au début de quelque chose, mais il me semble prématuré d'en tirer des conclusions.

    Mais j'imagine bien le casse tête pour la direction d'Apple, qui doit probablement voir cette demande du marché qui rétive à l'IA (probablement lié à des problématiques de confidentialité et de sécurité des données).
    Pour un entreprise qui a toujours bâtie sont image d’avant-garde de l'innovation, c'est assez paradoxal.

  • [^] # Re: Après le jour, la nuit ; après la pluie, le beau temps

    Posté par  . En réponse au lien L’hyperstition, un concept au cœur de la vision de Nick Land, idéologue des Lumières sombres. Évalué à 0 (+0/-1). Dernière modification le 12 novembre 2025 à 18:48.

    Non, j'accepte le terme sans problème, je suis natio. Royaliste légitimiste (donc réactionnaire) pour être précis.
    Par contre je voulais simplement souligner que dire "il y a différents acception du terme, donc arrêtons d'en parler" est un enfumage.
    Puisqu'à défaut d'être d'accord, tu comprends au moins le sens de ce que je voulais dire.

  • [^] # Re: Après le jour, la nuit ; après la pluie, le beau temps

    Posté par  . En réponse au lien L’hyperstition, un concept au cœur de la vision de Nick Land, idéologue des Lumières sombres. Évalué à 0 (+0/-1).

    A partir du moment où tu as une population qui dit "nous" pour inclure des gens qui vont au delà des relations proches entre individus et que ce "nous" inclut des gens ont sait partager globalement une histoire commune, une identité commune, on a un peuple, donc une nation.
    Les français sont à ce titre un peuple, comme les japonais, les russes, le chinois (han), etc…

    Quand ce peuple dispose de ses propres institutions pour rédiger ses lois selon ce qu'il croit être utile et que cette légitimité est globalement acceptée et établie, on peut parler d'état-nation.

    Évidemment que la technique et la codification des institutions était bien plus souple dans l'antiquité.
    Mais la Rome antique fut une nation au sens où on l'entend de façon moderne. Et le concept de citoyen n’était pas différent de son acception moderne.

  • [^] # Re: Fiabilité ?

    Posté par  . En réponse au lien Les entreprises françaises veulent adopter l’IA, mais voici pourquoi c’est « compliqué ». Évalué à 5 (+4/-0). Dernière modification le 12 novembre 2025 à 18:18.

    J'ajouterai qu'il y a chez les humains des sentiments et ils se sentent en principe concernés par ce qu'ils font.
    Si tu manipules des milliers de données clients et qu'une erreur serait une perte catastrophique pour toi et la boite tu te comporte différemment que le moment où tu va voir si il à encore du café en réserve.

    Le IA ne hiérarchisent rien (à moins que l'on simule ce comportement, mais c'est pas systématique), elle ne sont pas spécialement concernés par ce qu'on leur demande.

    Et une IA qui se plante pouvant tout autant être un problème d'alignement (instructions imprécises ou non suivies) qu'une hallucination aléatoire, oui les humains font des erreurs mais pas de la même façon.
    Un llm qui a halluciné empoisonne son contexte et se met souvent à entretenir son "mensonge".
    Ce qui rend à mon avis illusoire à court terme l'utilisation d'agents autonomes (ou en tout cas pas pour traiter des données sensible).

  • [^] # Re: Après le jour, la nuit ; après la pluie, le beau temps

    Posté par  . En réponse au lien L’hyperstition, un concept au cœur de la vision de Nick Land, idéologue des Lumières sombres. Évalué à 0 (+0/-1).

    Ben tiens. Quand il s'agit de qualifier les gens de "nationaliste" de façon péremptoire, il n'y a pas besoin de nuancer les dizaines d'acceptations possibles et imaginables.

  • [^] # Re: Après le jour, la nuit ; après la pluie, le beau temps

    Posté par  . En réponse au lien L’hyperstition, un concept au cœur de la vision de Nick Land, idéologue des Lumières sombres. Évalué à -1 (+0/-2). Dernière modification le 12 novembre 2025 à 13:53.

    Ha bon parce que l’Égypte antique n'était pas un état-nation ? Les cité états de Mésopotamie ? Rome avant l'Empire ?
    Plus récemment, la France n'est elle pas un état nation depuis l'avènement des Capétiens (en particulier Philippe Auguste) ?
    L'Angleterre depuis les Plantagenêt ? La Chine, La Rus' de Kiev ? etc…

    C'est pas parce que l'on a conceptualisé la chose au XVIIIe siècle qu'elle ne préexistait pas de fait avant.
    [Raisonnement par l'absurde] On a pas attendu Newton pour avoir la gravité.

  • [^] # Re: Après le jour, la nuit ; après la pluie, le beau temps

    Posté par  . En réponse au lien L’hyperstition, un concept au cœur de la vision de Nick Land, idéologue des Lumières sombres. Évalué à -1 (+0/-2). Dernière modification le 12 novembre 2025 à 13:22.

    C'est pas de la psychanalyse (ni de psychologie en l’occurrence).
    Mais oui, quand les Américains ont vu monter la Chine en puissance, ils ont réagis. Quand ils ont vu des millions de gens violer leur frontière sud, ils ont réagis. Quand ils ont vu que des dizaines de traités internationaux pesaient sur leur souveraineté, ils ont réagis.
    Si le terme "pulsion de vie" ne te convient pas, peu importe tu es libre d'en choisir un autre à ta convenance. Mais c'est de fait différent de la passivité actuelle que l'on a en France, où l'on a fondamentalement les mêmes problèmes, mais la situation semble pour le moment bloquée dans un statu-quo. Et donc on continue de descendre la mauvaise pente.
    Après c'est peut être également lié au fait que l'on ait un population plus âgée.

    Dis le type qui propose une analyse du monde tout de suite après dans un cadre nationaliste.

    Jusqu'à preuve du contraire, le progrès humain s'est toujours construit sur des structures stables, donc des États-nations.
    Donc oui, la déliquescence des pouvoirs nationaux font parti du problème et ça ne va pas dans le sens de l'intérêt des populations.
    Tu préfères quoi ? Le mondialisme ? Une oligarchie mondiale qui se moque des frontières et qui ne voit l'humanité que comme un marché ?

  • # Fiabilité ?

    Posté par  . En réponse au lien Les entreprises françaises veulent adopter l’IA, mais voici pourquoi c’est « compliqué ». Évalué à 2 (+1/-0). Dernière modification le 12 novembre 2025 à 12:40.

    Je suis surpris que la fiabilité des modèles ne semble pas être un sujet, qui explique selon moi "89 % des entreprises reconnaissent ne pas encore générer de véritable valeur client à partir de leurs projets d’IA."

    Si tu n'es pas en mesure d'utiliser un outil les yeux fermés pour traiter tes données, il est plus dangereux qu'utile.
    Et ça explique "91 % des entreprises déclarent faire face à des cas de shadow AI, c’est-à-dire l’usage non autorisé d’outils d’IA par les employés".

    Bref les llm en pratique c'est pour le moment réservé au code, apprendre des trucs et faire la relecture de ses courriels.
    Ca permet de gagner en productivité mais la généralisation des usages n'est pas pour tout dessuite.

  • [^] # Re: Après le jour, la nuit ; après la pluie, le beau temps

    Posté par  . En réponse au lien L’hyperstition, un concept au cœur de la vision de Nick Land, idéologue des Lumières sombres. Évalué à -1 (+0/-2). Dernière modification le 12 novembre 2025 à 12:26.

    Je ne prétend pas comprendre le monde.
    Seulement, si la quasi totalité des pays anciennement développés virent vers ce que vous considérez comme étant du "fascisme", c'est pas un phénomène accidentel, c'est que quelque chose se passe et c'est pas en faisant de la morale qu'on peut en tirer des leçons.
    En l’occurrence, on a vécu la période sympa de la mondialisation jusqu'en 2010 (on pouvait acheter plein de truc pas cher fabriqués par des esclaves à l'autre bout du monde).
    On a maintenant le contre-coup moins sympa : appauvrissement de la population puisqu'on produit quasiment plus rien sans parler du mur de la dette qui semble maintenant proche de nous tomber dessus…
    Bref, même si tu te sent pas solidaire avec ces ploucs d'ouvriers qui votent RN et que tu préfère, garde quand même en tête que si la situation perdure, tu seras également impacté même si tu bosse dans le tertiaire.

    il se passe des choses qui changent le monde, c'est très mal,

    Au contraire, je pense que les peuple qui réagissent ont toujours des pulsions de vie. C'est pas comme certains pays d'Europe d'ouest qui semblent tétanisés (comme la France ou l'Angleterre).

  • [^] # Re: Après le jour, la nuit ; après la pluie, le beau temps

    Posté par  . En réponse au lien L’hyperstition, un concept au cœur de la vision de Nick Land, idéologue des Lumières sombres. Évalué à -9 (+0/-10). Dernière modification le 11 novembre 2025 à 17:53.

    C'est parce que les gens de gauche ont ce type de réflexe religieux sans aucune nuance ni réflexion qu'ils ne comprennent pas ce qu'ils se passe à travers le monde.
    La mondialisation heureuse est finie, on arrive à un moment où les déplacement de populations et de capitaux broient les peuples, les cultures et les nations, c'est un fait.
    La réaction prend tout un tas de formes à travers le monde (pas qu'en Occident par ailleurs), probablement sera elle inopérante, inadaptée ou excessive par endroit, mais la situation doit être reprise en main.
    Et c'est ce qui semble être en train d'arriver, que vous appeliez ça la "peste brune" ou autre peut importe, cette moraline pouvait être utile tactiquement dans les années 90 mais on en est plus là.

  • [^] # Re: Quelques chiffres

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+2/-18). Dernière modification le 13 septembre 2025 à 20:24.

    De droite pro-entreprise ?
    Depuis des années on nous propose une politique de l'offre, on arrose d'argent public pour pousser à la consommation. C'est pas une politique de "droite pro-entreprise", c'est une politique de gestionnaire qui sait pas quoi faire parce qu'occuper le pouvoir et tout ce qui lui importe.

    Et si on prend en compte que le niveau de vie moyen en France est permis par l'exploitation de population humaine ailleurs dans le monde et de ressources non renouvelables (ou sur exploitation de ressources renouvelable) au détriment des générations future, alors je considère que vouloir préserver notre niveau de vie moyen est égoïste et n'est pas un objectif que je souhaite.

    Tu as posté ce message en jouant autour du feu ou en tapant sur un clavier d'impérialiste ?
    Tu es habillé comment ? En peau de bête où en coton/textile ?
    On est plus au XIXe siècle, on exploite plus personne, on achète des choses sur un marché mondial.
    Donc dès que tu achète un truc, quel qu'il soit, tu contribues au système.
    Ce faisant je sais pas ce que ça vient faire, si ce n'est mettre de la morale, alors que l'on parlait d'impôts.

  • [^] # Re: Quelques chiffres

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+5/-19). Dernière modification le 13 septembre 2025 à 20:16.

    Toujours la dystopie : le privé, c’est mieux que le public !

    Je dis pas que c'est mieux (encore la morale).
    Le public est nécessaire dans une certaine mesure.
    Seulement le public vit des excédents de richesse générés par le privé, par l'inverse.

    Donc le public a besoin du privé. Et la mort du privé, c'est la mort du public, et c'est notre mort à tous (économiquement à tout le moins).

  • [^] # Re: Encore deux chiffres (en fait deux nombres…)

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+1/-12). Dernière modification le 13 septembre 2025 à 20:10.

    Et comment convertit on le patrimoine en monnaie ? (que je sache on ne paie pas d'impôt en en donnant des parts de SCI à l'état)

    Sinon votre proposition c’est quoi ?

    Je l'ai dit, en redirigeant le capital vers le secteur productif.
    On engrangerait bien plus de dividendes à long terme.

    Payer plus d'impôts alors qu'il y a de moins en moins de production de richesse permet seulement de prolonger le moment où l'état sera en défaut de paiement (et à ce moment là ça risque d'être violent).

    Faut arrêter de voir ça sur le spectre gentil / méchant, c'est une simple question d'arithmétique.
    Le problème des discours du "plus d'impôt", c'est que ça met de la morale.

    Sauf que la morale n'a jamais amélioré la condition humaine. Seule la technique l'a permis.
    En tant qu'Occidentaux ont devrait le savoir, mais certaines choses semblent avoir été oubliées apparemment.

  • [^] # Re: Encore deux chiffres (en fait deux nombres…)

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+4/-15).

    Évidemment que si c'était aussi simple et qu'il suffisait de faire des transferts magiques, le monde serait plus agréable.
    Mais ça ne peut pas marcher comme ça. Les grands détenteurs de capitaux peuvent facilement déplacer leur capitaux d'un pays à l'autre en un instant (et c'est pas de l'idéologie, c'est un fait technique).

    Partant de ce postulat, dire "taxons tout ce monde là" est une folie, cela ne peut que précipiter la fuite des capitaux.

    Le problème c'est que dire cela est vu comme de la complaisance avec les ultra riche.
    Mais c'est faux, il faut seulement voir le monde tel qu'il est et agir avec pragmatisme.

    Et le pragmatisme est de trouver un moyen de convertir de capital en emplois dans le secteur productif.
    C'est ce que tente Trump aux USA, mais nous ne sommes visiblement pas encore assez dans la merde (ou trop dans le déni) pour suivre le même chemin…

  • [^] # Re: Quelques chiffres

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+5/-19). Dernière modification le 13 septembre 2025 à 19:43.

    Oui, si tu veux, mais c'est pas le sujet.
    Si l'on veut préserver notre niveau de vie, on est dans l'obligation remettre à flot notre compétitivité, c'est tout ce que je dis.
    Et cela passe par un secteur privé plus efficace, conditionné à un secteur public moins imposant et moins lourd sur le dos du privé, c'est tout (plus l'énergie, toussa-toussa, mais c'est autre chose).

    Et c'est plutôt la gauche qui nous parle sans cesse d'impôts et la "droite" type RPR/UMP/Républicaine n'a jamais fondamentalement changé les grandes orientations de ce point de vu.

    Le seul présidentiable de droite UMP qui en a fait un axe de campagne fut François Fillon en 2017, mais il a été torpillé pour laisser la place à un gars que l'on connaît tous.
    Tout ce que je veux dire c'est qu'on arrive à un moment où on a plus le choix et que l'on va payer dans la douleur les errements du passé et c'est pas en ajoutant toujours plus d'impôts que l'on règle le problème. Au contraire on tue notre seule issue, le secteur productif.
    Et plus l'on tarde à prendre le problème à la racine, plus ça sera douloureux.

    P.S: Précision, je m'en fout de Fillon, je suis pas de droite Orléaniste et il a probablement tapé dans la caisse, seulement la temporalité du dévoilement l'affaire interroge.

  • [^] # Re: Encore deux chiffres (en fait deux nombres…)

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -8 (+7/-16). Dernière modification le 13 septembre 2025 à 18:55.

    Pour parvenir à ces chiffres, il fait une équivalence entre le capital (CAC 40, tout ça…) et le fiduciaire (salaires et dividendes).
    C'est complètement absurde.

    Si l'action de LVMH monte de 10% en un mois, Bernard Arnault peut être content, sa fortune monte d'autant.
    Mais il n'a pourtant pas plus d'argent sur son compte, l'argent est dans la valeur de ses actions, pas sur son compte en banque.
    Donc on oblige les grands actionnaires à vendre des actions pour payer des impôts ?
    C'est super, les fonds de pension américains vont adorer !
    Il prendront la place des détenteurs de capitaux français et on aura encore mis une pelleté supplémentaire dans notre propre tombe.

    Vrai problème, fausse solution, la gauche…

  • [^] # Re: Quelques chiffres

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+7/-29). Dernière modification le 13 septembre 2025 à 18:37.

    On devrait évidemment supprimer toutes ces "aides", mais ça ne sont pas des "cadeaux pour les plus riches".
    Ce sont des rabais sur des impôts trop importants, ce qui est scandale puisque cela favorise les grosses entreprises au détriment des PME/PMI.
    Mais la solution est surtout qu'il faudrait réduire considérablement les impôts, en particulier ceux des entreprises, toutes les entreprises (mais surtout les petites).
    Ce ne sont pas des cadeaux aux riches, ça impacte l'intégralité des entreprises, et donc leur capacité d’investissement, leur solvabilité, les salaires, etc…
    Si l'on ne produit plus rien en France (mis à part quelques secteurs d'excellence), c'est pas un hasard (plus les problèmes liés à l'énergie, les normes, etc, mais c'est encore autre chose…).
    Faut arrêter d'être dans le déni, on est trop dans la mouise pour continuer avec ces folies socialisantes.

    C'est quoi le but, encore plus d’impôts ? Terminer ce qui reste du secteur productif jusqu'à la banqueroute finale ?
    Puisque la population a refusée la retraite par capitalisation et que tout est entre les mains du public, ça va vous faire tout drôle quand on vous annoncera que vos cotisations diverses seront remises à zéro, et puis les fonctionnaires qui se croient à l'abri semblent avoir oublié la réduction de salaire de 30% qu'ont connu les Grecs…
    Vous pourrez toujours manifester et dire "bloquons tout", on échappe pas à la réalité, pas de d'industrie == pays pauvre et explosion des inégalités. Merci la gauche.

    Et puis le gouvernement n'est pas tombé parce qu'il cherchait 50 milliards.
    Il est tombé parce que sa seule solution était d'augmenter les impôts au lui de réduire les dépenses du public, c'est pas la même chose.
    C'était une ligne rouge pour le RN, ce qui a permis la coalition avec le NFP, qui eux votent sans réfléchir, c'est pratique.

  • [^] # Re: Aucune légitimité

    Posté par  . En réponse au lien B. Kernighan (co-créateur d'Unix) sur Rust : « Je ne pense pas qu'il va remplacer C tout de suite ». Évalué à 10.

    Par respect pour le personnage j'aurais formulé les choses différemment (j'ai appris la programmation avec le K&R).

    Surtout qu'il s'agit d'une réponse à une question qu'on lui pose à la fin d'une conférence d'une heure sur l'histoire d'Unix.
    C'est pas comme si il partait en croisade contre Rust. Il donne son avis, de son point de vue, c'est tout.

  • # Comparons ce qui est comparable

    Posté par  . En réponse au lien A la pointe du point de vue des véhicules électriques: Le Népal (spoiler). Évalué à 3.

    Faut voir si c'est un phénomène conjoncturel ou structurel.
    Il y a quelques années, on a également eu un boom des ventes de l'hybride et de l’électrique en France, notamment au moment de la sortie de la Zoé de Renault suivi de la sortie de la Tesla model 3 conjugué à des subventions publiques, mais ça a sérieusement ralenti.

    Un point qui n'est pas abordé dans l'article mais qui me semble évident, c'est que le Népal étant un pays montagneux au pied de la chaîne de l'Himalaya, les voitures thermiques doivent être particulièrement inefficaces (donc avec une consommation d'essence accrue).

    Pour comparaison je suis allé voir si un phénomène similaire se produisait également en Suisse, mais apparemment non (au contraire ça semble régresser).
    Il faut probablement tout un ensemble de facteurs pour rendre l’électrique attractif.
    Comme dit dans l'article, l’électricité semble très abordable au Népal mais c'est pas donné à tout le monde (ce fut techniquement notre cas, mais ça nous est interdit pour des raisons réglementaires parce que fait bien faire l'Europe et que ça arrange bien les Allemands).
    Ajoutons à cela des avantages fiscaux, ce dont tout le monde ne peut pas se permettre non plus, notamment la France en ce moment…

    A mon avis c'est pas demain qu'on roulera tous à l’électrique…ou alors le vélo électrique en ville éventuellement dans les grandes villes.

  • [^] # Re: Le gagnant remporte tout

    Posté par  . En réponse au lien Même le patron de OpenAI reconnaît que la bulle de l'IA éclatera 🎶💸🍾🥂 🥳🎉🎊🎆. Évalué à 3.

    et surtout PHP est toujours là

    Et les milliards de Microsoft n'ont pas permis d'imposer ASP.
    Comme quoi, c'est pas toujours une question d'agent.
    Souvent être le premier acteur majeur sur un marché favorise grandement la position hégémonique, parce qu'allez savoir pourquoi, le marché des logiciels aime les monopoles (Windows, Chrome, Suite Office, presque tous les secteurs que je connaisse ont un progiciel dominant laissant des miettes à la concurrence, comme Photoshop, AutoCAD pour la DAO, etc…).
    Le monde du dev semble un peu moins impacté (et encore, Python est progressivement devenu la lingua franca côté client, JS/TS pour le Web et PHP côté serveur).

    Probablement que c'est un moyen pour les utilisateurs de combattre l'hétérogénéité et créer des normes de fait.

    Je pense que Sam Altman pense à ça.
    Si la bulle éclate, il sera très probablement le grand gagnant et beaucoup de concurrents qui captent actuellement des capitaux pourraient disparaître.
    Tout ça parce que pour 90% de la population, IA, llm et ChatGPT c'est la même chose. Le reste est juste de la curiosité et des noms que l'on peut vaguement citer (comme Linux sur le marché des OS).

    Même en France Mistral peine à concurrencer OpenAI, c'est dire si ce phénomène normatif est puissant.

    La seule spécificité de ce marché, c'est que l'IA tend à s'intégrer à d'autre types de logiciels par des API, donc il y a aura probablement la possibilité pour certains acteurs d'avoir des parts de marché importante, même si c'est invisible pour l'utilisateur moyen.
    Mais pour le grand public, je pense que si ils font pas n'importe quoi, à priori rien ne pourra empêcher le monopole d'OpenAI, c'est un scénario tout tracé que l'on a vu des dizaines de fois ces dernières décennies…

  • [^] # Re: Benchmark possible ? Valeur indicative de vitesse ?

    Posté par  . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 3.

    Des métriques, il y a en a tout un tas, ça dépends de ce que tu cherches.
    Tu prends l'exemple des FPS, mais avec les llm le nombre de tokens par secondes est tout aussi pertinent.

    Maintenant le temps de génération global est également dépendant de la longueur de la génération, surtout que tu as l'air d'utiliser gpt-oss (déduction puisque 120b et dernier modèle à la mode…), qui est un modèle de raisonnement.
    Ce genre de modèle a une première étape de génération de "raisonnement" et ensuite de génération de la réponse finale, qui peut potentiellement n'être générée qu'à partir de 200, 300 tokens ou plus. Donc c'est certain que ça créé de la latence.

    Le truc c'est que c'est spécifique à chaque modèle (la verbosité du raisonnement de gpt-oss peut être configuré, mais c'est le seul à faire ça, Qwen3 à côté est soit hyper verbeux, soit répond directement sans raisonnement). Et les instructions que tu spécifies au modèle ont également une incidence.
    Donc non, il n'y a pas de barème magique pour comparer simplement tout ce monde là, car tous les modèles sont différents et beaucoup de modèles ont des domaines d'application privilégiés (dans l'absolu un modèle petit et performant mais verbeux pourrait donner des réponses plus lentement qu'un modèle plus lourd mais concis).
    On compare généralement la qualité des réponses par domaines plus ou moins généraux, les capacités linguistiques, techniques, et la factualités.
    Et pour la performance brute, le nombre de tokens à la seconde suffit, même si c'est pas forcément mis en avant parce que quand tu as l'habitude, le simple fait de connaître le nombre de paramètres actifs suffit à en avoir une idée approximative (en l’occurrence gpt-oss-120b, c'est 5,1 milliards de paramètres actifs par tokens, donc en théorie plus rapide qu'un modèle de seulement 8 milliards de paramètres tel que Llama-3.1-8B, même si des détails architecturaux et d'implémentation peuvent varier, dans les grandes lignes ça marche).

    J'ai par contre je n'ai jamais entendu parler d'un comparatif qui notait la concision des réponses.
    C'est dommage parce que ça serait une bonne chose que les llm soient les plus concis possible, le problème est qu'ils tendent à être moins précis et moins qualitatifs quand on leur impose d'écourter les réponses via des instructions…

  • [^] # Re: LocalLLaMA

    Posté par  . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 2.

    Les petits modèles ont deux utilités, tester une architecture avant de dépenser beaucoup d'énergie pour entraîner des modèles plus gros.
    Sinon répondre à des besoins précis (via le fine-tuning) avec des modèles spécialisés économes en ressources.

    Si tu prends un modèle comme Qwen3-4B, tu peux typiquement le faire tourner sur un téléphone haut de gamme.
    Donc si tu as un GPU avec au moins 6 Go de vram, ça devrait pas être un problème à faire tourner sur ta machine.

    Faut savoir qu'avoir 16 Go de Ram c'est bien, mais si tu peux avoir cette mémoire dans ton GPU c'est mieux niveau performances, et de loin !
    Si un jour tu décides d'acheter un GPU avec l'idée de faire ton propre ChatGPT, penses que dans ce cas d'usage la quantité de mémoire disponible sera toujours plus importante que la puissance de calcul (ne te fais pas influencer pas les comparatifs et autre benchs qui sont orientés jeux vidéos).

    Parce que tu peux avoir le GPU le plus puissant du monde, les performances s'effondreront si tu es obligé de faire tourner en partie le modèle sur la mémoire centrale.
    Plus tu as de vram, plus tu aura un large choix de modèles, et plus ils seront potentiellement qualitatifs.

    Si tu prends la famille des Qwen3-30B-A3B, ils sont calibrés pour pouvoir être utilisés avec 24 Go de vram une fois quantifié en 4 bits par poids, mais avec une taille de contexte relativement petite (~16K hors optimisation type flash attention).
    Donc plus tu auras de mémoire en plus, plus tu auras du confort d'utilisation, surtout si tu veux t'en servir comme assistant de travail (code, écriture, rédaction d'articles, etc…).

  • [^] # Re: LocalLLaMA

    Posté par  . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 2. Dernière modification le 17 août 2025 à 16:55.

    Je connais ollama que de nom, j'ai jamais utilisé.
    Je passe par vllm pour mon propre serveur dédié et llama.cpp en complément sur ma machine de travail (ollama est basé sur llama.cpp).
    Donc je connais pas le détail pour ollama, mais llama.cpp permet de spécifier le nombre de couches du modèle sur le GPU.
    Cela permet de faire tourner des modèles qui ne rentrent pas dans ta VRAM en utilisant la mémoire centrale (au prix d'un ralentissement de l'ensemble).

    Sur llama.cpp, cela se règles avec des paramètres tels que:
    --n-gpu-layers (nombre de couches sur GPU)
    --tensor-split (si tu as plusieurs GPU)
    --ctx-size" (taille du contexte. Plus tu réduis la taille du contexte moins tu auras besoin de mémoire, mais si ta machine a les capacités, mets la valeur maximale supportée par le modèle).

    En local, j'ai deux GPU de 16 Go, donc ça me permet de charger des modèles jusqu'à environ 30 milliards de paramètres avec une taille de contexte raisonnable après quantification en Q4_K_M (typiquement ce que propose ollama généralement).

    Le problème de ollama, c'est que c'est conçu pour être une solution simple et générique, mais c'est plus compliqué pour adapter à des cas particuliers (comme le déchargement sur la mémoire centrale ou définir la taille de contexte). Et pour être compatible avec un maximum de configuration, ils définissent souvent une taille contexte très petite (4096), alors que beaucoup de modèles actuels supportent jusqu'à 128K tokens, voir plus.

    Si tu veux pas te prendre la tête à passer directement par llama.cpp et/ou que tu ne sais pas comment t'y retrouver parmi tous les modèles, je te conseille une interface comme lm-studio.
    L'interface est bordélique, c'est une application Electron type avec une l'ergonomie douteuse (je déteste ça). Par contre c'est très complet.

    Sinon tu peux simplement télécharger le modèle directement:
    https://huggingface.co/lmstudio-community/Qwen3-Coder-30B-A3B-Instruct-GGUF/tree/main (je conseille Qwen3-Coder-30B-A3B-Instruct-Q4_K_M.gguf)

    Si tu veux dans un premier temps expérimenter, prends des mini modèles:
    https://huggingface.co/lmstudio-community/Qwen3-0.6B-GGUF/tree/main
    https://huggingface.co/lmstudio-community/Qwen3-4B-Instruct-2507-GGUF/tree/main (petit mais loin d'être ridicule)

    Et lancer une serveur compatible OpenAI en local avec llama-serveur (de llama.cpp):
    llama-server --model Qwen3-Coder-30B-A3B-Instruct-Q4_K_M.gguf --jinja --n-gpu-layers 1000 --port 8080 --alias default --ctx-size 24000

    Maintenant tu peux t'y connecter avec tout client qui permet de définir manuellement le point d'entrée pour OpenAI (ici http://127.0.0.1:8080/v1/chat/completions, modèle 'default').

    Si tu connais pas, tu peux être perdu au début (surtout avec tous ces modèles, leur quantification et leurs variantes), mais les outils ne sont pas si complexes et c'est facile de se créer des scripts bash qui vont bien une fois que tu as trouvé ton bonheur.

  • [^] # Re: LocalLLaMA

    Posté par  . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 4.

    +1 pour Qwen3-Coder-30B-A3B, les modèles Qwen3 sont probablement la meilleur familles de modèles à l'heure actuelle pour l'usage local (en terme de rapport qualité/rapidité).

    C'est dommage pour Mistral puisqu'ils ont inspirés ce genre de modèles avec Mixtral-8x7B mais qu'ils n'ont pas persévéré, alors que Qwen a poussé la logique de l'architecture MoE à fond (sous-modèles très petits et rapides), et ils obtiennent des modèles exceptionnels et étonnamment peut médiatisés en dehors de l'engouement sur HuggingFace.
    D'ailleurs OpenAI a suivi le même chemin avec gpt-oss…

    Pour le développement Python, j'utilise Pycharm avec l'extension ProxyAI. Il suffit ensuite de configurer la connexion sur un serveur de type "custom OpenAI".
    Sur OSS Code j'utilise Cline pour l'assistance mais j'ai jamais cherché à faire du vibe-coding, ça m'a l'air superflus pour l'usage que j'en ai.

  • [^] # Re: Intérêt du débat ?

    Posté par  . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à -1.

    Je ne crois pas que la réforme de 90 avait pour ambition d'assainir Twitter, mais je peux me tromper.

    Le sujet n'est pas Twitter en soit, mais le niveau général (et notamment linguistique).
    J'ai pris Twitter pour exemple car c'est le principal Agora, mais de ce que j'ai pu voir, c'est probablement encore pire sur Instagram ou Tiktok…