Florian.J a écrit 275 commentaires

  • [^] # Re: Quelques chiffres

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+2/-18). Dernière modification le 13 septembre 2025 à 20:24.

    De droite pro-entreprise ?
    Depuis des années on nous propose une politique de l'offre, on arrose d'argent public pour pousser à la consommation. C'est pas une politique de "droite pro-entreprise", c'est une politique de gestionnaire qui sait pas quoi faire parce qu'occuper le pouvoir et tout ce qui lui importe.

    Et si on prend en compte que le niveau de vie moyen en France est permis par l'exploitation de population humaine ailleurs dans le monde et de ressources non renouvelables (ou sur exploitation de ressources renouvelable) au détriment des générations future, alors je considère que vouloir préserver notre niveau de vie moyen est égoïste et n'est pas un objectif que je souhaite.

    Tu as posté ce message en jouant autour du feu ou en tapant sur un clavier d'impérialiste ?
    Tu es habillé comment ? En peau de bête où en coton/textile ?
    On est plus au XIXe siècle, on exploite plus personne, on achète des choses sur un marché mondial.
    Donc dès que tu achète un truc, quel qu'il soit, tu contribues au système.
    Ce faisant je sais pas ce que ça vient faire, si ce n'est mettre de la morale, alors que l'on parlait d'impôts.

  • [^] # Re: Quelques chiffres

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+4/-19). Dernière modification le 13 septembre 2025 à 20:16.

    Toujours la dystopie : le privé, c’est mieux que le public !

    Je dis pas que c'est mieux (encore la morale).
    Le public est nécessaire dans une certaine mesure.
    Seulement le public vit des excédents de richesse générés par le privé, par l'inverse.

    Donc le public a besoin du privé. Et la mort du privé, c'est la mort du public, et c'est notre mort à tous (économiquement à tout le moins).

  • [^] # Re: Encore deux chiffres (en fait deux nombres…)

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+1/-12). Dernière modification le 13 septembre 2025 à 20:10.

    Et comment convertit on le patrimoine en monnaie ? (que je sache on ne paie pas d'impôt en en donnant des parts de SCI à l'état)

    Sinon votre proposition c’est quoi ?

    Je l'ai dit, en redirigeant le capital vers le secteur productif.
    On engrangerait bien plus de dividendes à long terme.

    Payer plus d'impôts alors qu'il y a de moins en moins de production de richesse permet seulement de prolonger le moment où l'état sera en défaut de paiement (et à ce moment là ça risque d'être violent).

    Faut arrêter de voir ça sur le spectre gentil / méchant, c'est une simple question d'arithmétique.
    Le problème des discours du "plus d'impôt", c'est que ça met de la morale.

    Sauf que la morale n'a jamais amélioré la condition humaine. Seule la technique l'a permis.
    En tant qu'Occidentaux ont devrait le savoir, mais certaines choses semblent avoir été oubliées apparemment.

  • [^] # Re: Encore deux chiffres (en fait deux nombres…)

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+4/-15).

    Évidemment que si c'était aussi simple et qu'il suffisait de faire des transferts magiques, le monde serait plus agréable.
    Mais ça ne peut pas marcher comme ça. Les grands détenteurs de capitaux peuvent facilement déplacer leur capitaux d'un pays à l'autre en un instant (et c'est pas de l'idéologie, c'est un fait technique).

    Partant de ce postulat, dire "taxons tout ce monde là" est une folie, cela ne peut que précipiter la fuite des capitaux.

    Le problème c'est que dire cela est vu comme de la complaisance avec les ultra riche.
    Mais c'est faux, il faut seulement voir le monde tel qu'il est et agir avec pragmatisme.

    Et le pragmatisme est de trouver un moyen de convertir de capital en emplois dans le secteur productif.
    C'est ce que tente Trump aux USA, mais nous ne sommes visiblement pas encore assez dans la merde (ou trop dans le déni) pour suivre le même chemin…

  • [^] # Re: Quelques chiffres

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+4/-19). Dernière modification le 13 septembre 2025 à 19:43.

    Oui, si tu veux, mais c'est pas le sujet.
    Si l'on veut préserver notre niveau de vie, on est dans l'obligation remettre à flot notre compétitivité, c'est tout ce que je dis.
    Et cela passe par un secteur privé plus efficace, conditionné à un secteur public moins imposant et moins lourd sur le dos du privé, c'est tout (plus l'énergie, toussa-toussa, mais c'est autre chose).

    Et c'est plutôt la gauche qui nous parle sans cesse d'impôts et la "droite" type RPR/UMP/Républicaine n'a jamais fondamentalement changé les grandes orientations de ce point de vu.

    Le seul présidentiable de droite UMP qui en a fait un axe de campagne fut François Fillon en 2017, mais il a été torpillé pour laisser la place à un gars que l'on connaît tous.
    Tout ce que je veux dire c'est qu'on arrive à un moment où on a plus le choix et que l'on va payer dans la douleur les errements du passé et c'est pas en ajoutant toujours plus d'impôts que l'on règle le problème. Au contraire on tue notre seule issue, le secteur productif.
    Et plus l'on tarde à prendre le problème à la racine, plus ça sera douloureux.

    P.S: Précision, je m'en fout de Fillon, je suis pas de droite Orléaniste et il a probablement tapé dans la caisse, seulement la temporalité du dévoilement l'affaire interroge.

  • [^] # Re: Encore deux chiffres (en fait deux nombres…)

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -8 (+7/-16). Dernière modification le 13 septembre 2025 à 18:55.

    Pour parvenir à ces chiffres, il fait une équivalence entre le capital (CAC 40, tout ça…) et le fiduciaire (salaires et dividendes).
    C'est complètement absurde.

    Si l'action de LVMH monte de 10% en un mois, Bernard Arnault peut être content, sa fortune monte d'autant.
    Mais il n'a pourtant pas plus d'argent sur son compte, l'argent est dans la valeur de ses actions, pas sur son compte en banque.
    Donc on oblige les grands actionnaires à vendre des actions pour payer des impôts ?
    C'est super, les fonds de pension américains vont adorer !
    Il prendront la place des détenteurs de capitaux français et on aura encore mis une pelleté supplémentaire dans notre propre tombe.

    Vrai problème, fausse solution, la gauche…

  • [^] # Re: Quelques chiffres

    Posté par  . En réponse au lien Le grand détournement - les assistés ne sont pas ceux qu’on stigmatise. Évalué à -10 (+6/-29). Dernière modification le 13 septembre 2025 à 18:37.

    On devrait évidemment supprimer toutes ces "aides", mais ça ne sont pas des "cadeaux pour les plus riches".
    Ce sont des rabais sur des impôts trop importants, ce qui est scandale puisque cela favorise les grosses entreprises au détriment des PME/PMI.
    Mais la solution est surtout qu'il faudrait réduire considérablement les impôts, en particulier ceux des entreprises, toutes les entreprises (mais surtout les petites).
    Ce ne sont pas des cadeaux aux riches, ça impacte l'intégralité des entreprises, et donc leur capacité d’investissement, leur solvabilité, les salaires, etc…
    Si l'on ne produit plus rien en France (mis à part quelques secteurs d'excellence), c'est pas un hasard (plus les problèmes liés à l'énergie, les normes, etc, mais c'est encore autre chose…).
    Faut arrêter d'être dans le déni, on est trop dans la mouise pour continuer avec ces folies socialisantes.

    C'est quoi le but, encore plus d’impôts ? Terminer ce qui reste du secteur productif jusqu'à la banqueroute finale ?
    Puisque la population a refusée la retraite par capitalisation et que tout est entre les mains du public, ça va vous faire tout drôle quand on vous annoncera que vos cotisations diverses seront remises à zéro, et puis les fonctionnaires qui se croient à l'abri semblent avoir oublié la réduction de salaire de 30% qu'ont connu les Grecs…
    Vous pourrez toujours manifester et dire "bloquons tout", on échappe pas à la réalité, pas de d'industrie == pays pauvre et explosion des inégalités. Merci la gauche.

    Et puis le gouvernement n'est pas tombé parce qu'il cherchait 50 milliards.
    Il est tombé parce que sa seule solution était d'augmenter les impôts au lui de réduire les dépenses du public, c'est pas la même chose.
    C'était une ligne rouge pour le RN, ce qui a permis la coalition avec le NFP, qui eux votent sans réfléchir, c'est pratique.

  • [^] # Re: Aucune légitimité

    Posté par  . En réponse au lien B. Kernighan (co-créateur d'Unix) sur Rust : « Je ne pense pas qu'il va remplacer C tout de suite ». Évalué à 10 (+18/-0).

    Par respect pour le personnage j'aurais formulé les choses différemment (j'ai appris la programmation avec le K&R).

    Surtout qu'il s'agit d'une réponse à une question qu'on lui pose à la fin d'une conférence d'une heure sur l'histoire d'Unix.
    C'est pas comme si il partait en croisade contre Rust. Il donne son avis, de son point de vue, c'est tout.

  • # Comparons ce qui est comparable

    Posté par  . En réponse au lien A la pointe du point de vue des véhicules électriques: Le Népal (spoiler). Évalué à 3 (+2/-0).

    Faut voir si c'est un phénomène conjoncturel ou structurel.
    Il y a quelques années, on a également eu un boom des ventes de l'hybride et de l’électrique en France, notamment au moment de la sortie de la Zoé de Renault suivi de la sortie de la Tesla model 3 conjugué à des subventions publiques, mais ça a sérieusement ralenti.

    Un point qui n'est pas abordé dans l'article mais qui me semble évident, c'est que le Népal étant un pays montagneux au pied de la chaîne de l'Himalaya, les voitures thermiques doivent être particulièrement inefficaces (donc avec une consommation d'essence accrue).

    Pour comparaison je suis allé voir si un phénomène similaire se produisait également en Suisse, mais apparemment non (au contraire ça semble régresser).
    Il faut probablement tout un ensemble de facteurs pour rendre l’électrique attractif.
    Comme dit dans l'article, l’électricité semble très abordable au Népal mais c'est pas donné à tout le monde (ce fut techniquement notre cas, mais ça nous est interdit pour des raisons réglementaires parce que fait bien faire l'Europe et que ça arrange bien les Allemands).
    Ajoutons à cela des avantages fiscaux, ce dont tout le monde ne peut pas se permettre non plus, notamment la France en ce moment…

    A mon avis c'est pas demain qu'on roulera tous à l’électrique…ou alors le vélo électrique en ville éventuellement dans les grandes villes.

  • [^] # Re: Le gagnant remporte tout

    Posté par  . En réponse au lien Même le patron de OpenAI reconnaît que la bulle de l'IA éclatera 🎶💸🍾🥂 🥳🎉🎊🎆. Évalué à 3 (+2/-0).

    et surtout PHP est toujours là

    Et les milliards de Microsoft n'ont pas permis d'imposer ASP.
    Comme quoi, c'est pas toujours une question d'agent.
    Souvent être le premier acteur majeur sur un marché favorise grandement la position hégémonique, parce qu'allez savoir pourquoi, le marché des logiciels aime les monopoles (Windows, Chrome, Suite Office, presque tous les secteurs que je connaisse ont un progiciel dominant laissant des miettes à la concurrence, comme Photoshop, AutoCAD pour la DAO, etc…).
    Le monde du dev semble un peu moins impacté (et encore, Python est progressivement devenu la lingua franca côté client, JS/TS pour le Web et PHP côté serveur).

    Probablement que c'est un moyen pour les utilisateurs de combattre l'hétérogénéité et créer des normes de fait.

    Je pense que Sam Altman pense à ça.
    Si la bulle éclate, il sera très probablement le grand gagnant et beaucoup de concurrents qui captent actuellement des capitaux pourraient disparaître.
    Tout ça parce que pour 90% de la population, IA, llm et ChatGPT c'est la même chose. Le reste est juste de la curiosité et des noms que l'on peut vaguement citer (comme Linux sur le marché des OS).

    Même en France Mistral peine à concurrencer OpenAI, c'est dire si ce phénomène normatif est puissant.

    La seule spécificité de ce marché, c'est que l'IA tend à s'intégrer à d'autre types de logiciels par des API, donc il y a aura probablement la possibilité pour certains acteurs d'avoir des parts de marché importante, même si c'est invisible pour l'utilisateur moyen.
    Mais pour le grand public, je pense que si ils font pas n'importe quoi, à priori rien ne pourra empêcher le monopole d'OpenAI, c'est un scénario tout tracé que l'on a vu des dizaines de fois ces dernières décennies…

  • [^] # Re: Benchmark possible ? Valeur indicative de vitesse ?

    Posté par  . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 3 (+2/-0).

    Des métriques, il y a en a tout un tas, ça dépends de ce que tu cherches.
    Tu prends l'exemple des FPS, mais avec les llm le nombre de tokens par secondes est tout aussi pertinent.

    Maintenant le temps de génération global est également dépendant de la longueur de la génération, surtout que tu as l'air d'utiliser gpt-oss (déduction puisque 120b et dernier modèle à la mode…), qui est un modèle de raisonnement.
    Ce genre de modèle a une première étape de génération de "raisonnement" et ensuite de génération de la réponse finale, qui peut potentiellement n'être générée qu'à partir de 200, 300 tokens ou plus. Donc c'est certain que ça créé de la latence.

    Le truc c'est que c'est spécifique à chaque modèle (la verbosité du raisonnement de gpt-oss peut être configuré, mais c'est le seul à faire ça, Qwen3 à côté est soit hyper verbeux, soit répond directement sans raisonnement). Et les instructions que tu spécifies au modèle ont également une incidence.
    Donc non, il n'y a pas de barème magique pour comparer simplement tout ce monde là, car tous les modèles sont différents et beaucoup de modèles ont des domaines d'application privilégiés (dans l'absolu un modèle petit et performant mais verbeux pourrait donner des réponses plus lentement qu'un modèle plus lourd mais concis).
    On compare généralement la qualité des réponses par domaines plus ou moins généraux, les capacités linguistiques, techniques, et la factualités.
    Et pour la performance brute, le nombre de tokens à la seconde suffit, même si c'est pas forcément mis en avant parce que quand tu as l'habitude, le simple fait de connaître le nombre de paramètres actifs suffit à en avoir une idée approximative (en l’occurrence gpt-oss-120b, c'est 5,1 milliards de paramètres actifs par tokens, donc en théorie plus rapide qu'un modèle de seulement 8 milliards de paramètres tel que Llama-3.1-8B, même si des détails architecturaux et d'implémentation peuvent varier, dans les grandes lignes ça marche).

    J'ai par contre je n'ai jamais entendu parler d'un comparatif qui notait la concision des réponses.
    C'est dommage parce que ça serait une bonne chose que les llm soient les plus concis possible, le problème est qu'ils tendent à être moins précis et moins qualitatifs quand on leur impose d'écourter les réponses via des instructions…

  • [^] # Re: LocalLLaMA

    Posté par  . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 2 (+1/-0).

    Les petits modèles ont deux utilités, tester une architecture avant de dépenser beaucoup d'énergie pour entraîner des modèles plus gros.
    Sinon répondre à des besoins précis (via le fine-tuning) avec des modèles spécialisés économes en ressources.

    Si tu prends un modèle comme Qwen3-4B, tu peux typiquement le faire tourner sur un téléphone haut de gamme.
    Donc si tu as un GPU avec au moins 6 Go de vram, ça devrait pas être un problème à faire tourner sur ta machine.

    Faut savoir qu'avoir 16 Go de Ram c'est bien, mais si tu peux avoir cette mémoire dans ton GPU c'est mieux niveau performances, et de loin !
    Si un jour tu décides d'acheter un GPU avec l'idée de faire ton propre ChatGPT, penses que dans ce cas d'usage la quantité de mémoire disponible sera toujours plus importante que la puissance de calcul (ne te fais pas influencer pas les comparatifs et autre benchs qui sont orientés jeux vidéos).

    Parce que tu peux avoir le GPU le plus puissant du monde, les performances s'effondreront si tu es obligé de faire tourner en partie le modèle sur la mémoire centrale.
    Plus tu as de vram, plus tu aura un large choix de modèles, et plus ils seront potentiellement qualitatifs.

    Si tu prends la famille des Qwen3-30B-A3B, ils sont calibrés pour pouvoir être utilisés avec 24 Go de vram une fois quantifié en 4 bits par poids, mais avec une taille de contexte relativement petite (~16K hors optimisation type flash attention).
    Donc plus tu auras de mémoire en plus, plus tu auras du confort d'utilisation, surtout si tu veux t'en servir comme assistant de travail (code, écriture, rédaction d'articles, etc…).

  • [^] # Re: LocalLLaMA

    Posté par  . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 2 (+1/-0). Dernière modification le 17 août 2025 à 16:55.

    Je connais ollama que de nom, j'ai jamais utilisé.
    Je passe par vllm pour mon propre serveur dédié et llama.cpp en complément sur ma machine de travail (ollama est basé sur llama.cpp).
    Donc je connais pas le détail pour ollama, mais llama.cpp permet de spécifier le nombre de couches du modèle sur le GPU.
    Cela permet de faire tourner des modèles qui ne rentrent pas dans ta VRAM en utilisant la mémoire centrale (au prix d'un ralentissement de l'ensemble).

    Sur llama.cpp, cela se règles avec des paramètres tels que:
    --n-gpu-layers (nombre de couches sur GPU)
    --tensor-split (si tu as plusieurs GPU)
    --ctx-size" (taille du contexte. Plus tu réduis la taille du contexte moins tu auras besoin de mémoire, mais si ta machine a les capacités, mets la valeur maximale supportée par le modèle).

    En local, j'ai deux GPU de 16 Go, donc ça me permet de charger des modèles jusqu'à environ 30 milliards de paramètres avec une taille de contexte raisonnable après quantification en Q4_K_M (typiquement ce que propose ollama généralement).

    Le problème de ollama, c'est que c'est conçu pour être une solution simple et générique, mais c'est plus compliqué pour adapter à des cas particuliers (comme le déchargement sur la mémoire centrale ou définir la taille de contexte). Et pour être compatible avec un maximum de configuration, ils définissent souvent une taille contexte très petite (4096), alors que beaucoup de modèles actuels supportent jusqu'à 128K tokens, voir plus.

    Si tu veux pas te prendre la tête à passer directement par llama.cpp et/ou que tu ne sais pas comment t'y retrouver parmi tous les modèles, je te conseille une interface comme lm-studio.
    L'interface est bordélique, c'est une application Electron type avec une l'ergonomie douteuse (je déteste ça). Par contre c'est très complet.

    Sinon tu peux simplement télécharger le modèle directement:
    https://huggingface.co/lmstudio-community/Qwen3-Coder-30B-A3B-Instruct-GGUF/tree/main (je conseille Qwen3-Coder-30B-A3B-Instruct-Q4_K_M.gguf)

    Si tu veux dans un premier temps expérimenter, prends des mini modèles:
    https://huggingface.co/lmstudio-community/Qwen3-0.6B-GGUF/tree/main
    https://huggingface.co/lmstudio-community/Qwen3-4B-Instruct-2507-GGUF/tree/main (petit mais loin d'être ridicule)

    Et lancer une serveur compatible OpenAI en local avec llama-serveur (de llama.cpp):
    llama-server --model Qwen3-Coder-30B-A3B-Instruct-Q4_K_M.gguf --jinja --n-gpu-layers 1000 --port 8080 --alias default --ctx-size 24000

    Maintenant tu peux t'y connecter avec tout client qui permet de définir manuellement le point d'entrée pour OpenAI (ici http://127.0.0.1:8080/v1/chat/completions, modèle 'default').

    Si tu connais pas, tu peux être perdu au début (surtout avec tous ces modèles, leur quantification et leurs variantes), mais les outils ne sont pas si complexes et c'est facile de se créer des scripts bash qui vont bien une fois que tu as trouvé ton bonheur.

  • [^] # Re: LocalLLaMA

    Posté par  . En réponse au message Quels outils utilisez-vous pour générer du code rapidement grâce à l’IA ?. Évalué à 4 (+3/-0).

    +1 pour Qwen3-Coder-30B-A3B, les modèles Qwen3 sont probablement la meilleur familles de modèles à l'heure actuelle pour l'usage local (en terme de rapport qualité/rapidité).

    C'est dommage pour Mistral puisqu'ils ont inspirés ce genre de modèles avec Mixtral-8x7B mais qu'ils n'ont pas persévéré, alors que Qwen a poussé la logique de l'architecture MoE à fond (sous-modèles très petits et rapides), et ils obtiennent des modèles exceptionnels et étonnamment peut médiatisés en dehors de l'engouement sur HuggingFace.
    D'ailleurs OpenAI a suivi le même chemin avec gpt-oss…

    Pour le développement Python, j'utilise Pycharm avec l'extension ProxyAI. Il suffit ensuite de configurer la connexion sur un serveur de type "custom OpenAI".
    Sur OSS Code j'utilise Cline pour l'assistance mais j'ai jamais cherché à faire du vibe-coding, ça m'a l'air superflus pour l'usage que j'en ai.

  • [^] # Re: Intérêt du débat ?

    Posté par  . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à -1 (+0/-2).

    Je ne crois pas que la réforme de 90 avait pour ambition d'assainir Twitter, mais je peux me tromper.

    Le sujet n'est pas Twitter en soit, mais le niveau général (et notamment linguistique).
    J'ai pris Twitter pour exemple car c'est le principal Agora, mais de ce que j'ai pu voir, c'est probablement encore pire sur Instagram ou Tiktok…

  • [^] # Re: Intérêt du débat ?

    Posté par  . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à -5 (+0/-6).

    C'est juste la preuve du manque de connaissance du processus linguistique et d'énormes préjugés.

    Et pourtant elle tourne…

  • [^] # Re: Mr Phi est un expert en IA ?

    Posté par  . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 8 (+9/-2).

    Je parlais de la vidéo du sénat où il invitait aussi le sénat à auditionner d'autres sachants sur l'IA :
    « Faites ça avec Yann Le Cun, avec des gens qui savent et connaissent les IA. Ne faites pas ça avec des gens qui disent n'importe quoi comme Laurent Alexandre ».

    Pour le coup personne ne lui donnera tort sur le fond concernant Laurent Alexandre.
    Cependant il me semble mal placé pour donner des leçons de compétences.

    La visibilité de Julia est faible par rapport aux discours laudatifs sur l'IA générative dans les médias (TV, radio, Web, etc.) et des politiciens, notamment Macron !

    Si tu parles du discours ambiant, tu as probablement raison. Par contre il fait probablement parti des "expert" les plus présents sur les plateaux.
    En fait c'est même le seul à être régulièrement invité à ma connaissance.
    Si tu compares avec un gars comme Arthur Mensch (qui est lui un réel expert du domaine, personne ne le niera), tapes les deux noms sur Youtube, la différence saute aux yeux.
    Luc Julia profite probablement d'avoir été présent sur des plateaux depuis plusieurs années, avant même l'explosion de ChatGPT, et de pas trop s’appesantir sur des détails techniques, ce qui en fait probablement un "bon client".
    Maintenant ça ne me parait pas à la hauteur des enjeux.
    Aux Etats-Unis, les entrepreneurs du secteur comme Sam Altman ou Jensen Huang ont une présence médiatique largement supérieure à ce que l'on peut voir en France, où l'on préfère généralement passer par des "experts", des intermédiaires au discours convenu et prévisible.

    Hum, là tu sembles fortement influencé par la vidéo du clown, il est quand même directeur scientifique chez RENAULT depuis 4 ans.

    Oui, Renault, la fameux entreprise connue pour ses recherches et avancées techniques en IA et autres LLM…

  • [^] # Re: Intérêt du débat ?

    Posté par  . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à 1 (+2/-2). Dernière modification le 14 août 2025 à 23:00.

    Merci pour la correction -^ (trop tard pour éditer).
    J'ai effectivement quelques lacune, et c'est d'ailleurs la difficulté de l’exercice quand il s'agit de critiquer les autres, mais tu admettra qu'il y a quand une différence entre mal formuler certaines tournures de phrases, faire quelques fautes de ci, de là et systématiquement détruire la structure des phrases, et en utilisant le minimum de vocabulaire.

    Concernant l'idée selon laquelle ont n'écrit pas de la même façon sur une plateforme de micro-blogging, il est évident que le format n'aide pas à l'élaboration de la pensée abstraite et que les utilisateurs tendent à s'exprimer de la même façon qu'à l'oral.
    Donc ça ne change rien à mon propos, puisqu'on peut difficilement imaginer que des posteurs indigents sur Twitter se révèlent comme par magie être de fin lettrés une fois leur téléphone en veille…

  • [^] # Re: Mr Phi est un expert en IA ?

    Posté par  . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 9 (+9/-1).

    Je ne sais pas de quelle vidéo tu parles exactement. Son audition au sénat ou le débat chez Le Futurologue ?

    L'argument de l'écologie est pertinent.
    Et effectivement, Monsieur Phi ne l'a pas mis à son crédit.
    Maintenant, Luc Julia se contente d'appliquer toujours la même méthode, à savoir qu'une large partie de la population est anxieuse vis à vis de l'écologie, donc il appui sur cet aspect (ce qu'il ne faisait pas en 2023 par ailleurs, c'est visiblement plus récent).

    Pour moi ça ne change rien au fait que le gars semble avoir une visibilité trop important au vu de ses compétences réelles, ce qui n'aide pas à éclairer le débat.
    Et plus que tout, où sont ses contradicteurs dans le débat publique ?

    La vidéo de monsieur Phi met également l'accent sur le fait que le gars soit invité partout et qu'il a rarement des contradicteurs (l'exception étant chez le Futurologue, où il s'est révélé être particulièrement désagréable par ailleurs).

    Et il me semble donc nécessaire d'insister que c'est un scandale qu'il puisse être auditionné au sénat alors qu'il semble avoir de profondes lacunes techniques.

  • # Intérêt du débat ?

    Posté par  . En réponse au lien Fil Mastodon : comment la réforme de l’orthographe de 1990 a été massacrée . Évalué à -2 (+6/-9). Dernière modification le 14 août 2025 à 21:46.

    Je doute de l'intérêt du débat dans le sens où je ne sais pas si une simple réforme aurait pu changer grand chose à la situation actuelle.

    Il suffit de créer un compte Twitter vierge (ce que j'ai fais très récemment) pour tomber au hasard sur des discussions insoupçonnée.
    Les conjonctions et la ponctuation semblent avoir disparues en nouvelle France.
    De nouvelle formes de ponctuations apparaissent, tels que "sah".
    Ainsi il est admis d'énoncer "Les frères je crois pas on va aller au ciné" (fautes d'orthographes non incluses).

    Dans ces conditions, je ne vois pas ce qu'une réforme aurait pu changer puisque que la force du changement est principalement démographique.

  • [^] # Re: Mr Phi est un expert en IA ?

    Posté par  . En réponse au lien critique de l'audition de Luc Julia par la commission sénatoriale sur la chaîne de Mr Phi. Évalué à 7 (+9/-3).

    Pour le coup j'ai trouvé la vidéo de Monsieur Phi travaillée, sourcée et plus factuelle que Luc Julia qui répète les même histoires depuis la sortie initiale de ChatGPT, alors que le monde change à grande vitesse (il n'y a qu'à voir ce qui se passe en ce moment autour du protocole MCP).
    Si j'ai pu regarder certaines de des conférences de Luc Julia (sans être convaincu), j'avais vu la série de reportages sur la Silicon Valley qu'il avait commis pour Arte. Et je l'avais trouvé insupportable !
    Sa façon soixante-huitarde de faire passer son insolence et son irrévérence pour de la "coolitude" (notamment le moment où il pousse le journaliste à entrer dans le bâtiment d'une entreprise sans y être invité), c'était vraiment malsain.
    Bon vous me direz que c'est hors sujet, mais j'ai rien de plus à ajouter que ce qui a été dit dans la vidéo de Monsieur Phi…

    Je suis gré envers Monsieur Phi d'avoir tiré un missile en direction ce pitre (décoré de la légion d'honneur), dont l'influence dans le débat sur l'IA en France surpasse de loin celle des fondateurs de Mistral AI, ce qui en dit beaucoup sur l'état catastrophique du débat.

    Nous fûmes l'une des nations à la pointe de la science, nous sombrons dans l'obscurantisme et la peur de l'innovation.
    Et de ce point de vu, un gars tel que Luc Julia est parfait pour assurer le rôle du "en même temps".
    Appliqué à l'IA ça devient "ne vous inquiétez pas, c'est rien du tout finalement".

    Alors que si, tout est en train de changer, qu'on le veuille ou non.
    Il faut prendre la techno à bras le corps, sinon les conséquences seront bien pire que l'inaction…

  • [^] # Re: Le hasard

    Posté par  . En réponse au lien Le parquet européen poursuit le RN et ses alliés européens sur des soupçons de financement occulte. Évalué à -4 (+1/-6).

    L'un des problèmes auquel a été confronté le RN depuis des décennies est que les banques refusaient de lui prêter de l'argent pour financer ses campagnes présidentielles et législatives (c'est illégal mais personne n'en parle là).

    Donc il y a pas de quoi pavoiser avec la moraline du type "le FN/RN se fait financer par des banques Russes" ou "le RN appel à des particuliers" quand les autres partis en dehors du RN et Reconquête qui sont assurés de faire plus de 5% n'ont aucun problème de financement.

    Pour l'affaire qui a provoquée l'inéligibilité de MLP je me permet de rappeler que Bayrou a été condamné pour les mêmes faits, ce qui ne l'a pas empêché d'être premier ministre par la suite et que Mélenchon est également poursuivi pour la même raison (son affaire est au point mort pour le moment).

    Pour information je suis même pas spécialement pro RN, mais faut faire la part des chose et savoir être honnête.
    Si Mélenchon était rendu inéligible je trouverai ça aussi scandaleux (le principe de la démocratie, c'est que c'est au peuple de juger, non ?).
    Taper au porte-monnaie est une chose, mais si on accepte que la justice s'invite dans toutes les campagnes électorales ont commence à ouvrir une boite de pandore dangereuse (ça avait commencé en 2017 avec Fillon).

    Je me souviens d'un reportage il y a une dizaine d'années environ qui parlait des magouilles de Poutine pour se maintenir au pouvoir en décrédibilisant ses adversaire les plus sérieux, notamment le chantage via des caméra cachées compromettante (après une recherche il s'agirait de Mikhail Kasyanov).

    On fonctionne un peu différemment mais fondamentalement le résultat est le même actuellement en France et il n'y a pas lieu de se réjouir.

    Et merci pour l'énième article du monde à charge contre Stérin, mais je n'accorde qu'une crédibilité toute relative à ce journal partial qui ne s'est jamais penché sur tout l'entourage oligarchiques de Macron dès la sortie de l'ENA avec Jean-Pierre Jouyet, Alain Minc et Jacques Attali puis plus tard des gens comme Matthieu Pigasse et Xavier Niel, entre autres.
    Là le "journal de référence" semble avoir fait preuve d'une cécité tout à fait étonnante.

  • [^] # Re: Le hasard

    Posté par  . En réponse au lien Le parquet européen poursuit le RN et ses alliés européens sur des soupçons de financement occulte. Évalué à -3 (+2/-6).

    Votre grille de lecture datée vous aveugle, mais, outre tout ce qui a été accompli par la commission von der leyen ces dernières années, elle travaille en ce moment à l'accès aux données chiffrées sans mandat de justice:
    https://ec.europa.eu/commission/presscorner/detail/fr/ip_25_1599

    Nous glissons vers la dictature, la justice en France comme en Europe est de plus en plus utilisé pour attaquer les opposition (de gauche comme de droite), des gens qui se nomment entre eux peuvent décider pour tout le continent et exploitent chaque crise pour se doter sans cesse de nouvelle compétences en dehors des traités initiaux et sans contre pouvoir possible.

    Dans ces conditions, s'il leur suffit de dire "n'écoutez pas l'opposition, elles est d’extrême droite" pour que des gens modérés et sérieux comme vous gobent tout, contrairement à ces ploucs franchouillards qui ont piqués des millions dans la caisse, votre mépris est une distinction.

  • # Le hasard

    Posté par  . En réponse au lien Le parquet européen poursuit le RN et ses alliés européens sur des soupçons de financement occulte. Évalué à -10 (+1/-12).

    Le fait que la procédure ait été ouverte pile au moment où circulait une pétition entre députés européens pour ouvrir une motion de censure contre la commission von der Leyen est probablement tout à fait fortuit et n'a absolument aucun rapport, pas plus que l’abstention massive des députés patriotes français pour la soutenir (et qui se feront probablement discrets lors du vote).
    Tout va bien la démocratie est sauve, la motion de censure est tuée dans l’œuf et tout ceci participe d'un monde meilleur, n'en doutons pas !

  • [^] # Re: Quelques façons de devenir stupide

    Posté par  . En réponse au lien ChatGPT rend-il « stupide » ? [sur une étude américaine, démystification]. Évalué à -2 (+0/-3).

    Et moi qui ne veut pas être stupide, que dois je faire ?

    Dans le doute, je vais de ce pas me taper la tête contre les murs, ça peut pas être pire que discuter avec un llm si j'en crois ce que dit la science.