C'est un journal d'humeur, de questionnements et de vrais problèmes techniques …
Pas mal de discours pour faire l'éloge (ou pas) de l'IA abordent le coté moteur OpenSource boostant la recherche autour de l'IA.
Ouais …. mais l'OpenSource en sort il gagnant de cette folle effervescence ?
C'est qd même toujours jouissif d'entendre à la radio (ou autres grands médias) les qualités de l'OpenSource (Pour l'IA) quand cela fait des années que tu prêches dans le désert.
Faut pas être naïf non plus , quand je vois les dominants actuels, j'ai du mal à voir un retour sur investissement pour la communauté OpenSource. Les données privées, ils s'en contrefoutent, money is money qu'ils disent …
C'est qd même fou cette accélération, il y a quelques années les réseaux neuronaux étaient le saint graal de la recherche, maintenant on y est.
Dans mon monde de linuxien, je regardais cela d'un oeil amusé entre 2 tests de mes softs préférés dockerisés, sur ma débian préférée, en root comme d'hab avec mon LVM encore trop rikiki. J'ai même testé Whisper au boulot il y a 1 an et demi sur des gros enregistrements de réunion. Le rendu était qd même bluffant. Mais bon, j'avais d'autres trucs à tester, des Dockerfile à modifier, mon LVM à agrandir. Et même si les secrétaires qui avaient testé Whisper demandaient que j'officialise quelque chose, j'avais toujours quelque chose d'autre à terminer.
Et là, un gars de la direction a montré à ses collègues l'utilisation du site upmeet . L'effet Whaou assuré, le grand manitou veut absolument des licences.
Bon là mon lvm je laisse tomber, mes dockers j'ai en marre de tester, je reprend le train en marche pour proposer quelque chose de plus sain.
-> Nextcloud intègre de l'IA via une base docker. Le traitement Speech-to-Text se fait mais l'utilisation du rendu textuel n'est pas confortable. J'ai donc couplé Nextcloud à un serveur autonome et à coup de scripts (scp/inotify/occ, …) , un enregistrement déposé dans un répertoire spécifique de NextCloud est automatiquement transféré sur le serveur déporté pour y être traité. Les fichiers issus du traitement Whisper sont ensuite déposés dans un répertoire sous NextCloud. Je n'ai pas de GPU, seulement une infra de virtualisation mais en optimisant le nb de cpu/coeur, la RAM et les options multi-threading de Whisper, j'arrive à générer un rendu de qualité d'une réunion de 2h30 en 1/2 heure.
Là ou j'ai du mal c'est pour la partie compte-rendu de réunion. J'ai testé le site upTruc, le compte rendu de réunion est d'une qualité à me couper le souffle. Mais bon l'IA c'est OpenSource Compatible qu'ils disent à la radio. J'ai donc Chatgpté, deepseeké. J'arrive à faire en sortir quelque chose de mon verbatim Whisper mais c'est pourri. Autant le rendu whisper est qd même de bonne facture, autant les modèles que j'ai pu utiliser pour faire un bon CR ne font rien de bon.
Je sent que j'ai loupé quelque chose il y a un an et demi. J'aurai du finaliser une petite solution à base de Whisper pour les secrétariats administratifs de mon taf. Maintenant j'ai du mal à me battre à arme égale avec upTruc (ou autres) …
Mais travaillant dans une administration (Hôpital), je viens de découvrir ALBERT, l'IA souveraine je garde un peu d'espoir . Si ALBERT pouvait passer par chez moi, je pense que je lui ferai un très bon accueil.
Je ne sais pas si vous linuxiens avez tenté de mettre en prod des solutions saine d'IA.
- Avez vous vu le train passé trop vite comme moi ?
- Concrètement y a t il quelqu'un qui a monté une solution Speech-to-Text + élaboration de CR et qui tient la route ? [et pas proprio ;-)]
- Y a t il des moules utilisateurs, administrateurs, concepteurs , … d'ALBERT qui pourraient nous en dire plus sur cette solution ?
# Acceleration
Posté par barmic 🦦 . Évalué à 10 (+15/-0).
L'accélération est surtout dans l'usage. L'IA est un domaine foisonant depuis bien longtemps et on en entends parler très fréquemment au moins depuis Watson d'IBM, puis des Alpha de Google.
Ce qui a changé c'est qu'on a créé un usage des IA pour Jean-Luc dayssideur prayssey de sa région qui se dit que c'est génial et qu'il faudrait pas louper le coche.
Donc on met de la thune à plus savoir qu'en foutre. Ça permet de faire progresser les LLM et l'IA générative au détriment des autres formes d'IA. Et si un jour Jean-Luc se rend compte que c'est pas aussi ouf que ça, hé ben il y aura une crise.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Acceleration
Posté par flagos . Évalué à 2 (+1/-1).
L'IA, c'était surtout un domaine où pour avoir le moindre prototype, il fallait embaucher au minimum 3 gonzes (ou gonzesses) qui avaient besoin de grosses quantités de données (qu'on arrivait jamais a avoirl qui font tourner des pipelines pendant des semaines et qui auront peut être des résultats dans quelques années.
Et au bout d'un an, on te fait croire qu'on a enfin trouvé le modèle qui déchire, tu essaies sur un peu plus de données, bim tu te rends qu'on a overfit, ou alors tu fais une jolie démo et tu découvres un NAN en sortie de ton preprocessing.
Bref, l'IA a la sauce GPT, c'est peut être un peu foireux, mais ça marche tout de même un peu. Tu fais un proto en 2 semaines et tu peux le mettre en prod. Après c'est utile ou pas, c'est un autre sujet, mais on arrête d'investir n'importe comment dans le machine learning.
[^] # Re: Acceleration
Posté par barmic 🦦 . Évalué à 8 (+6/-0).
Ça… Les démarchent « trouvez-moi de l’IA a mettre dans notre produit faut pas qu’on rate le coche » me donnent pas cette impression.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Acceleration
Posté par flagos . Évalué à 4 (+2/-0).
Et pourtant… Tu mets un langchain derrière un endpoint, un joli bouton et hop tu as un truc.
Rien a voir avec la situation antérieure où il fallait des années de boulot pour des résultats encore moins bon.
La magie des LLM, c'est que c'est de l'IA que n'importe quel software engineer peut faire.
[^] # Re: Acceleration
Posté par barmic 🦦 . Évalué à 3 (+1/-0).
Avoir un truc ne veut pas dire que la situation est meilleure. Par exemple notion a ajouté de l’IA récemment, ils ont une parti de leur communauté qui se barre, ils la désactive sur demande par mail, parce que , ça ralenti toute l’application (pas rapide au départ).
Les fonctionnalités ne sont pas bonnes du fait de leur existence, mais de leur pertinence. Aujourd’hui je suis témoin de cas où on demande aux ingé de faire de l’IA, ce qu’il veulent mais de l’IA.
Pour le moment aucune entreprise d’IA n’est rentable (on verra ce que ça donne pour deepseek). Rien que pour qu’OpenAI soit rentable il va lui falloir des milliards et ça doit être du même acabit pour les autres. Aucun tiers payant n’est pour le moment rentable. Il va falloir que ça finisse par générer BEAUCOUP d’argent à un moment où à un autre. Tant que les marchés ont confiance ça tiendra,
siquand les marchés éternueront ça va se voir…https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Acceleration
Posté par Moonz . Évalué à 2 (+0/-0).
C’est pas l’objectif ; l’objectif c’est "AGI ou bust". Si tu es rentable ça veut dire que tu investis pas assez.
Tu as une AGI tu automatises tous les boulots, de la compta à l’ingé, en passant par les tâches physiques une fois que ton AGI-chercheur fait de la robotique :
Évidemment, il y a un petit souci à (2) si les gens se rendent compte de l’objectif final, mais j’ai l’impression que ça leur passe par dessus la tête.
[^] # Re: Acceleration
Posté par barmic 🦦 . Évalué à 3 (+1/-0).
Tant que tes investisseurs ne demandent pas de retour sur investissement et que pour une raison ou une autre ils se mettent pas à perdre confiance.
Le problème c'est que l'IA est beaucoup plus déficitaire que ce qu'a pu l'être Twitter.
Si tu met dans la balance le coût réel d'un LLM, beaucoup des usages d'aujourd'hui n'ont plus aucun sens. Et je parle pas du coût de l'énergie.
Salesforce est sensé avoir une IA ne demandant pas de supervision et ils sont finalement entrain de recruter parce qu'en fait ça marche pas si bien.
Tant que ce genre de choses passent au près des investisseurs, il n'y a pas de problème. Mais je mettrais pas ma main à couper que ça n'arrivera pas et ça peut arriver ce soir ou dans 3 ans.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Acceleration
Posté par Moonz . Évalué à 2 (+2/-2). Dernière modification le 10 février 2025 à 12:25.
Chez OpenAI en tout cas, les investisseurs peuvent demander ce qu’ils veulent, ils n’ont aucune pouvoir de contrôle :
Et la dynamique derrière c’est : tout le monde pense que le premier à atteindre le saint Graal est l’acteur économique dominant pour les 30 prochaines années, à un niveau supérieur à Microsoft/IBM/Google à leur pic.
Ça ne s’écroulera pas tant qu’il y a des axes de progression possibles, parce que tout le monde est persuadé qu’il doit rester dans la course. Si demain les scaling laws stoppent, que tout progrès s’arrête, et qu’on est toujours pas au saint Graal, là les investisseurs commenceront à paniquer. On en est loin.
Oui enfin faut dézoomer un peu. On est passé en moins de 5 ans à "c’est de la SF complète" à "c'est pas encore tout à fait là".
J’ai pas une bonne mémoire, mais je ne cesse de m’étonner de l’absence de mémoire collective sur ce sujet. Tu me dis en 2019 "on a d’ici 5 ans une IA qui passe le test de Turing, qui est capable de faire une bonne partie du boulot d’un développeur, qui est capable de résoudre des problèmes de maths niveau licence/master, qui est un meilleur professeur que les profs d’universités prestigieuses", je te demande si tu as oublié de prendre tes cachets, et de quel asile tu t’es enfuit.
[^] # Re: Acceleration
Posté par barmic 🦦 . Évalué à 6 (+4/-0).
Si le vent tourne, OpenAI disparaîtra aussi vite que les autres. Tu as très bien compris ce que je voulais dire : quelque soit la forme juridique actuelle d'OpenAI, les gens qui injection des méga dollars dedans s'attendent à quelque chose au moment où ça ne les intéressera plus/cesseront d'y croire/auront plus envi d'investir, ChatGPT sera un souvenir.
À "on imagine qu'on en est proche". Pour le moment c'est du domaine de la fois.
Et les chercheurs, ceux qui n'ont pas d'intérêt directs dans les technologies actuelles ne sont pas si confiants que ça.
Et des bulles financières ont en a connu un certains nombre aussi. Faut garder raison et actuellement tu as une masse importante d'argents envoyées dans "faites de l'IA je sais pas pourquoi mais faites de l'IA". C'est typique de ce qui se passe lors des bulles. Un jour ne serais ce que parce que la hype aura diminuée ils retireront leurs marrons du feu. Lors de l'explosion de la bulle internet c'est tout le secteur informatique qui s'est retrouvé cassé pendant des années. J'en discutais avec une amie RH qui me décrivait des entretiens avec des gens saoul qui n'arrivaient pas à gérer le chômage de longue durée.
L'informatique comme un marché cool, porteur et qui rapporte n'est pas immuable et ce genre de pratiques des financiers détruit des vies. C'est fait sciemment pour eux c'est un moyen de faire de l'argent rapidement et ils jette leur plat de pâtes sur le mur pour voir ce qui colle.
Oui c'est très français, oui ce n'est pas cool comme l'euphorie américaine, mais il me paraît sage d'être prudent quant à ce qu'est l'IA, nos pratiques vis à vis d'elle et ne pas sombrer dans l'exaltation. Je vois des gens baser leur avenir sur ça vous n'avez aucune garantie que ça existe encore demain ou que ce ne soit pas à des coûts exorbitant.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Acceleration
Posté par Moonz . Évalué à 1 (+0/-1).
C’est toi qui n’a pas compris ce que je voulais dire, je pense.
Ce qu’il se passe si le vent tourne… tu n’en sais rien. Et moi non plus. Les comptes de OpenAI ne sont pas publics. Si le vent tourne, ça veut dire qu’ils coupent la R&D et l’entraînement de nouveaux modèles, baissant drastiquement leurs coûts. Sont-ils positifs après ces coupes ? Toujours négatifs ? Qui sait ?
Mais le fond de la question est que le vent souffle dans ce sens pour une bonne raison, et qu’il va falloir que la raison disparaisse pour que le vent arrête de souffler. François Chollet l’explique mieux que moi, alors laissons lui la parole :
.
Et c’est là qu’il faut distinguer la "bonne prudence française" du pur cynisme.
"Le futur est incertain", c’est de la prudence.
"Du domaine de la foi" c’est du cynisme.
Déjà j’aimerais que tu me présentes les chercheurs "qui ne sont pas si confiants que ça". Dans les connus pas confiants, tu as Yann LeCun (qui… a un intérêt dans les technologies actuelle, donc je ne vois pas pourquoi tu considères ça comme disqualifiant) qui dit :
Oui, il est moins confiant que Dario/Altman qui disent 2-5 ans. La différence n’est pas non plus énorme.
Tu as également François Chollet, qui a… récemment lancé son labo privé (décidément, peut-être que les chercheurs ont un peu d’intégrité et sont capable de dire ce qu’ils pensent plutôt que ce qui est dans leur intérêt ?) :
Sinon, tu as le récent rapport du AI Safety Summit :
Autrement dit, "il y a des raisons de penser que, mais ce n’est pas certain". La foi c'est penser que même quand il n’y a pas de raison de penser que.
[^] # Re: Acceleration
Posté par jyes . Évalué à 3 (+1/-0).
Tu montres dans ta réponse que tu ne saisis pas l’enjeu soulevé par la personne à qui tu réponds.
… bah, le « obvious », c’est justement la partie pas si évidente. Je reprends une citation antérieure de ton interlocuteur :
Si le coût réel n’est jamais rattrapé par la qualité des résultats (et ce « si » est très probable, n’en déplaise au vendeurs de rêve/cauchemar de la Silicon Valley), « AI will be central to all economic activity » pendant une bien courte durée ! Auquel cas, la suggestion ton cher François Chollet devrait être « investissez dans l’IA mais assurez vous de retirer vos billes avant les autres, car le crash fera très mal à ceux qui resteront les derniers ».
En disqualifiant le point central du problème sous prétexte de trivialité, soit tu as mal compris ton interlocuteur, soit tu es malhonnête.
[^] # Re: Acceleration
Posté par Moonz . Évalué à 1 (+1/-2). Dernière modification le 10 février 2025 à 16:38.
Aurais-tu raté le point où je prends les plus sceptiques parmi les connus ? Peux-tu me citer plus sceptique que François Chollet et Yann LeCun ? Certainement pas : Yoshia Bengio, Geoffrey Hinton, Paul Christiano ou Illya Sutskever. Et je pense donc qu’on vient de faire le tour des plus connus ? Qui ai-je loupé ?
Je peux trouver plus sceptique, mais il va falloir sortir du domaine de l’IA (Gary Marcus, psychologue et sciences cognitives).
[^] # Re: Acceleration
Posté par pasBill pasGates . Évalué à 3 (+2/-0).
Moi je me souviens de la folie crypto/bitcoin.
Dans le monde bigtech, tout le monde s'en balancait, parce qu'on voyait que c'etait un truc sans aucune utilité à part de la spéculation.
L'IA par contre, c'est déjà utilisé dans plein d'endroits, c'est en adoption rapide, et cela a des usages futurs très clairs.
La question ne se pose plus, l'IA ce n'est pas un soufflé qui va retomber, les utilisations dés aujourd'hui de l'IA sont là pour rester, et les utilisations futures ne feront qu'agrandir le gateau. Ce n'est pas par hasard que toutes les grosses boites tech investissent massivement dedans, c'est parce que c'est devenu un truc sûr et certain plutôt qu'une hypothèse.
[^] # Re: Acceleration
Posté par Psychofox (Mastodon) . Évalué à 2 (+0/-1).
La question qu'on peut se poser c'est sur le niveau d'investissement tant financier qu'en énergie et à quel moment on va se dire que la recherche n'avance plus beaucoup et on atteint un plateau. Dans ce cas si l'investissement a été très gros il y a fort à parier que certains investisseurs perdent de l'argent et qu'un gros ménage se fasse entre les boites qui sont rentables et vont le rester et celles qui vont mettre la clé sous la porte.
Mais ça c'est le genre d'ajustement traditionnel quand une technologie arrive à la mode et qu'il y a une sorte de ruée vers l'or.
[^] # Re: Acceleration
Posté par Renault (site web personnel) . Évalué à 4 (+1/-0). Dernière modification le 10 février 2025 à 19:58.
Tu as raison sur ce point, l'IA (LLM comme autres) ont des utilité et une pertinence qui vont sans aucun doute s'améliorer. D'ailleurs pour de nombreux usages ils sont dans le paysage depuis longtemps. Et par conséquent c'est en effet différent de la hype des crypto et assimilés. En ce sens il y aura sans aucun doute une industrie dédiée à ces questions et de la recherche.
Un peu comme Internet ou le cloud / microservices ou l'IoT en leur temps qui ont eu aussi leur phase de hype sans pour autant avoir disparu du paysage même si on en parle moins et que certaines promesses n'ont pas été tenues.
On pourrait objecter le contre exemple Métaverse de Facebook qui a englouti des milliards pour un résultat peu probant et je suis peu convaincu par une réelle adoption de masse à court / moyen terme.
Mais je ne pense pas que la plupart des gens qui critiquent la hype remettent cela réellement en question. En tout cas, ce n'est pas trop ce que je constate mais peut être un biais de mon entourage aussi.
Les critiques que je constate sont plutôt :
Selon comment cela va avancer dans l'avenir proche, la bulle pourrait éclater et causer des dégâts assez durables même si des usages persisteront comme pour Internet ou le cloud en leur temps pour certains acteurs. Ou peut être que des solutions seront trouvées prochainement et cela continuera à ce rythme jusqu'à un plafond à définir (écologique, sociétal, technologique ?) mais qui peut aller bien plus loin.
Après on est d'accord, s'il y a des gens qui soutiennent que aucune IA ne survivra à la hype actuelle se mette le doigt dans l'oeil. Mais je n'ai pas l'impression qu'ils soient si nombreux.
Je suis plutôt préoccuper que la question de la sécurité n'intéresse pas grand monde dans le champ politique comme technique, qu'on déploie de l'IA sans se poser de questions, et que certains pensent qu'une IA avec une intelligence pouvant surpasser l'humaine pourrait survenir bientôt sans qu'on ait encore bien réfléchi aux problèmes que cela peut poser au niveau de la société dans son ensemble.
[^] # Re: Acceleration
Posté par barmic 🦦 . Évalué à 3 (+1/-0).
C’est pas moi qui le dit c’est OpenAI : https://next.ink/brief_article/loffre-dopenai-chatgpt-pro-pour-200-dollars-par-mois-nest-pas-rentable/
Et ça n’inclue pas le fait que l’ambiance climatique va changer le coût de l’énergie par exemple.
T’aurais pu couper encore plus, non ?
Je laisse le commentaire de Big Pete< sur la conférence de Yann Le Cun au collège de France
https://linuxfr.org/users/olivedeparis/liens/conf-yt-college-de-france-yann-le-cun-sur-le-futur-de-l-ai
Tu as aussi Luc Jullia https://www.youtube.com/watch?v=yuDBSbng_8o
Ensuite tu as l’air complètement trigger. Il ne faut pas s’attendre à ce que quelqu’un qui vend de l’IA pour vivre te dise autre chose que ça. Ce n’est pas disqualifiant, c’est uniquement de la contextualisation du propos. Ça n’est pas une question de cynisme ou de liberté de parole juste de point de vu.
Même si l’IA se révèle pouvoir accomplir tous les rêves qu’on imagine. Il n’est peut être pas possible de combiner avoir des IA qui ont la singularité et survit de notre espèce. Même avec l’IA la plus légère, se mettre à utiliser des IA pour n’importe quel texte écrit, n’est pas compatible avec notre vie sur Terre. On ne peut pas réduire notre production de CO2 et se mettre à utiliser massivement l’un des outils les plus énergivore qu’on ai créé.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Acceleration
Posté par Moonz . Évalué à 2 (+0/-0).
Une offre ça se change hein. L’offre ChatGPT pro à 200$ c’est un accès illimité à leur modèle le plus cher (et de loin plus cher). C’est pas juste l’offre que tu as pour le modèle à 3$ / million token. Plus DeepResearch qui apparemment consomme masse.
En quoi le commentaire ne se suffit pas à lui même ? Voilà le complet :
.
Bah oui. Il dit qu’un LLM à lui-même ne se suffit pas. Et ? OpenAI le sait depuis 2-3 ans. Anthropic le sait depuis 2-3 ans. Je le savais il y a un an, et je ne suis même pas dans le milieu. C’est de notoriété publique. Les modèles de raisonnement sont le résultat de la solution évidente au problème.
La différence entre LeCun et les optimistes, c’est que LeCun pense que la solution évidente ne suffira pas, et que les optimistes pensent que la solution évidente suffira.
Pour l’instant, la solution évidente ne montre aucun signe d’essoufflement.
Et je ne comprend pas où tu veux en venir. Je te rappelle que le point central (facile à oublier) c’est : est-ce qu’il y a de bonnes raisons de penser que l’AGI est atteignable dans un horizon de temps court-moyen ?
Tu dis : "2-5 ans c’est le point de vue des optimistes, qui n’ont pas forcément raison".
Je te dis : certes, mais les pessimistes ne sont pas beaucoup plus pessimistes (par exemple la dizaine d’année de LeCun, avec une possibilité de bien plus long).
Pas complètement, mais j’avoue que oui, le cynisme en mode "moi je vois bien que ce sont des mensonges intéressés, on me la fait pas à moi" est quelque chose qui a tendance à m’insupporter.
J’ai peut-être surréagi à ça.
Désolé.
Ceci dit je maintiens le fond de ma réaction : juste interpréter les déclarations des dirigeants des labos comme des propos intéressés vides de contenu, c’est une erreur.
Si tu dis "Il ne faut pas s’attendre à ce que quelqu’un qui vend de l’IA pour vivre te dise autre chose que ça", ça veut dire que c’est disqualifiant, pas seulement de la contextualisation.
Je suis entièrement d’accord avec ça, et c’est justement pour ça que je "pousse" contre le discours "l’IA c’est juste un nouveau hype vide de substance". C’est juste un moyen de ne pas s’inquiéter, exactement comme certains utilisent l’argument "le réchauffement climatique n’existe pas" pour ne pas s’inquiéter.
[^] # Re: Acceleration
Posté par pasBill pasGates . Évalué à 1 (+0/-0).
Je tourne la question: qu'est ce qui te fait croire que les boites à travers le monde qui ont, ou qui sont en train, de passer leur support niveau 1 à de l'IA vont faire marche arrière ?
A qualité égale, au jour d'aujourdhui, les couts vont clairement baisser significativement sur les 3-4 prochaines années, le matériel s'améliore tout le temps, la technologie aussi. La qualité d'aujourd'hui est déjà suffisante pour ces applications, et je ne serais pas surpris que dans les cas genre support, ce soit déjà moins cher que les humains
[^] # Re: Acceleration
Posté par Psychofox (Mastodon) . Évalué à 2 (+0/-1).
C'est aussi très pratique les automatisation d'IA. Personne ne peut hurler sur le robot ou harceler la hotline et monopolise une ligne jusqu'à ce que le support ne cède et passe la ligne à une supérieur. Rien que pour ça plein de boites préfères que leurs clients se perdent dans une bouche infinie plutôt que d'accéder à des humains.
[^] # Re: Acceleration
Posté par barmic 🦦 . Évalué à 2 (+0/-0).
Sans l’ensemble de mon commentaire on rate mon avis.
L’IA a un paquet d’usage depuis longtemps et ça grossi. Par contre l’exaltation actuelle de mon point de vu est un mélange d’amélioration réelle et de beaucoup de bruit pour tenter de faire de l’argent. Aujourd’hui dans des boites comme MS on peut te dire que quelque soit le sujet sur le quel tu travail si tu n’a pas des slides copilote à ta prochaine présentation, ton avenir dans la boite est incertain.
Un jour ceux qui aujourd’hui balance du cache vont s’arrêter de le faire, pas forcément pour une raison lié aux IA d’ailleurs. À ce moment là il y aura une crise, comme le covid en a créé une parce que les GAFAM ont cru que les usages allaient durablement changer et que finalement non.
Est-ce que la crise sera aussi légère que la pote covid ou la bulle internet ? Personne ne peut le dire, mais de mon point de vu la quantité de projet bullshit actuel m’amène à penser que ça va être douloureux.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Acceleration
Posté par pasBill pasGates . Évalué à 2 (+1/-0).
C'est de l'exageration. A Amazon on a eu le même genre de message, mais le but était clairement de considèrer si cela pourrait être utile, pas d'insister à tout prix et le mettre partout
Est-ce qu'il y a des gens qui font tout et n'importe quoi avec ? Oui absolument. Mais il y a tellement d'applications valides qui n'ont pas encore été touchées que même lorsque les clowns disparaitront, il restera toujours un tas de choses à faire. Je ne m'inquiètes pas pour ce qui concerne un crash.
Je mettrais plutôt cela comme l'arrivée du cloud. Plein de choses ont été dites, plein de gens sont allé trop loin et ont ensuite disparu, mais il y avait tellement de demande pour que cela n'a rien changé
[^] # Re: Acceleration
Posté par barmic 🦦 . Évalué à 2 (+0/-0).
Microsoft ne fais presque plus de marketing pour ce qui n'a pas de l'IA. Si tu n'es pas dans le mouvement tu es hors de la politique de l'entreprise. Ça peut tenir un temps, mais s'il faut couper quelque part, c'est le genre de choses qui sont regardés.
Le problème ce n'est pas de trouver des usages, le problème c'est de le financer. Quand le marché se crispe trouver des investisseurs devient très compliqué sans aucune forme de rationalité. Ce n'est plus le mouvement donc c'est non. Les marchés se foutent de la pertinence ils regardent 2 choses : est-ce que tu peux faire de l'argent très vite ? est-ce que c'est la mode ? S'ils commencent à être frileux ils ne vont plus avoir confiance en un ROTI rapide.
Le cloud n'a jamais vendu autant de rêve que le fait l'IA. Actuellement tu entends absolument tout sur l'IA. C'est l'écart qu'il y a entre le rêve vendu et la réalité qui de mon point de vu rendra la crise douloureuse et comme le rêve que l'on vend n'a littéralement pas de limite…
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Acceleration
Posté par pasBill pasGates . Évalué à 1 (+0/-0).
Du tout non. Il y a plein de parties de la boite qui ne font rien avec de l'IA. Faut séparer le marketing de l'emploi journalier des ingénieurs.
Ah mais il faut séparer la création de startups innovantes de l'adoption de l'IA, c'est 2 choses diffèrentes.
Peut importe que le marché des investissements baisse, AXA et Société Générale et autres vont continuer à adopter l'IA dans plein de workflows diffèrents en utilisant la technologie d'aujourd'hui, peu importe ce qui apparait demain.
A la TV et ailleurs on vend du rève oui. Dans les grosses boites on fait du pratique et on prototype des choses plus risquées, dans des boites plus petites on met tout sur le risque.
Au final, des petites startups vont disparaitre, les grosses boites vont continuer à avancer à leur rythme de sénateur, et dans les médias on continuera à faire du sensationel.
[^] # Re: Acceleration
Posté par barmic 🦦 . Évalué à 2 (+0/-0).
Tu fais une dichotomie qui n’a pas de sens. Il n’y a pas d’un côté les fou fou startuper et de l’autre IBM qui est sérieux puisqu’ils ont une cravate. Les grosses boites peuvent tout autant perdre la tête et c’est ce qui est arrivé à Meta. notion dont je parlait avant n’est pas une startup. Salesforce non plus. À l’époque de Steeve Ballmer MS en a enchaîner des conneries.
Pourquoi ? Parce que ça marche ? Les boites investissent perpétuellement et font toujours des choix éclairés ? Elles savent tenir tête à leurs actionnaires quand ils disent « on veut plus voir d’IA » ?
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Acceleration
Posté par pasBill pasGates . Évalué à 1 (+0/-0).
Il y a une diffèrence fondamentale entre les 2 : les grosses n'ont jamais toutes leurs billes dans le même panier, et elles bougent plus lentement que les startups.
Parce que ces boites ne sont jamais à la pointe de la technique, elles sont toujours un peu en retard, et ce qu'elles utilisent tend à être quelque chose d'éprouvé.
"IA" cela englobe plein de trucs :
- Des modèles comme Claude-ChatGPT-etc… qui ont déjà fait leurs preuves comme outil utile et pas si onéreux que cela
- Des modèles à la pointe (o3, …) qui promettent mais qui ont des problèmes (cout fou, etc…)
Ces boites, elles prennent ce qui est éprouvé. Et au final il y aura "plus d'IA", mais ce ne sera pas l'IA qui a été créee dans un labo il y a un mois, mais le truc mis sur le marché il y a 2 ans.
[^] # Re: Acceleration
Posté par Psychofox (Mastodon) . Évalué à 6 (+4/-1). Dernière modification le 11 février 2025 à 11:54.
L'AI c'est devenu un mot marketing qui remplace le Smart-machin truc des années précédentes.
Au final qui utilise les fonctions "Smart" de son frigo ou lave-linge. Une minorité probablement. L'autre jour je suis passé devant une vitrine Alain Afflelou et j'ai vu que ça parlait d'intelligence artificielle. Je n'ai pas étudié le truc et je doute que les lunettes aient de l'AI donc j'imagine que c'est pour les prothèses auditives et qu'il s'agit réellement d'un truc comme de la réduction active de bruit ambiant génant pour mieux entendre les voix ou un truc du genre. Mais l'essentiel était selon-moi de mettre AI quelque part pour attirer l'attention. Il y a quelques années ça aurait été des smart-prothèses.
[^] # Re: Acceleration
Posté par Renault (site web personnel) . Évalué à 4 (+1/-0).
Cela peut dépendre de ce qui se passe, notamment du côté de l'accueil par le public et l'aspect juridique.
Si l'IA hallucine des conneries et que la justice considère que ce qui est énoncé / affirmé par l'automate doit être appliqué même si c'est absurde, ça peut coûter cher pour celui qui s'en sert.
Surtout que le prompt engineering malveillant peut produire aussi des résultats inattendus et exploiter ainsi des faiblesses de cette approche.
Ce n'est pas un sujet simple et je ne trouve pas que ce soit trivial de sauter à cette étape de manière généralisée. Il ne semble pas que des solutions généralistes et totalement robustes aient été trouvées, il y a eu régulièrement des petits malins qui ont trouvé et trouvent encore moyen de bypasser les restrictions imposées à l'IA par ses concepteurs.
C'est d'ailleurs comme souvent une limitation pour pas mal de technos de passer de l'effet cool en démo ou éventuellement dans un contexte bienveillant et le passer à l'échelle en tenant compte des situations imprévues par les concepteurs mais aussi parce qu'il y a des acteurs qui ne sont pas bienveillants. Cela limite en tout cas aujourd'hui certaines possibilités, et cela ne semble pas si facile d'y remédier.
[^] # Re: Acceleration
Posté par pasBill pasGates . Évalué à 1 (+0/-0).
Est-ce qu'il y a des gens qui ont les yeux plus gros que le ventre et mettent de l'IA dans des endroits ou il ne faudrait pas ? Oui absolument
Mais la grosse majorité avance gentiment, il y a simplement énormement de gens avancant en même temps. Ils prototypent la technologie, voient ce qui peut se faire avec, ont des doutes, apprennent, … La vraie vague elle est pour dans 2-3 ans quand tout le monde non-startup, un monde beaucoup plus discret, passera de prototype à production.
Ce qui fait que les clowns, quand ils disparaitront, ne seront qu'un blip sur le radar.
[^] # Re: Acceleration
Posté par Psychofox (Mastodon) . Évalué à 2 (+0/-1).
je crois que l'IA est une bonne excuse pour faire monter les prix des abonnements. Google tout comme Microsoft ont monté les prix des abonnements Workspace et Microsoft 365, renommée Microsoft 365 copilot en arguant qu'ils ajoutaient les fonctionnalités AI. Ils auraient pu en faire une option mais vu qu'il y a méfiance avec le mot AI, ça permet de justifier une augmentation de prix de tous les utilisateurs qu'ils utilisent ou pas ces fonctionnalités.
[^] # Re: Acceleration
Posté par Marotte ⛧ . Évalué à 3 (+0/-0). Dernière modification le 20 février 2025 à 04:04.
Ça peut aussi en faire tellement de pépète qu’une bulle éclate et on arrête alors seulement de faire n’imp’.
Souvent une avancée technologique majeure s’accompagne de ces illusions et mirages, ou des ces rêves et espoirs selon comment on veut voir les choses. On peut se re-pencher sur les débuts de l’informatique, ou encore de la conquête spatiale.
Lors de l’électrification de la société, de ses usages, certains ont testé et cru sincèrement qu’enterrer des fils électriques dans les champs et en y faisant passer un courant électrique allait faire pousser les patates plus vite, que ça allait révolutionner l’apport d’engrais pour un monde meilleur.
Ou par exemple que les peintures phosphorescentes ou fluorescentes faisaient de super maquillage rigolo. (là par-contre c’était vrai, c’était rigolo sur le coup ! Moins à moyen terme…)
# combiner les ia
Posté par Ecran Plat (site web personnel) . Évalué à 9 (+7/-0).
Après être passé par Whisper (ce qui est similaire à utiliser de l'OCR), il faut remettre en page le texte et peut-être l'adapter à un format écrit.
Pour cela, il faut passer par un LLM (comme Mistral Small 3 ou Llama 3.3) et lui demander de corriger les fautes et de mettre en page le texte.
Les "uptrucchose" sont des sociétés qui ont exploité les ressources disponibles sur Hugging Face pour créer une interface superbe avec des prompts bien conçus.
Dans le cadre de l'IA, le prompt est crucial pour obtenir de bons résultats. Plus le modèle est "bête" (c'est-à-dire des petits modèles avec moins de paramètres que les mastodontes), plus la précision dans le prompt pourra améliorer le résultat (je tire cela de mon expérience personnelle, qui n'est pas représentative).
Au travail, nous testons l'IA. Actuellement, nous avons déployé Open WebUI avec un Llama 3.2 11B en local sur Ollama et nous avons acheté des tokens chez OpenAI pour les problèmes plus complexes.
Les utilisateurs sont informés que le Llama (rebaptisé dans OpenWebUI du nom de la boîte) tourne en local, tandis que les autres modèles fonctionnent dans un datacenter. Ils doivent donc faire attention à ce qu'ils y envoient.
Pour cela, nous avons acheté un gros Dell d'occasion avec une carte Nvidia Quadro P5000 que nous avons installée dans l'un de nos racks serveurs (c'est bizarre de voir un PC parmi des serveurs). Cela n'a pas coûté cher et fonctionne bien. Pour l'instant, c'est toujours en phase de prototype, et à l'avenir, lors du changement d'un serveur, nous verrons si nous pouvons intégrer une carte GPU.
Demande à ton entreprise un budget pour tester l'IA et voir comment l'intégrer, en expliquant que tu dois faire des essais.
# Commentaire supprimé
Posté par Anonyme . Évalué à 8 (+7/-1).
Ce commentaire a été supprimé par l’équipe de modération.
[^] # Re: Est-ce que je résume correctement ?
Posté par Pol' uX (site web personnel) . Évalué à 2 (+0/-0).
Il y a eu tout de même quelques évolutions profondes qui ont changé la donne, semble t'il.
Adhérer à l'April, ça vous tente ?
[^] # Re: Est-ce que je résume correctement ?
Posté par guiv42 . Évalué à 2 (+1/-0). Dernière modification le 09 février 2025 à 14:13.
C'est l'idée que je m'en faisais aussi. Mais d'après ce que j'ai pu lire ces derniers temps, c'est pas si évident que ça. On a remplacé la bonne vieille sigmoïde comme fonction d'activation chargée de créer la non-linéarité par la fonction ReLU et ses variantes, qui ont le bon goût de ne pas trop "diluer" le gradient dans un apprentissage par rétro-propagation. Mais je n'appellerai pas ça une révolution.
Après, l'introduction des transformeurs semble tout de même avoir créé une rupture. Mais là faudrait que je me documente un peu plus pour avoir un avis crédible !
[^] # Re: Est-ce que je résume correctement ?
Posté par Jehan (site web personnel, Mastodon) . Évalué à 7 (+4/-0).
Perso j'ai pas suivi en détail les évolutions des 20 dernières années, et c'est évident qu'il y en a eu. Mais cela reste juste des évolutions (pas des révolutions), ce qui est normal dans tout sujet en recherche active.
Le vrai problème, c'est pas l'IA, c'est même pas ces technologies particulières (réseaux de neurones et autres technologies par apprentissage), mais déjà, c'est ce qu'on en fait. Ces technologies sont bien pour des cas où on (les humains) n'arrivent pas à trouver un algorithme idéal juste par un exercice de la pensée. Typiquement c'est super intéressant pour l'étude de clichés médicaux où on s'est rendu compte que certaines IAs pouvaient déceler des maladies là où des docteurs expérimentés ne l'ont pas fait. Alors comme certains le notent, il ne faut pas que ça crée une réaction en chaîne où les docteurs se reposent alors entièrement sur le logiciel, ne cherchent plus à réfléchir, apprendre et surtout comprendre. Le logiciel peut aussi se tromper dans un sens (faux négatif: ne pas voir quelque chose que l'humain aurait vu) ou dans l'autre (faux positif: voir une maladie non-existante). Il faut une vérification et une analyse humaines pour validation.
Ensuite le gros problème de ces systèmes est que ça n'aide en rien à comprendre car ces technologies sont très opaques par conception. C'est d'ailleurs pour cela qu'on va les utiliser pour ce type de cas où l'humain est un peu limité. Or on a besoin aussi de comprendre ces problématiques: pourquoi on tombe malade? Comment déceler la maladie (pas juste avec un algorithme opaque)? Comment s'en prévenir? Etc. Certains notent que c'est un des gros problèmes du fait que beaucoup vont prendre l'IA moderne surtout comme une bonne excuse pour ne plus évoluer soi-même en tant qu'être humain. Néanmoins ce n'est pas une fatalité et je pense qu'on peut faire mieux.
D'autres cas très intéressants sont lorsqu'on veut un semblant d'imperfection ou bien de copie de comportement humain. Typiquement je me souviens d'articles de jeux vidéo de voitures qui expliquaient comment le jeu utilisait des réseaux de neurones pour calculer les trajectoires des voitures.
Quand on y pense, un jeu, on veut pouvoir moduler la difficulté, mais les algorithmes faits main peuvent parfois être chiants. Soit trop nuls, soit trop parfaits. C'est pas comme si mathématiquement, on savait pas créer des trajectoires parfaites (surtout si en plus, on contrôle la physique, ce qui est le cas dans un jeu). De même pour un jeu de tir, on veut pas que le joueur se prenne des headshots tout le temps. Avoir des algorithmes basés sur de l'apprentissage permet déjà d'avoir divers niveaux de difficultés, en plus avec un peu de semblant d'aléatoire (pour la même entrée, la sortie n'est pas toujours la même) et même en mode très dur, ce n'est pas non plus de la perfection mathématique. Cela peut rendre le jeu plus intéressant. Certains oublient en effet que l'IA, ce n'est pas seulement d'obtenir une sorte de "méta-intelligence" qui surpasserait l'humain (le genre de réflexion absurde qu'on lit régulièrement de nos jours, et même de la bouche de ceux qui sont à la tête de ces grosses compagnies; c'en est d'un triste…). C'était aussi simuler l'humain (notamment dans son imperfection) pour divers usages intéressants.
Et ainsi de suite.
Mais ce qui pose problème est que maintenant on fait des "agents génériques" qui sont censés apporter une solution à tout, et qu'on fait croire être réellement "intelligents". Or c'est bidon. Cette technologie ne permet pas cela. Mais comme les gens y croient et l'utilisent ainsi, ben ça va à la catastrophe.
De manière générale, les technologies que l'on nomme "IA" ces dernières années (oubliant que l'IA, c'est bien plus que ça en fait) ne sont pas bonnes dans les sujets où les humains "savent déjà faire". C'est le cas pour le dessin, l'écriture, le code… pour tous ces trucs, cela ne crée que des résultats médiocres, du nivellement par le bas. En fait, ce problème est même déjà étudié.
Par exemple, une étude sur les développeurs qui utilisaient des aides au développement par IA avait déterminé que non seulement ceux qui utilisaient ces aides produisaient un code moins sécurisé, mais qu'en plus ceux-ci croyaient qu'ils produisaient un code plus sécurisé (est-ce une sorte de biais du type Dunning-Kruger?).
Quant aux textes, tout le monde (sauf ceux qui font ça) sont d'accord pour dire que la prolifération d'articles générés par IA sur internet est une horreur, cela crée des soupes de mots infâmes, sans saveur, et avec plein d'erreurs factuelles (que les gens reprennent ensuite pour argent comptant; on a eu un exemple il n'y a pas longtemps sur linuxfr d'un article dans la section lien qui était apparemment un article généré par IA, recopié ensuite ailleurs et qui a fini ensuite sur ce site; et bien sûr qui disait apparemment n'importe quoi).
Mais même sans aller aussi loin, beaucoup semblent aussi se mettre à l'IA pour "relire et corriger" leurs textes. Je lisais un commentaire sur le sondage IA justement de quelqu'un qui disait utiliser cela ainsi. Quand je lis l'exemple, je me demande vraiment d'autant plus pourquoi on ferait cela. Oui le langage de chacun n'est pas parfait, ni même lissé. Mais c'est bien là l'important! Les critiques littéraires discutent des heures des tocs de langage des auteurs. C'est notre signature aussi. Pourquoi vouloir à tout prix une sorte de neutre chiant dans le style des textes? Quand je regarde l'exemple en lien, la phrase qui a été le plus changée est:
Cette phrase est parfaitement compréhensible et exprime très bien ce que veut dire l'auteur.
Elle fut changée en:
Alors cette phrase n'est pas fausse ni mauvaise, mais la réécriture n'a eu aucun intérêt sinon perdre le style de l'auteur. Ceci dit, je ne suis pas sûr d'apprécier le changement en "conseiller en syntaxe". C'est un peu bizarre pour moi comme changement (un outil n'est pas un conseiller; là l'outil s'humanise de lui-même!) et ça n'exprime pas aussi bien le sens originel (servir pour réfléchir sur la syntaxe, donc on a bien plus une notion d'évolution, de travail sur soi; c'est bien plus intéressant et intelligent comme manière d'exprimer cet usage). Je ne dis pas que la phrase originelle est parfaite ni que ce changement est horrible, mais il est définitivement bof-bof et pas très intéressant. Franchement si le but était d'aider l'auteur à faire évoluer son style, c'est vraiment loupé et j'espère donc que cette personne s'en rendra compte sans prendre ces "conseils" pour argent comptant.
Il y a peu, quelqu'un avait écrit un journal intéressant. D'autres lui ont conseillé de le faire passer en dépêche, ce à quoi fut répondu que l'auteur aimait sa liberté d'écriture dans un style non lissé. Fort heureusement, les modos de LinuxFr, dans leur infinie sagesse 😉, ont promu le journal en dépêche. J'espère que ça continuera longtemps, parce que moi, c'est ça que je viens lire: des gens différents, dans leur style à eux, qui présentent les trucs intéressants qu'ils font. Pas une sorte de moyennage du style littéraire francophone sur des sujets générés et rempli d'erreurs factuelles.
Quant aux images, c'est pareil. Là aussi, on va vers un monde où la création graphique n'est plus considérée que comme une bouillie de pixels, et où le nivellement par le bas est encore si évident. Les images générées qu'on trouve sur internet sont tellement chiantes et juste des styles bateau. Alors le truc c'est qu'il y a aussi beaucoup d'humains qui dessinent avec ce genre de styles copiés (de même qu'il y avait déjà beaucoup de textes qui étaient aussi globalement des copié-collés vaguement retouchés dans l'industrie de l'écriture; le nivellement avait clairement commencé avant la vague IA de ces dernières années). C'est toutefois beaucoup plus acceptable car on peut voir cela comme une évolution, notamment dans la phase d'apprentissage. C'est comme tous ces jeunes qui vont dessiner en style X ou Y, et en gros vont surtout copier des personnes de leurs BDs favorites. Personne ne leur dira rien, et c'est même très bien de commencer ainsi. On apprend aussi en copiant. Mais on s'imagine bien qu'à un moment donné, si on veut devenir professionnel, on doit évoluer et trouver son propre style. Qui veut rester coincé dans le style d'un autre? (bon je dis ça, mais certains passent professionnels en restant coincé ainsi; chacun son truc, on dira) Ben avec les IAs, c'est un peu ce qu'on crée aussi… Le problème est surtout d'en faire une sorte de standard, un "étalon" de ce qu'est la création maintenant (du vite, et "mal copié").
Enfin bon, tout cela est d'un triste…
Film d'animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]
[^] # Re: Est-ce que je résume correctement ?
Posté par Moonz . Évalué à 1 (+1/-2).
Il faudrait pourtant, si tu veux te faire une idée précise de ce qu’il se passe. Je vais juste prendre un exemple de ton message :
L’étude date de 2022 et utilise un modèle (Codex) de 2021. C’est avant la découverte des scaling laws modernes, quand on entraînait encore des modèles d’une manière extrêmement sous-optimale !
Les modèles d’aujourd’hui ?
o3 a un score Elo de 2700+ sur codeforces.
# Point de bascule pour ma part.
Posté par Stinouff . Évalué à 9 (+7/-0).
Je ne comprends rien à l'IA ; entre tous les modèles, les méthodes d'entraînement, les corpus ou ressources choisies, les paramètres divers, les normalisations, les nécessités d'inscription, de matériel et j'en passe…je suis tout à fait dépassé. J'ai raté le train…mais je ne savais pas où il allait exactement de toute façon.
J'ai l'impression d'avoir vieilli d'un coup ; j'avais eu la même sensation avec les smartphones difficiles à bricoler d'ailleurs.^
# Méfiance ou enthousiasme ? Les 2 probablement
Posté par guiv42 . Évalué à 5 (+4/-0).
Sujet riche et complexe, je suis pour ma part assez partagé.
D'un côté une grande méfiance. Depuis le perceptron de 1957, c'est un champ où la pratique n'a cessé de devancer la théorie. Les IAs ont beau être de plus en plus performantes, si j'ai bien suivi on a encore du mal à expliquer théoriquement pourquoi elles fonctionnent si bien. Dites-moi si je me trompe. Mais moi, voir ces machins se déployer partout aussi vite, ça ne me rassure pas. Alors oui, je regarde passer le train, sans vraiment monter dedans.
Quand on voit régulièrement les hallucinations que ces machins peuvent produire… J'attends tranquillement la première grosse catastrophe que l'on pourra imputer à une IA. Un truc du même acabit que l'incident crowdstrike (une erreur humaine, là) me paraît par exemple extrêmement crédible. J'ai déjà été victime d'un faux positif d'un antivirus probablement mû par une IA, que voulez-vous y faire… Il n'y a plus qu'à espérer que ça n'ira pas jusqu'à une catastrophe industrielle !
Et en même temps, ça donne envie de comprendre. Et pour ça, rien de tel que de jouer avec. Pour ceux qui se sentiraient dépassés (comme moi) et qui ont envie de passer un peu de temps pour comprendre les concepts de ce qui se passe sous le capot (comme moi), je ne saurai que recommander scikit-learn. C'est, comme son nom "learn" l'indique, très pédagogique. C'est clair, c'est bien documenté.
J'ai pu jouer (c'est bien le mot) avec il y a quelques années, en bidouillant une "baguette magique" à reconnaissance de geste, avec un accéléro-gyro, un micro-contrôleur et 13 neurones. Très modeste : ça reconnaît 1 seul geste, mais ça fonctionne, et je me sens un peu moins bête après ! Je suis actuellement sur un autre projet, si j'arrive à en faire quelque chose je vous raconterai. Mais c'est encore dans un champ d'application où la capacité de nuisance est très limitée : si jamais ça se rate et sort de temps en temps quelque chose d'aberrant, c'est pas dramatique.
Ne serait-ce qu'une question de gestion du risque ?
Des compte-rendus de réunion par IA, ben pourquoi pas… tant qu'on n'en n'attend pas une valeur juridique par exemple.
[^] # Re: Méfiance ou enthousiasme ? Les 2 probablement
Posté par pasBill pasGates . Évalué à 4 (+3/-0).
Ben moi c'est simple, je suis bluffé
Par exemple, j'ai toujours eu une difficulté certaine à démarrer l'écriture de certaines fonctions utilitaires dés qu'elles font plus de quelque lignes et qu'elles ont un minimum de complexité. Une sorte de phobie ou TADH je sais pas, mais le début a toujours été difficile.
Maintenant, je dis à l'IA (j'utilises Claude 3.5 Sonnet) ce que je veux, et il génère la fonction. Soit il la génère correctement dans son entier soit il est proche et je n'ai qu'à tout vérifier-relire, et corriger - ajouter quelque trucs.
Autre cas : IntelliJ fait maintenant de l'autocomplétion à base d'un modèle local qui devine ce que tu vas taper selon le reste du code, et si il se trompe assez régulirement, est aussi régulirement dans le vrai et cela sauve pas mal de temps.
Cela aide vraiment, c'est impressionnant. Ensuite, non, je n'y connecterais pas une centrale atomique ou un avion.
[^] # Re: Méfiance ou enthousiasme ? Les 2 probablement
Posté par PLuG . Évalué à 2 (+1/-0).
Moi aussi je suis bluffé.
Je m'en sert personnellement pour traduire des documents (résultats médicaux par exemple) en quelquechose de plus compréhensible pour le commun des mortels (qui n'ont pas fait médecine). Cela semble fonctionner très très bien. J'ai montré le résultat à mon vétérinaire par exemple (analyses des tissus de la patte de mon chien), il était bluffé, l'explication était meilleure que celle qu'il venait de tenter de me délivrer …
Je m'en sert aussi beaucoup pour aider mon fils dans sa scolarité : au lieu de chercher le web pour réviser de mon coté quelques notions de maths ou de physique, en 2 ou 3 prompts j'ai l'essentiel et cela me permet de le questionner et de lui répondre pour donner du sens a son cours, prendre de la hauteur avec des exemples pertinents pour qu'il comprenne mieux les notions étudiées.
Je m'en sert aussi pour le code, et c'est assez étonnant. La proposition automatique est souvent pertinente (mais pas toujours, il faut relire) et quand on modifie a la volée il semble apprendre et améliore la suite de sa proposition.
D'ailleurs cette année, lors du "advent of code", il y a eu toute une histoire car les premiers à soumettre les réponses étaient visiblement des IA entraînées à lire l’énoncé du problème, récupérer les données d'input et poster la réponse directement. La plupart du temps en 20 secondes.
Il leur a été demandé de ne pas poster la réponse pour ne pas faire perdre l'intérêt du jeu aux humains qui veulent relever le défis en apprenant à coder !
Au boulot on s'en sert pour normaliser des informations que l'on reçoit des clients. Les clients nous écrivent mais nous avons besoin d'identifier un peu toujours les mêmes paramètres/notions. Le fait que l'IA nous ajoute une fiche normalisée avec les notions nécessaires toujours au même endroit nous fait gagner beaucoup de temps (on garde les écrits originaux aussi). On s'en sert aussi comme premier avis, pour orienter les demandes clients qui passent tout de même par un humain mais avec la première analyse par l'IA.
On a aussi testé les CR de réunion et c'est vrai que c'est bluffant, mais on ne l'a pas déployé pour le moment.
[^] # Re: Méfiance ou enthousiasme ? Les 2 probablement
Posté par barmic 🦦 . Évalué à 6 (+4/-0).
Il faut vraiment faire attention avec cet usage. Hier ou avant hier j’ai lu des tests où on présenter des cas où le LLM ratait des informations importantes.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Méfiance ou enthousiasme ? Les 2 probablement
Posté par pasBill pasGates . Évalué à 7 (+6/-0).
La meilleure synthèse que j'ai trouvée pour les LLMs est que ce sont des stagiaires.
Ils font le boulot à peu près correctement, cela aide bien, mais on ne sait jamais ce qu'ils vont merder et il faut tout vérifier.
[^] # Re: Méfiance ou enthousiasme ? Les 2 probablement
Posté par Philippe F (site web personnel) . Évalué à 4 (+2/-0).
Je suis pas mal amené ces derniers temps à coder dans des langages où je suis débutant, voire ignare (powershell, C#, groovy). Dès que je comprends rien au langage, je demande à l'ami félin-malodorant. Je pourrais trouver la même réponse soit en lisant une doc spécialisée qu'il me faut d'abord trouver, puis en analysaer mon besoin et la comparant à ce qui est proposé en faisant mon chemin avec l'information que je cherche. Bref, elle fait en 20 secondes ce qu'il me faudrait 5 minutes à faire.
Idem pour des points de documentation précis, elle remplace un bon stackoverflow. Même dans mon domaine d'expertise (Python) où je connais la doc à moitié par cœur et où je suis capable de trouver le chapitre qui m'intéresse en une dizaine de seconde, c'est légèrement plus rapide de demander à l'IA.
Ce qui est proprement flippant, c'est que du coup en tant que débutant, je peux trouver des réponses qui demandent pas mal d'expertise (lire en claire en secure string en powershell). Plus besoin d'être expert pour produire de l'expertise.
L'humain choisissant toujours la voie avec le plus de confort, je me pose la question de qui va encore vouloir devenir expert dans un domaine ? Comment rivaliser avec les faux experts qui résolvent aussi les vrais problèmes. La différence se fera sur les problèmes relativement complexe, où il faut de l'expertise et du recul. Mais si on sollicite un expert, c'est justement qu'on a ni l'un ni l'autre.
# alternative (proprio) à upmeet
Posté par jtremesay (site web personnel) . Évalué à 3 (+2/-1).
Au taf, on utilise Sana. Ça a le mérite de s'intégrer à Google Meet / Microsoft Team et le free tier est plus que suffisant pour nos besoins de petite boite.
On est tellement satisfait qu'on l'utilise même pour assurer la prise de note des réunions 100% présentiel.
# À quand la merdification ?
Posté par Zorro (site web personnel) . Évalué à 1 (+0/-0).
Assez bluffé aussi par les nouvelles possibilités de traduction, par ex.
Excédé par les images qui puent l'IA, mais je pense que c'est plus une question de mode (tout le monde fait pareil au même moment).
Pour les réponses basiques, dès fois je me dis que c'est juste une réécriture synthétiques des premiers résultats de Google ou de la page Wikipedia et que c'est beaucoup de bruit pour rien.
Ça m'amuse aussi de voir des gens qui font des prompts plus longs et plus besogneux que le résultat qu'ils ont obtenu. Ou ceux qui croient que les trucages de photos ou de vidéos viennent d'être inventés.
Je pense qu'on utilisera de plus en plus de l'IA sans savoir que ça en est.
Surtout je me demande quand et comment ça va être merdifié. La merdification des choses étant inéluctable, il y aura à coup sûr un moment où l'IA mentira pour vendre des produits, orienter ses réponses selon les "fameuses préférences et historique de l'utilisateur".
Est-ce qu'il est possible qu'elles s'affadissent ? Qu'elles digèrent et re-digèrent tellement de trucs faux qu'elles en deviennent inutilisables ?
Est-ce qu'on pourra mettre des AdBlocks à IA ?
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.