Pas vraiment d'accord avec le sens général des propos mais ça c'est pas grave, ce qui me dérange c'est que ça n'apporte pas grand chose.
On peut critiquer les modèles génératifs sur bien des plans, mais là on a surtout l'impression que c'est alimenté par la nostalgie de que fut l'informatique et que l'IA est trop différente pour être considérée comme de l'informatique.
Un peu comme le logiciel repose sur l’électronique, l'IA repose sur le logiciel avec une nouvelle forme de complexité.
L'IA est opaque.
Oui, comme la quasi totalité des logiciels que l'on utilise en réalité, et c'est pas une question de code ouvert ou pas.
Même en étant programmeur on a pas une connaissance fine de l'ensemble de l'informatique (a part des génies comme Linus, et encore, je doute qu'il connaisse grand chose du développement web par exemple).
L'IA n'est pas accessible
L'IA n'est pas faite pour les petites personnes.
L'IA n'est pas ouverte
L'auteur connait il l'existence de huggingface, des modèles Mistral-7B et Mixtral8x-7B ?
De projets comme llama.cpp ou vLLM ?
Apparemment pas, il ne parle que de ChatGPT.
C'est utilisable sur une machine de particulier et c'est pas plus compliqué à utiliser qu'un compilateur.
C'est par contre très différent, certes.
Moi j'aime pas Docker et les applications Electron (ou assimilés), mais je suis quand même capable de faire la différence entre le manque de connaissance (Docker dans mon cas) et la techno critiquable par sa simple existence (Electron).
Je pourrais dire des dizaines de choses du pourquoi j'aime pas Electron, mais je me garderai bien de faire de même avec Docker, car je suis à peu près certain que dans ce cas je ne dirai que des âneries.
C'est vrai qu'il ne parle que de chatGPT qui est une boite noire.
Il n'empêche que je trouve quand même pertinent de craindre qu'écrire des wrappers pour ChatGPT/ou un autre, devienne le gros du travail d'un développeur dans un futur proche.
En tant que vieux prout moi même je trouve aussi que le ticket d'entrée est sacrément élevé pour faire mumuse avec.
Posté par Florian.J .
Évalué à 1.
Dernière modification le 22 février 2024 à 00:29.
Effectivement si on sort du cadre logiciel pour se concentrer sur le modèle, ont peut considérer ça comme des boites noires.
Mais ces boites noires sont malgré tout le reflet de protocoles et de données d'apprentissage, dont la plupart sont accessibles publiquement.
Il n'empêche que je trouve quand même pertinent de craindre qu'écrire des wrappers pour ChatGPT/ou un autre, devienne le gros du travail d'un développeur dans un futur proche.
Pour l'instant on y est pas, les llms ne sont que des compléments à ce qui existe déjà, mais il est effectivement possible que ça tourne mal dans ce côté.
Maintenant est ce si différent des applications qui existaient déjà avant et qui sont alimentées par des services des cloud ?
En tant que vieux prout moi même je trouve aussi que le ticket d'entrée est sacrément élevé pour faire mumuse avec.
C'est sûr que ça parait plus difficile de déployer un llm que d'aller sur python.org et de se lancer dans la programmation.
Sauf que tu dis ça parce qu'à priori tu sais déjà développer et qu'il s'agit d'une nouvelle discipline où il faut tout réapprendre.
J'en ais moi même un peu bavé au début, surtout que c'est un milieu en pleine ébullition avec de nouvelles petites révolutions tout le temps.
Mais dans l'absolu ça reste pour moi plus simple qu'apprendre la programmation.
P.S: Je précise que mon expertise se limite au déploiement d'IA, je n'ai expérimenté l'apprentissage que très superficiellement.
Je ne m'y connais pas plus qu'un autre en "ia" mais déjà le terme me semble mal choisi, on aurait pu resté à réseau de neurones ou quelque chose comme ça non ? (vrai question d'un gars qui ne s'y connais pas vraiment du tout).
Pour moi on est pas du tout proche d'une ia au sens "intelligence", on a plus à faire à des systèmes expert, et c'est très bien, très impressionnant.
J'ai l'impression que ce qui cristallise le plus de critique avec les techno actuelles c'est le côté buzzword.
Le concept existe depuis des plombes, mais comme il commence vraiment à donner des résultats impressionnant (on peut 'discuter' avec GPT3 / 4 et Mistral, c'est fou) et que des boites l'ont rendu accessible aux gens du commun on assiste à une découverte du publique (surtout des médias), et comme c'est quand même bien complexe, on attribue aux 'ia' (je vais garder mes guillemets hein) des choses étonnantes, comme pour le cloud en son temps.
Des tas de gens se l’approprie, et ça c'est bien, mais dans le tas on a des vendeurs de tapis / arnaqueurs qui vont essayer de vendre n'importe quoi parce que l'IA ! Ou dans n'importe quel domaine on va essayer d'intégrer de l'IA, parce que c'est cool. Quand bien même ça n'apporterait pas grand chose.
Pareil avec les crypto, le concept de la blockchain c'est cool techniquement, mais 99% de ce que j'ai vu ça ne me fait pas rêver.
Et je parle de toutes ces choses en sachant pertinemment que je n'y comprend rien.
Après, pour revenir au sujet de l'ouverture, oui y a des modèles fournit en accès libre, mais c'est comme si tu me filais un binaire de photoshop sans le code source, je vais pas pouvoir me débrouiller pour faire des corrections. Y a bien le fine tunning mais c'est pas vraiment pareil que de pouvoir produire son propre modèle entraîné.
Et c'est pas grave, il y a des choses qui sont hors de porté d'un individu seul, sauf à être un pur génie.
Là ou l'opacité d'une 'ia' peut réellement poser problème c'est quand on va lui demander de réaliser un taf concret, avec des vrais enjeux, ou il faut par exemple pouvoir certifier qu'elle ne va pas merder, ou produire des résultats erroné. Comme par exemple une 'ia' d'analyse de radio à destination des médecins, ou quelque chose comme ça.
Et là ou ça me fait personnellement peur, c'est la facilitée avec laquelle on peut avoir la réponse à un problème (juste ou fausse), sans au final n'avoir rien appris réellement. J'ai peur qu'on oublies comment on faisait avant, qu'on se repose trop dessus et qu'on deviennent stupides.
Un peu comme avec le 'no-code', ou en tout cas comme on vend en général le 'no-code' alors que ce serait plus du code visuel (et que donc ça reste un langage !), ou alors de la définition de règles et de la description (auquel cas ça revient encore à programmer un comportement).
Mais c'est peut être moi, peut être que quand le premier compilo est sortit, les programmeurs assembleur de l'époque ont eu peur qu'on se repose trop dessus, qu'on oublies comment on faisait avant et qu'on deviennent stupides.
# Mouais
Posté par Florian.J . Évalué à 3.
Pas vraiment d'accord avec le sens général des propos mais ça c'est pas grave, ce qui me dérange c'est que ça n'apporte pas grand chose.
On peut critiquer les modèles génératifs sur bien des plans, mais là on a surtout l'impression que c'est alimenté par la nostalgie de que fut l'informatique et que l'IA est trop différente pour être considérée comme de l'informatique.
Un peu comme le logiciel repose sur l’électronique, l'IA repose sur le logiciel avec une nouvelle forme de complexité.
Oui, comme la quasi totalité des logiciels que l'on utilise en réalité, et c'est pas une question de code ouvert ou pas.
Même en étant programmeur on a pas une connaissance fine de l'ensemble de l'informatique (a part des génies comme Linus, et encore, je doute qu'il connaisse grand chose du développement web par exemple).
L'auteur connait il l'existence de huggingface, des modèles Mistral-7B et Mixtral8x-7B ?
De projets comme llama.cpp ou vLLM ?
Apparemment pas, il ne parle que de ChatGPT.
C'est utilisable sur une machine de particulier et c'est pas plus compliqué à utiliser qu'un compilateur.
C'est par contre très différent, certes.
Moi j'aime pas Docker et les applications Electron (ou assimilés), mais je suis quand même capable de faire la différence entre le manque de connaissance (Docker dans mon cas) et la techno critiquable par sa simple existence (Electron).
Je pourrais dire des dizaines de choses du pourquoi j'aime pas Electron, mais je me garderai bien de faire de même avec Docker, car je suis à peu près certain que dans ce cas je ne dirai que des âneries.
[^] # Re: Mouais
Posté par jean_clume . Évalué à 3.
C'est vrai qu'il ne parle que de chatGPT qui est une boite noire.
Il n'empêche que je trouve quand même pertinent de craindre qu'écrire des wrappers pour ChatGPT/ou un autre, devienne le gros du travail d'un développeur dans un futur proche.
En tant que vieux prout moi même je trouve aussi que le ticket d'entrée est sacrément élevé pour faire mumuse avec.
[^] # Re: Mouais
Posté par Florian.J . Évalué à 1. Dernière modification le 22 février 2024 à 00:29.
Effectivement si on sort du cadre logiciel pour se concentrer sur le modèle, ont peut considérer ça comme des boites noires.
Mais ces boites noires sont malgré tout le reflet de protocoles et de données d'apprentissage, dont la plupart sont accessibles publiquement.
Pour l'instant on y est pas, les llms ne sont que des compléments à ce qui existe déjà, mais il est effectivement possible que ça tourne mal dans ce côté.
Maintenant est ce si différent des applications qui existaient déjà avant et qui sont alimentées par des services des cloud ?
C'est sûr que ça parait plus difficile de déployer un llm que d'aller sur python.org et de se lancer dans la programmation.
Sauf que tu dis ça parce qu'à priori tu sais déjà développer et qu'il s'agit d'une nouvelle discipline où il faut tout réapprendre.
J'en ais moi même un peu bavé au début, surtout que c'est un milieu en pleine ébullition avec de nouvelles petites révolutions tout le temps.
Mais dans l'absolu ça reste pour moi plus simple qu'apprendre la programmation.
P.S: Je précise que mon expertise se limite au déploiement d'IA, je n'ai expérimenté l'apprentissage que très superficiellement.
[^] # Re: Mouais
Posté par Aldebaran (site web personnel) . Évalué à 2.
Je ne m'y connais pas plus qu'un autre en "ia" mais déjà le terme me semble mal choisi, on aurait pu resté à réseau de neurones ou quelque chose comme ça non ? (vrai question d'un gars qui ne s'y connais pas vraiment du tout).
Pour moi on est pas du tout proche d'une ia au sens "intelligence", on a plus à faire à des systèmes expert, et c'est très bien, très impressionnant.
J'ai l'impression que ce qui cristallise le plus de critique avec les techno actuelles c'est le côté buzzword.
Le concept existe depuis des plombes, mais comme il commence vraiment à donner des résultats impressionnant (on peut 'discuter' avec GPT3 / 4 et Mistral, c'est fou) et que des boites l'ont rendu accessible aux gens du commun on assiste à une découverte du publique (surtout des médias), et comme c'est quand même bien complexe, on attribue aux 'ia' (je vais garder mes guillemets hein) des choses étonnantes, comme pour le cloud en son temps.
Des tas de gens se l’approprie, et ça c'est bien, mais dans le tas on a des vendeurs de tapis / arnaqueurs qui vont essayer de vendre n'importe quoi parce que l'IA ! Ou dans n'importe quel domaine on va essayer d'intégrer de l'IA, parce que c'est cool. Quand bien même ça n'apporterait pas grand chose.
Pareil avec les crypto, le concept de la blockchain c'est cool techniquement, mais 99% de ce que j'ai vu ça ne me fait pas rêver.
Et je parle de toutes ces choses en sachant pertinemment que je n'y comprend rien.
Après, pour revenir au sujet de l'ouverture, oui y a des modèles fournit en accès libre, mais c'est comme si tu me filais un binaire de photoshop sans le code source, je vais pas pouvoir me débrouiller pour faire des corrections. Y a bien le fine tunning mais c'est pas vraiment pareil que de pouvoir produire son propre modèle entraîné.
Et c'est pas grave, il y a des choses qui sont hors de porté d'un individu seul, sauf à être un pur génie.
Là ou l'opacité d'une 'ia' peut réellement poser problème c'est quand on va lui demander de réaliser un taf concret, avec des vrais enjeux, ou il faut par exemple pouvoir certifier qu'elle ne va pas merder, ou produire des résultats erroné. Comme par exemple une 'ia' d'analyse de radio à destination des médecins, ou quelque chose comme ça.
Et là ou ça me fait personnellement peur, c'est la facilitée avec laquelle on peut avoir la réponse à un problème (juste ou fausse), sans au final n'avoir rien appris réellement. J'ai peur qu'on oublies comment on faisait avant, qu'on se repose trop dessus et qu'on deviennent stupides.
Un peu comme avec le 'no-code', ou en tout cas comme on vend en général le 'no-code' alors que ce serait plus du code visuel (et que donc ça reste un langage !), ou alors de la définition de règles et de la description (auquel cas ça revient encore à programmer un comportement).
Mais c'est peut être moi, peut être que quand le premier compilo est sortit, les programmeurs assembleur de l'époque ont eu peur qu'on se repose trop dessus, qu'on oublies comment on faisait avant et qu'on deviennent stupides.
# Schnock
Posté par nud . Évalué à 10.
Le mot que tu cherchais est « schnock ».
[^] # Re: Schnock
Posté par jean_clume . Évalué à 2.
Non
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.