Posté par raphj .
Évalué à 10.
Dernière modification le 17 mars 2023 à 09:23.
Si vous pensez, comme nous, qu’à un moment donné, l’IA — l’IA générale — sera extrêmement, incroyablement puissante, alors il n’est tout simplement pas logique d’ouvrir le code source. C’est une mauvaise idée… Je m’attends à ce que, dans quelques années, il devienne évident pour tout le monde qu’il n’est pas judicieux de mettre l’IA en libre accès
Traduction :
On ne veut pas négliger la quantité phénoménale d'investissement financiers de la part de Microsoft et ses demandes de restreindre l'accès à eux seuls pour des raisons évidentes de compétition.
…
il devienne évident pour tout le monde qu’
Non, pas pour moi. Si on veut que les gens puissent se défendre efficacement contre les nouvelles technologies, il est évident qu'on veut leur permettre d'accéder librement à nos technologies avancées et efficaces.
Voilà, c'est tellement simple à renverser. "C'est évident que" n'est pas un argument. L'appel à la peur n'est pas très subtile non plus. En sommes, un ramassis de sophismes qui cachent de vraies motivations, moins nobles.
« [i]l est déraisonnable de laisser en libre accès des outils extrêmement performants dans les mains dont [(sic)] ne sait qui. »
" 2020 a marqué un tournant plus significatif encore, lorsque Microsoft a signé avec OpenAI « pour la licence exclusive du modèle de langage GPT-3 » ".
« Microsoft, qui investit énormément d’argent dans OpenAI, se retrouve dans une course à l’IA face à d’autres poids lourds de la tech, comme Google et Facebook, et peut-être demain Apple et Amazon. Cette compétition se reflète aussi dans des décisions préoccupantes, comme l’affaiblissement des équipes chargées, chez Microsoft, des questions éthiques. »
Comme ça le message est clair : seul l'écrasement de toute concurrence importe désormais. Une éthique sans hypocrisie qui a l'avantage de ne pas s’embarrasser de circonvolutions oiseuses.
Au vu des investissements et partenariat d open AI (close AI ) avec Microsoft , notamment le fait d inclure la techno GPT dans les produits Microsoft , doit on s etonner de la tournure des évènements ? Se pourrait il que ce soit une premiere formr/stade de la strategie d embrace, extend & extinguish ? Sinon quelles sont les autres alternatives credibles a chatgpt ?
Posté par eastwind☯ .
Évalué à 2.
Dernière modification le 18 mars 2023 à 14:12.
mon point n'est pas qu'il faut pas utilisé son cerveau, ceux qui utilisent chatgpt sans rien connaitre du sujet ne peuvent pas faire la distinction entre le contenu pertinent et non pertinent, chatgpt fait des erreurs (et les reconnait (après quand meme pas mal d'itération)) mais il ne te dit pas les erreurs qu'il fait. Par exemple lorsqu'on l'utilise dans le but d'explorer des éléments encore non connu (ex: nouvelles interactions entre deux types d'éléments dont n'avait pas anticiper qu'il pourrait avoir des interactions entre eux) c'est intéressant , ca donne des idées intéressante , mais pour des choses connues autant utilisé effectivement son cerveau (prerequis pour pas se faire avoir par chatgpt )
Connaissant Baud, c'est une tentative pour dérider et non 10 qualifier.
Et la parenthèse pour s'instruire est intéressante parce-que je n'ai pas eu le même décompte de mon côté.
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
Posté par BAud (site web personnel) .
Évalué à 0.
Dernière modification le 20 mars 2023 à 14:45.
donc bon, les correctifs de eastwind<
mon point n'est pas qu'il faut pas utilis** é ** er son cerveau, ceux qui utilisent chatgpt sans rien conna ** î ** itre du sujet ne peuvent pas faire la distinction entre le contenu pertinent et non pertinent, chatgpt fait des erreurs (et les reconnait (après quand m ** ê ** eme pas mal d'itération)) mais il ne te dit pas les erreurs qu'il fait. Par exemple lorsqu'on l'utilise dans le but d'explorer des éléments encore non connu ** s ** (ex: nouvelles interactions entre deux types d'éléments dont on n'avait pas anticiper ** é ** qu'il pourrait ** y ** avoir des interactions entre eux) c'est intéressant , ** ç ** ca donne des idées intéressante ** s ** , mais pour des choses connues autant utilisé ** er ** effectivement son cerveau (pr ** é ** erequis pour ne pas se faire avoir par chatgpt )
indicatif
^ pour connaître
même spareil
connus c'est au pluriel, avec un s
indicatif sur anticiper, c'est domache pour un participe passé
ca au lieu de ça ?
accord du pluriel ?
participe passé au lieu d'indicatif ?
l'accént sur le é ?
bref, donc bon
Qui croit avoir autant de temps à reprendre les fautes d'orthographe ? Bien écrire devrait correspondre au respect des lecteurs, ça va de soi.
Je m'étais posé la question, j'avais trouvé ça (je précise que j'y entrave pas grand chose à l'ia et que ce domaine particulier me semble encore plus hermétique) :
PaLM pourrait surpasser GPT-3, cependant, avant de vous enthousiasmer pour cette variante open source et de courir la télécharger, vous devez savoir quelque chose. Le système n’a pas encore été formé, il n’est donc pas capable d’établir une conversation avec vous comme le ChatGPT. Selon son créateur, PaLM + RLHF n’est qu’un bateau et une carte générale, car il faut des millions de dollars de calculs et de données pour naviguer au bon endroit dans un espace de paramètres à haute dimension.
Quand Wang parle de millions de dollars, il ne plaisante pas. Selon une étude publiée par l’université de Cornell pour former un modèle de 1,5 milliard de paramètres coûterait 1,6 million de dollars.
Bloom, un modèle de source ouverte qui possède un nombre de paramètres similaire à celui de GPT-3, a nécessité trois mois d’entraînement en utilisant 384 cartes NVIDIA A1000, d’une valeur estimée à 32 200 dollars chacune. À titre de référence, le PaLM compte 540 milliards de paramètres.
Philip Wang mentionne que même avec le navire et la carte en main – comme il définit le PaLM + RLHF – il faut encore des marins professionnels pour le guider jusqu’au port. D’autres experts affirment qu’il faut non seulement un matériel puissant, mais aussi une infrastructure adéquate et des logiciels capables de mener à bien la tâche de formation.
Le vrai frein c'est le pognon.
Après je sais pas ce que ça vaut, mais étonnement y a Meta qui fait un équivalent opensource et qui publie le modèle entraîné : https://github.com/facebookresearch/metaseq
J'ai fais des recherches sur les issue, (toujours à prendre avec des pincette) apparemment le plus important c'est la vram qui doit pouvoir contenir le modèle et faire de l'inférence dessus :
30B parameter models are already large enough to exhibit some of the more interesting emergent phenomena of LLMs. Quantized to 8 bits, it might be possible to squeeze into 2, better three 3090s. But the models also seem undercooked, slightly to strongly under-performing GPT-3 in a lot of tasks. To further train the same model is now looking at > 100 GB, possibly 200GB of VRAM.
Donc pour avoir chatPGT dans une tour il faudrait en gros une machine puissante, en adéquation avec les cartes graphiques qu'elle contient (et sûrement un paquet de stockage aussi). Donc une archi serveur et potentiellement des grappes de GPU.
Avec des A100 80 Go de nvidia on pourrait en avoir juste 2 pour commencer.
# Bullshit
Posté par raphj . Évalué à 10. Dernière modification le 17 mars 2023 à 09:23.
Traduction :
…
Non, pas pour moi. Si on veut que les gens puissent se défendre efficacement contre les nouvelles technologies, il est évident qu'on veut leur permettre d'accéder librement à nos technologies avancées et efficaces.
Voilà, c'est tellement simple à renverser. "C'est évident que" n'est pas un argument. L'appel à la peur n'est pas très subtile non plus. En sommes, un ramassis de sophismes qui cachent de vraies motivations, moins nobles.
Le libre n'est pas du tout le problème.
# Limpide
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 10.
Comme ça le message est clair : seul l'écrasement de toute concurrence importe désormais. Une éthique sans hypocrisie qui a l'avantage de ne pas s’embarrasser de circonvolutions oiseuses.
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
# Microsoft - comment dire -
Posté par eastwind☯ . Évalué à 4.
Au vu des investissements et partenariat d open AI (close AI ) avec Microsoft , notamment le fait d inclure la techno GPT dans les produits Microsoft , doit on s etonner de la tournure des évènements ? Se pourrait il que ce soit une premiere formr/stade de la strategie d embrace, extend & extinguish ? Sinon quelles sont les autres alternatives credibles a chatgpt ?
[^] # Re: Microsoft - comment dire -
Posté par Jean-Baptiste Faure . Évalué à 7.
Un cerveau ?
[^] # Re: Microsoft - comment dire -
Posté par eastwind☯ . Évalué à 2. Dernière modification le 18 mars 2023 à 14:12.
mon point n'est pas qu'il faut pas utilisé son cerveau, ceux qui utilisent chatgpt sans rien connaitre du sujet ne peuvent pas faire la distinction entre le contenu pertinent et non pertinent, chatgpt fait des erreurs (et les reconnait (après quand meme pas mal d'itération)) mais il ne te dit pas les erreurs qu'il fait. Par exemple lorsqu'on l'utilise dans le but d'explorer des éléments encore non connu (ex: nouvelles interactions entre deux types d'éléments dont n'avait pas anticiper qu'il pourrait avoir des interactions entre eux) c'est intéressant , ca donne des idées intéressante , mais pour des choses connues autant utilisé effectivement son cerveau (prerequis pour pas se faire avoir par chatgpt )
[^] # Re: Microsoft - comment dire -
Posté par BAud (site web personnel) . Évalué à -6. Dernière modification le 18 mars 2023 à 17:46.
il sait corriger les phôtes d'ortografe et de gramèrre ? (j'en compte au moins 3 dans ton commentaire, saurais-tu les trouver ?)
[^] # Re: Microsoft - comment dire -
Posté par barmic 🦦 . Évalué à 6.
C'est une disqualification par l'orthographe ?
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Microsoft - comment dire -
Posté par Gil Cot ✔ (site web personnel, Mastodon) . Évalué à 0.
Connaissant Baud, c'est une tentative pour dérider et non 10 qualifier.
Et la parenthèse pour s'instruire est intéressante parce-que je n'ai pas eu le même décompte de mon côté.
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
[^] # Re: Microsoft - comment dire -
Posté par BAud (site web personnel) . Évalué à -2.
bah yen a au moins 7 entre le participe passé, l'indicatif, l'accord du pluriel, la cédille oubliée et j'en passe…
[^] # Re: Microsoft - comment dire -
Posté par BAud (site web personnel) . Évalué à -3.
tu veut fer un qu'on cours, kikya la plus mauvése ortho ?
[^] # Re: Microsoft - comment dire -
Posté par BAud (site web personnel) . Évalué à 0.
ok, personne n'est capable de répondre :/
j'ai tout de même commis https://linuxfr.org/users/baud/journaux/je-prefere-linuxfr-org qui a reçu des commentaires de qualitay :-)
bah, relisez ! ça va me faire plais'
[^] # Re: Microsoft - comment dire -
Posté par BAud (site web personnel) . Évalué à 0. Dernière modification le 20 mars 2023 à 14:45.
donc bon, les correctifs de eastwind<
mon point n'est pas qu'il faut pas utilis** é ** er son cerveau, ceux qui utilisent chatgpt sans rien conna ** î ** itre du sujet ne peuvent pas faire la distinction entre le contenu pertinent et non pertinent, chatgpt fait des erreurs (et les reconnait (après quand m ** ê ** eme pas mal d'itération)) mais il ne te dit pas les erreurs qu'il fait. Par exemple lorsqu'on l'utilise dans le but d'explorer des éléments encore non connu ** s ** (ex: nouvelles interactions entre deux types d'éléments dont on n'avait pas anticiper ** é ** qu'il pourrait ** y ** avoir des interactions entre eux) c'est intéressant , ** ç ** ca donne des idées intéressante ** s ** , mais pour des choses connues autant utilisé ** er ** effectivement son cerveau (pr ** é ** erequis pour ne pas se faire avoir par chatgpt )
bref, donc bon
Qui croit avoir autant de temps à reprendre les fautes d'orthographe ? Bien écrire devrait correspondre au respect des lecteurs, ça va de soi.
[^] # Re: Microsoft - comment dire -
Posté par BAud (site web personnel) . Évalué à -1.
ah donc bon, l'humour n'est pas comprite icitte ? domache :p
spa fôte de faire des efforts :/
[^] # Re: Microsoft - comment dire -
Posté par Aldebaran (site web personnel) . Évalué à 5.
Je m'étais posé la question, j'avais trouvé ça (je précise que j'y entrave pas grand chose à l'ia et que ce domaine particulier me semble encore plus hermétique) :
https://github.com/lucidrains/PaLM-rlhf-pytorch
Un truc dont je ne trouve plus la source :
Le vrai frein c'est le pognon.
Après je sais pas ce que ça vaut, mais étonnement y a Meta qui fait un équivalent opensource et qui publie le modèle entraîné : https://github.com/facebookresearch/metaseq
J'ai fais des recherches sur les issue, (toujours à prendre avec des pincette) apparemment le plus important c'est la vram qui doit pouvoir contenir le modèle et faire de l'inférence dessus :
Donc pour avoir chatPGT dans une tour il faudrait en gros une machine puissante, en adéquation avec les cartes graphiques qu'elle contient (et sûrement un paquet de stockage aussi). Donc une archi serveur et potentiellement des grappes de GPU.
Avec des A100 80 Go de nvidia on pourrait en avoir juste 2 pour commencer.
Elles sont à 20K l'une sur aliexpress.
[^] # Re: Microsoft - comment dire -
Posté par barmic 🦦 . Évalué à 4.
Pourquoi voudraient ils extinguish ?
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.