La crédibilité et l'honnêteté de la source ont toujours été importante vu qu'il est improbable que tout le monde vérifie en profondeur toutes les informations dont on est abreuvés. En comparaison de l'époque du tsar on est dans de tous ordres de grandeurs dans la quantité d'infos, journalistiques, de gestion publique, journalistiques …
Mais … On a développé des protocoles de fiabilités, des techniques scientifiques exigeantes et profondes, avec aussi beaucoup d'incertitudes parce que souvent les scientifiques n'aiment pas conclure quand il reste des zones d'ombres. Le monde s'est aussi beaucoup complexifié techniquement, politiquement, avec des conflits à l'échelle de la planète désormais pour la maîtrise des ressources, absolument partout où on peut en récupérer.
Là on peut anticiper un changement d'échelle parce que la profondeur de la propagande peut changer. Des rapports avec des données entièrement bidonnées qui ont l'air crédibles, des protocoles sur le papier béton qui tromperaient un scientifique, qui passeraient n'importe quel peer review ? Pourquoi pas. Vas y pour montrer qu'il n'y a pas eu d'expérience, la science nécessite un minimum d'honnêteté quand bien même le principe c'est que tout doit être triple verifié … Les rapports d'expertise et des cabinets type mc Kinsey n'en parlons pas.
Il y a une histoire de chaîne de confiance de l'information transmise a creuser. Un journaliste est supposé avoir des sources, un scientifique les cité également et tous de tirer leurs info quelque part dans la réalité. La in va avoir la possibilité d'une réalité alternative tout aussi plausible et beaucoup plus travaillee, avec une chaîne de confiance alternative de plus en plus profonde ?
Mais, euh, en 2023, pourquoi ? C’est juste pour troller ou il y a vraiment des domaines ou il est pris en véritable référence autrement que pour retracer l’historique ?
Par exemple, les scientifiques dans leur pratique ne le citent absolument jamais à part les historiens de ci ou ça probablement … Les non scientifiques ou universitaire, euh, l’influence concrète dans la vie quotidienne ou spirituelle doit être proche du néant, donc … pourquoi dépenser de l’énergie à ça ?
C’est l’intérêt du test du canard justement : « Si ça ressemble à un canard, si ça nage comme un canard et si ça cancane comme un canard, c'est qu'il s'agit sans doute d'un canard. »
Après évidemment il peut y avoir des caractéristiques autres que la nage, l’aspect ou le cri …
Genre … combattre la tentative de banalisation de l’extrême droite ? C’est pas une histoire de psy. Ici il y a une tentative de tout mettre à même niveau, l’extrême droite comme le reste, une critique du monde associatif en sous entendant que tout le monde et pareil et finalement tout le monde ne fait que poursuivre son intérêt personnel et une critique du gauchisme qui n’est pas exclusive à l’extrême droite mais qui résonne avec son anticommunisme et collectivisme forcené.
Ce ne sont pas des marqueurs psychologiques mais bel et bien des marqueurs politique historiques et tactiques récent de dédiabolisation qui résonnent pas mal.
C’est exactement ce que quelqu’un d’extrême droite dirait. (je sais pas si il faut voir de l’ironie dans la phrase précédente, sans doute pas, on pourrait reprendre chaque phrase et tenter d’expliquer pourquoi l’extrême droite aurait une raison de dire ça par exemple.)
La BRAV-M est souvent comparée aux voltigeurs, donc le fait que la brigade précédente ait été dissoute pour violence est pertinent dans ce contexte. La différence est qu’à l’époque ils avaient des bâtons plus longs que des tonfas et pouvaient frapper en roulant. Mais le rôle tactique est le même. Un rappel historique n’est donc pas forcément superflu.
Google conserve les données des autres quand ça l’arrange et pas les siennes quand a l’arrange pas, c’est parfaitement symétrique et non contradictoire :p
Tu avais donc un doute sur le but recherché par les applications de ces recherches ? Ben c’est facile, faire de l’argent par tous les moyens possibles :)
Mais en fait il y a pas de mystère sur les applications de chatGPT, au moins l’application immédiate. Il s’agit de faire un chatbot qui a un savoir universel. On connait les risques immédiats rien qu’à savoir comment ça marche, ça avale des textes dans tous les domaines de diverses sources. On a anticipé divers risques avant même que chatGPT existe, au point qu’ils se sont sentis obligés d’afficher qu’ils allaient faire les choses de manière ouverte et éthique. Et sans surprise, quand l’argent arrive, on recule sur ces points …
On a pas grand chose qui force les acteurs économiques à être éthiques dans un monde ou on cherche l’efficacité financière à tout prix, quoi que ça veuille dire.
Je dis pas que cette tribune est la bonne, mais quand on se retrouve avec des technos de fait contrôlées par des oligopôles comme les Gafams qui sont en pratique super dur à bouger une fois installés : https://www.cnbc.com/2023/03/28/google-not-preserving-chats-in-epic-case-merits-sanctions-judge-says-.html et très puissante du fait de l’intérêt comme les techniques d’IA, et qui sont un peu les seules, de fait, à pouvoir autoréguler en fonction de leur intérêt par exemple l’éthique de leurs algos … "Don’t be evil". Jusqu’au moment ou on est puissant et que les intérêts financiers en jeu prennent le pas.
Ben oui on a légitimité à se poser des questions. Mais ce n’est que mon avis.
Une technologie ayant pour vocation d’être appliquée, par définition il me semble, ça me parait spécieux de vouloir faire une différence stricte entre la techno et son usage. La techno n’aurait pas de sens sans usage, on l’imagine avec des usages en tête.
Si on veut faire une différence, on peut plus se tourner vers la notion de science. Le savoir est plus facilement distinguable des applications parce qu’on peut vouloir comprendre rien que pour comprendre.
La technologie n’est pas neutre, c’est effectivement un argument souvent employé pour justifier qu’il faut aller dans toutes les directions : il y a potentiellement un bon usage de tout. Pour autant, les risques associés sont potentiellement très grands. On peut par exemple penser à l’augmentation de fonction des pathogènes dans les labos de recherches et des risques d’échappements, qu’il n’est pas du tout illégitime de discuter avant de financer.
Cette question a une longue histoire, on peut probablement en troller longtemps en restant dans des positions caricaturales qui sont malheureusement trop populaires et probablement en pratique finalement pas si appliquées …
Aussi il serait non pas pertinent de bloquer ce qui peut améliorer notre quotidien, mais essayer d'amener la paix et l'acceptation dans le monde (et pas par les armes)
D’où l’intérêt d’analyser le bénéfice et le risque des technos, et c’est aussi une question politique sachant qu’on aura pas tous la même opinion sur ce qui améliore notre quotidien. On sait que laisser ça au seul marché n’est pas nécessairement pertinent, le marché non régulé aura tendance à exploiter les faiblesses de l’esprit humain à son profit sans nécessairement améliorer le quotidien de tous.
Qu’une nation le fasse c’est pas pareil que l’humanité en entier qui se jette à corps perdu dans l’aventure.
Et les choses de l’humanité sont pas nécessairement si constantes : pendant un temps on avait une course aux armements entre l’allemagne et les états-unis, c’est plus vraiment le cas aujourd’hui. Il y a des directions de conflictualité mais aussi des directions d’apaisement.
Ce sera pas ChatGPT alors, ou alors va falloir aller faire la grève aux USA pour internationaliser (c’est comme nationaliser mais pour l’univers entier) OpenAI.
Au delà des signataires mis en avant, c’est un peu toujours les noms connus que la presse met en avant, et oui effectivement on peu soupçonner un peu d’opportunisme pour certains, ça n’enlève rien à l’opportunité de discuter sur des technos qui ont le potentiel de remplacer des graphistes ou d’alimenter des fermes à troll en contenu avec une qualité encore jamais atteinte.
Tu pourras facilement trouver des chercheurs spécialistes qui sont assez critiques, qui ne seront pas les derniers à disqualifier la société civile pour discuter.
Si jamais on demandait uniquement aux experts qui comprennent vraiment tout ce qui se passe par leur avis sur toute les technos à impact sociétal … Euh wait on sait pas reverse ingénierer ces modèles vraiment en profondeur pour comprendre toutes les subtilités de leur fonctionnement … conclusion : on a pas d’experts assez compétents, on ne peut donc que les laisser vivre leur vie sans critique.
Plus sérieusement, tout le monde sent confusément qu’il se passe quelque chose et que ça impacte de nombreuses professions, qu’il y a un potentiel encore pas exploité, et qu’en plus tout va très vite. L’avis des ingénieurs d’OpenAI, c’est donc le seul qui vaudrait puisque maintenant en plus les modèles sont fermés j’ai cru comprendre.
On a donc des technos très puissante qu’il faudrait laisser entre les mains de quelques personnes, sans critiques parce que tu comprends on sait pas de quoi on parle, on est pas assez intelligent pour comprendre, potentiellement pourquoi on pourrait perdre son boulot ?
Ça ne tient pas ton argumentation je pense. On en est pas là mais imaginons qu’on en arrive à une situation à la Skynet ou qu’on y risque. Ben … toi ici tu argumentes pour qu’on y arrive parce que c’est inévitable. Enfin je vois pas en quoi ton argument pourrait nous en sortir.
[^] # Re: Compétences en manipulation
Posté par Thomas Douillard . En réponse au journal [Lien++] Générer des images réalistes par IA, et comment elles deviennent impossibles à détecter. Évalué à 3.
La crédibilité et l'honnêteté de la source ont toujours été importante vu qu'il est improbable que tout le monde vérifie en profondeur toutes les informations dont on est abreuvés. En comparaison de l'époque du tsar on est dans de tous ordres de grandeurs dans la quantité d'infos, journalistiques, de gestion publique, journalistiques …
Mais … On a développé des protocoles de fiabilités, des techniques scientifiques exigeantes et profondes, avec aussi beaucoup d'incertitudes parce que souvent les scientifiques n'aiment pas conclure quand il reste des zones d'ombres. Le monde s'est aussi beaucoup complexifié techniquement, politiquement, avec des conflits à l'échelle de la planète désormais pour la maîtrise des ressources, absolument partout où on peut en récupérer.
Là on peut anticiper un changement d'échelle parce que la profondeur de la propagande peut changer. Des rapports avec des données entièrement bidonnées qui ont l'air crédibles, des protocoles sur le papier béton qui tromperaient un scientifique, qui passeraient n'importe quel peer review ? Pourquoi pas. Vas y pour montrer qu'il n'y a pas eu d'expérience, la science nécessite un minimum d'honnêteté quand bien même le principe c'est que tout doit être triple verifié … Les rapports d'expertise et des cabinets type mc Kinsey n'en parlons pas.
Il y a une histoire de chaîne de confiance de l'information transmise a creuser. Un journaliste est supposé avoir des sources, un scientifique les cité également et tous de tirer leurs info quelque part dans la réalité. La in va avoir la possibilité d'une réalité alternative tout aussi plausible et beaucoup plus travaillee, avec une chaîne de confiance alternative de plus en plus profonde ?
[^] # Re: Aristote, par pitié...
Posté par Thomas Douillard . En réponse au journal introduction pas trop chiante à la philosophie politique et morale. Évalué à 4.
Mais, euh, en 2023, pourquoi ? C’est juste pour troller ou il y a vraiment des domaines ou il est pris en véritable référence autrement que pour retracer l’historique ?
Par exemple, les scientifiques dans leur pratique ne le citent absolument jamais à part les historiens de ci ou ça probablement … Les non scientifiques ou universitaire, euh, l’influence concrète dans la vie quotidienne ou spirituelle doit être proche du néant, donc … pourquoi dépenser de l’énergie à ça ?
[^] # Re: Pas étonnant
Posté par Thomas Douillard . En réponse au lien La vidéosurveillance « intelligente » sera finalement expérimentée jusqu’à six mois après les JO. Évalué à 2.
C’est l’intérêt du test du canard justement : « Si ça ressemble à un canard, si ça nage comme un canard et si ça cancane comme un canard, c'est qu'il s'agit sans doute d'un canard. »
Après évidemment il peut y avoir des caractéristiques autres que la nage, l’aspect ou le cri …
[^] # Re: Pas étonnant
Posté par Thomas Douillard . En réponse au lien La vidéosurveillance « intelligente » sera finalement expérimentée jusqu’à six mois après les JO. Évalué à 3.
Genre … combattre la tentative de banalisation de l’extrême droite ? C’est pas une histoire de psy. Ici il y a une tentative de tout mettre à même niveau, l’extrême droite comme le reste, une critique du monde associatif en sous entendant que tout le monde et pareil et finalement tout le monde ne fait que poursuivre son intérêt personnel et une critique du gauchisme qui n’est pas exclusive à l’extrême droite mais qui résonne avec son anticommunisme et collectivisme forcené.
Ce ne sont pas des marqueurs psychologiques mais bel et bien des marqueurs politique historiques et tactiques récent de dédiabolisation qui résonnent pas mal.
[^] # Re: Pas étonnant
Posté par Thomas Douillard . En réponse au lien La vidéosurveillance « intelligente » sera finalement expérimentée jusqu’à six mois après les JO. Évalué à 2.
C’est exactement ce que quelqu’un d’extrême droite dirait. (je sais pas si il faut voir de l’ironie dans la phrase précédente, sans doute pas, on pourrait reprendre chaque phrase et tenter d’expliquer pourquoi l’extrême droite aurait une raison de dire ça par exemple.)
[^] # Re: Le mépris du peuple comme ligne ~~politique~~ anti-politique ?
Posté par Thomas Douillard . En réponse au lien Fin de non-recevoir de la pétition demandant la dissolution de la BRAV-M. Évalué à 10.
La BRAV-M est souvent comparée aux voltigeurs, donc le fait que la brigade précédente ait été dissoute pour violence est pertinent dans ce contexte. La différence est qu’à l’époque ils avaient des bâtons plus longs que des tonfas et pouvaient frapper en roulant. Mais le rôle tactique est le même. Un rappel historique n’est donc pas forcément superflu.
[^] # Re: Le mépris du peuple comme ligne ~~politique~~ anti-politique ?
Posté par Thomas Douillard . En réponse au lien Fin de non-recevoir de la pétition demandant la dissolution de la BRAV-M. Évalué à 5.
s/apolitique/apartisane/ ?
[^] # Re: cURL ?
Posté par Thomas Douillard . En réponse au lien Mozilla a 25 ans. Évalué à 2.
Est-ce que l’un ou l’une des deux a voyagé à vitesse relativiste dans le cosmos ?
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 5.
Google conserve les données des autres quand ça l’arrange et pas les siennes quand a l’arrange pas, c’est parfaitement symétrique et non contradictoire :p
# lien à corriger
Posté par Thomas Douillard . En réponse au lien Des mouchards dans les jeux mobiles. Évalué à 5.
il manque un s : https://lejournal.cnrs.fr/articles/des-mouchards-dans-les-jeux-mobiles
[^] # Re: Principe de précaution
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 2.
Tu avais donc un doute sur le but recherché par les applications de ces recherches ? Ben c’est facile, faire de l’argent par tous les moyens possibles :)
Mais en fait il y a pas de mystère sur les applications de chatGPT, au moins l’application immédiate. Il s’agit de faire un chatbot qui a un savoir universel. On connait les risques immédiats rien qu’à savoir comment ça marche, ça avale des textes dans tous les domaines de diverses sources. On a anticipé divers risques avant même que chatGPT existe, au point qu’ils se sont sentis obligés d’afficher qu’ils allaient faire les choses de manière ouverte et éthique. Et sans surprise, quand l’argent arrive, on recule sur ces points …
[^] # Re: Principe de précaution
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 3.
On a pas grand chose qui force les acteurs économiques à être éthiques dans un monde ou on cherche l’efficacité financière à tout prix, quoi que ça veuille dire.
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 5.
Je dis pas que cette tribune est la bonne, mais quand on se retrouve avec des technos de fait contrôlées par des oligopôles comme les Gafams qui sont en pratique super dur à bouger une fois installés : https://www.cnbc.com/2023/03/28/google-not-preserving-chats-in-epic-case-merits-sanctions-judge-says-.html et très puissante du fait de l’intérêt comme les techniques d’IA, et qui sont un peu les seules, de fait, à pouvoir autoréguler en fonction de leur intérêt par exemple l’éthique de leurs algos … "Don’t be evil". Jusqu’au moment ou on est puissant et que les intérêts financiers en jeu prennent le pas.
Ben oui on a légitimité à se poser des questions. Mais ce n’est que mon avis.
[^] # Re: Principe de précaution
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 3.
Une technologie ayant pour vocation d’être appliquée, par définition il me semble, ça me parait spécieux de vouloir faire une différence stricte entre la techno et son usage. La techno n’aurait pas de sens sans usage, on l’imagine avec des usages en tête.
Si on veut faire une différence, on peut plus se tourner vers la notion de science. Le savoir est plus facilement distinguable des applications parce qu’on peut vouloir comprendre rien que pour comprendre.
[^] # Re: Principe de précaution
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 2.
La technologie n’est pas neutre, c’est effectivement un argument souvent employé pour justifier qu’il faut aller dans toutes les directions : il y a potentiellement un bon usage de tout. Pour autant, les risques associés sont potentiellement très grands. On peut par exemple penser à l’augmentation de fonction des pathogènes dans les labos de recherches et des risques d’échappements, qu’il n’est pas du tout illégitime de discuter avant de financer.
Cette question a une longue histoire, on peut probablement en troller longtemps en restant dans des positions caricaturales qui sont malheureusement trop populaires et probablement en pratique finalement pas si appliquées …
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 3.
Je suis très content que l’usage civil des armes à feu soit limité en Europe comparé aux USA.
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 4. Dernière modification le 31 mars 2023 à 11:26.
D’où l’intérêt d’analyser le bénéfice et le risque des technos, et c’est aussi une question politique sachant qu’on aura pas tous la même opinion sur ce qui améliore notre quotidien. On sait que laisser ça au seul marché n’est pas nécessairement pertinent, le marché non régulé aura tendance à exploiter les faiblesses de l’esprit humain à son profit sans nécessairement améliorer le quotidien de tous.
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 2.
Qu’une nation le fasse c’est pas pareil que l’humanité en entier qui se jette à corps perdu dans l’aventure.
Et les choses de l’humanité sont pas nécessairement si constantes : pendant un temps on avait une course aux armements entre l’allemagne et les états-unis, c’est plus vraiment le cas aujourd’hui. Il y a des directions de conflictualité mais aussi des directions d’apaisement.
[^] # Re: euh...
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 4.
Je faisais référence au Groupe_Wagner et aux fermes à troll russes, dont l’utilité pour l’humanité est, on va dire, pire que discutable.
[^] # Re: La réflexion va plus loin
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 4.
Ce sera pas ChatGPT alors, ou alors va falloir aller faire la grève aux USA pour internationaliser (c’est comme nationaliser mais pour l’univers entier) OpenAI.
[^] # Re: euh...
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 4.
C’est vrai que c’est ultra pénible comme boulot de générer du contenu trollesque quand tu bosses pour Wagner, c’est un boulot à automatiser.
[^] # Re: euh...
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 6.
Au delà des signataires mis en avant, c’est un peu toujours les noms connus que la presse met en avant, et oui effectivement on peu soupçonner un peu d’opportunisme pour certains, ça n’enlève rien à l’opportunité de discuter sur des technos qui ont le potentiel de remplacer des graphistes ou d’alimenter des fermes à troll en contenu avec une qualité encore jamais atteinte.
Tu pourras facilement trouver des chercheurs spécialistes qui sont assez critiques, qui ne seront pas les derniers à disqualifier la société civile pour discuter.
[^] # Re: euh...
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 9.
Si jamais on demandait uniquement aux experts qui comprennent vraiment tout ce qui se passe par leur avis sur toute les technos à impact sociétal … Euh wait on sait pas reverse ingénierer ces modèles vraiment en profondeur pour comprendre toutes les subtilités de leur fonctionnement … conclusion : on a pas d’experts assez compétents, on ne peut donc que les laisser vivre leur vie sans critique.
Plus sérieusement, tout le monde sent confusément qu’il se passe quelque chose et que ça impacte de nombreuses professions, qu’il y a un potentiel encore pas exploité, et qu’en plus tout va très vite. L’avis des ingénieurs d’OpenAI, c’est donc le seul qui vaudrait puisque maintenant en plus les modèles sont fermés j’ai cru comprendre.
On a donc des technos très puissante qu’il faudrait laisser entre les mains de quelques personnes, sans critiques parce que tu comprends on sait pas de quoi on parle, on est pas assez intelligent pour comprendre, potentiellement pourquoi on pourrait perdre son boulot ?
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . En réponse au lien Quand les experts sonnent l’alarme face aux progrès de l’Intelligence artificielle. Évalué à 2.
Ça ne tient pas ton argumentation je pense. On en est pas là mais imaginons qu’on en arrive à une situation à la Skynet ou qu’on y risque. Ben … toi ici tu argumentes pour qu’on y arrive parce que c’est inévitable. Enfin je vois pas en quoi ton argument pourrait nous en sortir.
[^] # Re: aucune surprise..
Posté par Thomas Douillard . En réponse au journal Pays innovants : la Chine loin devant, les occidentaux largués. Évalué à 7.
La course … on sait qu’il y a une course. Pour aller ou par contre, il y a moins de monde pour théoriser.