Attention aux paramètres de tracking dans l'URL. Tout ça peut être (devrait être ?) supprimé : ?utm_medium=Social&utm_source=Twitter&Echobox=1676654452
Which browsers block important known tracking cookies?
Google Analytics : Chrome bloque, Edge ne bloque pas
Bing Ads : Les 2 bloquent
DoubleClick (pubs Google) : Les 2 bloquent
Donc si je comprends bien, le navigateur de Google bloque les cookies de Microsoft et de Google (analytics & pubs) alors que celui de Microsoft laisse passer ceux de Google (analytics, pas les pubs) mais bloque les pubs de Bing !? Quelque chose m'échappe. Et quand on fait défiler rapidement il semblerait que Edge soit vraiment une passoire… bien pire que Chrome sur lequel il est basé.
Alors, les femmes peuvent-elles être sexistes?
Alors, des femmes font-elles partie du problème ou sont-elles toutes pures à défendre quoi qu'elles fassent?
Trouve moi une seule femme qui dirait qu'aucune femme n'est sexiste ou que le patriarcat n'influence pas aussi le comportement des femmes… Cette position est absurde.
On aurait presque pu titrer le lien "pourquoi moi, femme adulte féministe, je fais partie du problème".
Mais c'est exactement ce qu'elle voulait dire… Elle démontrait que elle, femme et féministe, avait intégré et pouvait reproduire cette discrimination. Comme précédemment avec les noirs tu sembles ne pas comprendre que les victimes reproduisent souvent ces schémas négatifs, et surtout qu'on en est conscients ! Ce qui compte c'est l'après… Les femmes sexistes, les noirs racistes (y compris envers les noirs) qui réalisent et tâchent de renverser la vapeur. Avec des ratés, forcément.
/etc/resolv.conf (ou on peut au moins choisir par qui on est espionné)
C'est considérer que toutes requêtes DNS est de l'espionnage.
Tu t'emballes… Je pense que ça n'était qu'une figure de style pour coller au reste du commentaire. Il faut lire "choisir avec qui on communique". Et je suis assez surpris de la liste des paquets qui font ce choix à ma place… Genre tu installes GNUnet"un réseau informatique pair à pair garantissant l'anonymat, n'utilisant aucun service centralisé ou autre service de confiance." et par défaut il communique avec les DNS de Google en ignorant ceux que tu as soigneusement paramétrés !?
Trop de profs de philo sont imbus d'eux même et notent selon 'leur' barème; il y'a un vrai problème dans la notation
Je plussoie, vu que ça a joué en ma faveur. Je n'étais pas un mauvais élève mais je fuyais tout ce qu'il fallait apprendre par coeur. Nul en Histoire-Géo, SVT, &co (oui j'étais jeune et sot, je regrette amèrement et aujourd'hui je m'enfile les docus d'histoire). Donc pour la philo j'ai fait pareil : rien. Et ça marchait super bien… Mon prof était un original pas peigné qui se promenait nu-pieds dans le lycée et visiblement ma prose lui plaisait, j'ai toujours eu la moyenne. Et ça a aussi marché au bac. J'étais un lecteur avide, ça a sûrement aidé m'enfin je suis bien incapable de me rappeler d'un concept appris en cours de philo.
L'objet de cette intervention consiste donc clairement à discréditer les sanctions infligées à la Russie.
Allez expliquer aux complotistes que non, les infos des chaînes nationales ne sont pas pilotées par des agents extérieurs (surtout que la boîte est Israélienne… la cerise sur le gâteau) et qu'elles ne sont pas moins fiables que nouvelordremondial.blogobscur.com
Donc le créateur du site qui ne poste à peu près jamais (il est visiblement resté sans poster de 2015 à 2021) aurait définitivement perdu son compte ? Lui et bien d'autres qui viennent épisodiquement… Je fais de même sur certains forums encore actifs que je fréquentais assidûment par le passé et sur lesquels je retourne à l'occasion mais je peux laisser passer 4 ans y toucher (ou plutôt sans me connecter, même si je visite hors connexion).
Je comprends l'impératif (RGPD tout ça…) mais j'ai l'impression qu'on va perdre des moules historiques.
Les marchés ne sont pas forcément très malins. Mais ça peut montrer que l'entreprise perd pied dans l'innovation ou des domaines. Ça peut montrer une désorganisation interne. Ça peut être les prémices d'une chute à la Nokia. Ça peut être simplement le signe que Google accuse des mois de retard et qu'il vaut mieux placer son argent ailleurs le temps que ça aille mieux.
Surtout dans l'ambiance d'inversion de pôles actuelle, on lit que ChatGPT va remplacer Google (vrai ou pas), que Bing va intégrer GPT-4 et dépasser Google (vrai ou pas), même Satya Nadella y va de son annonce :“From now on, the [gross margin] of search is going to drop forever[…] There is such margin in search, which for us is incremental. For Google it’s not, they have to defend it all” he added, referring to the competition against Google as “asymmetric”
Bluff ou pas elle a été entendue. Et dans cette ambiance, Google lance sa démo pour montrer que lui aussi sait faire un chatbot cool mais ça fait plouf. Ça ne me paraît pas extraordinaire qu'un nombre suffisant se soit dit qu'il valait mieux placer ses billes ailleurs. Et de fait, les 08 & 09 février, l'action Microsoft est montée en même temps que celle de Google chutait.
Ben j'aimerai bien savoir, car on passe de "OpenStreetMap is in trouble" à …
Le titre reste valide. La question de la licence est à débattre (et c'est exactement ce qu'il dit dans la footnote 11. Il se demande comment ça se passerait au tribunal) mais pour le reste, l'action de Microsoft, bien que légale pourrait mettre OpenStreetMap en danger. Un éventuel fork par un acteur aussi gros que Microsoft est un danger pour la communauté OSM, c'est factuel. Le EEE est quand même largement documenté.
[EDIT] Par contre je ne sais pas comment il pourrait justifier de "cutting off mapbuilder from the API"
C’est le côté performatif des sondages : ils rendraient vrai ce qu’ils annoncent
C'est à peu près ce que tu voulais dire il me semble (mais il manque la notion de boucle). Concernant l'étymologie, on trouve quantité d'exemples antérieurs à 1980 dans GoogleBooks/Scholar. Ça a été un anglicisme mais aujourd'hui je crois qu'on peut dire que c'est français. Auto-réalisateur a le mérite d'être intuitif mais ce n'est vraiment pas joli (contrairement à son féminin souvent accolé à "prophétie" !)
Il y a exactement 2 cas dans lesquels j'utilise du cash : pour le SDF de ma station de métro et pour la tirelire de mon fils (la petite souris, pour lui faire acheter sa sucrerie lui-même et compter la monnaie rendue, …). Et un 3e qui m'arrive occasionnellement : quand j'ai oublié ma CB. {Apple,Google}Pay ça marche mais là c'est de la réactance. Pas envie de leur fournir (en plus de tout ce qu'ils possèdent déjà) ma liste de course. Donc j'utilise les moyens électronique dans 99% des cas, c'est très pratique, je suis à fond pour.
Mais au final la vraie question pour moi serait plutôt "Pourquoi supprimer le cash ?" Qu'est-ce qui empêche de conserver les 2 ? Les moyens dématérialisés vont se multiplier inexorablement, tout paiement important en cash sera suspect donc ça met déjà des bâtons dans les roues des blanchisseurs et autres tricheurs. Et ça sans gêner les quelques cas à la marge où le cash resterait utile. Sans compter que le cash rapporte aussi de l'argent à l'état !
"Une pièce de 2 euros a un coût de fabrication de 17 centimes : c’est le prix auquel nous (Monnaie de Paris) la vendons à l’Etat. Celui-ci revend cette pièce 2 euros aux banques et encaisse donc 1,83 euro de bénéfices. Multiplié par le nombre de pièces, cela représente plusieurs dizaines de millions d’euros de recettes par an pour l’Etat, indolores pour les contribuables."
Les grands journaux ont compris depuis un certain temps que la méthode javascript était inutile une fois que le contenu complet est envoyé au navigateur. LeMonde gère son paywall côté serveur et n'envoie qu'un morceau de l'article. Ça serait très étonnant que Wallabag en récupère la totalité sans une authentification quelconque. Peut-être qu'il laisse l'accès libre aux robots des moteurs de recherche et Wallabag doit être considéré comme tel. Sinon certains articles sont accessibles avec un referer particulier (genre de puis Google News) et bloqué avec un autre (résultat de recherche). Ça pourrait aussi venir de là.
Tu as choisi ton mode de vie, tu évites les employeurs nocifs, les supermarchés, les outils qui pourraient être dommageable au reste de la société. J'en suis juste à éviter les plus méchants avec ce que m'offre le libre (et à le financer occasionnellement). Tu prends des mesures et moi des mesurettes donc bravo sincère et j'espère que le monde que tu veux voir est encore possible.
En lisant cette réponse et un échange précédent que nous avions eu au sujet des darks patterns, je crois que je suis juste désabusé. Limite cynique. J'aime mes données et le libre donc je n'abreuve ni Facebook ni Google (enfin lui j'essaye mais il est omniprésent…) mais je pratique parfois le doomscrolling sur Twitter. L'élection de Trump, Cambridge Analytica, suivis de la pandémie, nous ont montré à quel point les contenus débiles/nocifs étaient lus et partagés. L'effet que ça avait déjà sur nos vies. Et dans cet océan de déchets, d'éventuels articles médiocres écrits par une IA ne seront pour moi qu'une goutte de plus. Les humains le font déjà si bien…
On tourne en rond. Oui c'est à fuir si on compte l'utiliser comme un Oracle infaillible. Et quelque soit la réponse qu'il te donnera, un code ça se teste.
C'est le principe qui est comparable. Copier-coller quelque chose que tu n'as pas compris. À partir de là, quelque soit la source, c'est mauvais. Et la responsabilité incombe au copieur.
En tant que visiteur du web on peut craindre une baisse de qualité, que ce qu'on cherche (ou ce qu'on veut diffuser) soit noyé dans la masse d’œuvres générées automatiquement
Comme dit plus haut, pour moi c'est "Un outil comme un jq augmenté d'un Clippy beaucoup plus performant.". C'est à dire que je ne l'utilise pas pour la production d'oeuvre. Ni graphiques, ni écrites. Sur ce point je ne suis pas loin d'être d'accord (cf. ma phrase sur "Des articles de presse entièrement rédigés par ChatGPT.")
Maintenant, n'avons nous pas déjà appris à naviguer entre les torrents de vidéos mensongères, les blogs obscurs, les journaux sensationnalistes, les articles de fake-science à la France-Soir,… L'océan dont tu parles est déjà là mais on sait (à peu près) où trouver les infos qui comptent. Je ne suis pas sûr que des trucs générés automatiquement y changeront grand chose.
le résultat est largement disponible sur la toile mais il a fallu que ça tape largement à côté.
Si tu parles de 1+1 il me semble qu'il a répondu correctement. Ensuite c'est l'algo de "Reinforcement Learning from Human Feedback" qui provoque l'erreur (sycophancy bias, les gens qui bossent dessus connaissent le soucis et la recherche continue). Mais dans tous les cas on est d'accord que ces modèles sont expérimentaux hein. Vu que j'ai appris l'expression aujourd'hui il semblerait que tu joues à la "négation polémique" avec ton "se fier à ça pour son code de production". Je re-re-reprends l'exemple de StackOverflow, qui colle en production du code copié sur le net ? Faut arrêter avec ce fantasme ou alors me trouver qqun qui aurait dit que ChatGPT savait tout résoudre. C'est suffisant pour le besoin, parfois ça ne l'est pas et charge à l'utilisateur de le tester/comprendre.
Peut-on éviter s'il te plaît les attaques personnelles?
Alors milles excuses. Je ne l'ai pas écrit comme une attaque. Quand je dis "tu nous prends pour des cons" ça rejoint "vous courez droit au mur." Note que je ne t'ai qualifié de rien du tout mais bon ouais le ton est peut-être un peu sec. Sûrement parce qu'on lit de tout sur ce sujet, entre les adorateurs de l'IA et ceux qui annoncent la fin du monde. Et puis c'est un peu lourd de (re)lire qu'on a rien compris à son fonctionnement. Ce que je veux c'est prendre une position plus mesurée. Juste la question pratique (je ne me suis pas exprimé sur les dangers sociétaux). Je baisse sur la pression.
je comprends pas pourquoi tu sembles le prendre personnellement.
Bah tu me cites en disant "C'est une course à la médiocrité" (entre autres) donc ouais je l'ai un peu pris pour moi. M'enfin rien de grave.
Pourquoi me faire peur? Encore une fois, tu essaies de personnaliser la discussion. Je soulève des problèmes de société.
Justement je ne parlais pas des problèmes de société. J'ai voulu rester uniquement sur la question technique car je ne suis pas très à l'aise sur le sujet, c'est vachement flou et incertain. Tu dis "On aura toujours besoin de graphistes, illustrateurs, développeurs, écrivains et chroniqueurs… Mais on essaie de faire croire artificiellement à une forme d'inutilité." Si on en aura toujours besoin (et je suis d'accord sur ce point) qui croira à l'inutilité puisqu'il faudra bien embaucher ces développeurs ? Si ChatGPT est si mauvais, nous n'avons pas grand chose à craindre puisque sa production sera aussi mauvaise que lui et on embauchera des humains pour faire des choses de qualité. C'est comme les outils no-code qui devaient remplacer les devs… Je ne me sens pas menacé le moins du monde. Je vois bien par contre les soucis d'exploitation de la production d'auteurs qui n'ont pas donné leur accord pour entraîner ces trucs.
En fait j'ai l'impression que tu as des inquiétudes possiblement légitimes (problèmes de droits, problèmes d'emploi…) mais que c'est mélangé avec des choses annexes et infondées (je dis "tu" parce que je réponds à tes messages mais là encore ce n'est pas une attaque ! Ou alors une attaque de l'argumentation.) Par exemple le fait qu'il ne sache pas calculer, ou qu'il produise des textes sans saveur je ne vois pas en quoi ça nous mène "dans le mur". Les personnes qui l'utilisent pour autre chose que pour s'amuser le font en gardant les failles à l'esprit, comme tout développeur sait qu'il ne faut pas copier-coller un bout de code de StackOverflow si on ne l'a pas compris. Quand je lui demande de me trier des données, le mur me paraît assez éloigné. Des articles de presse entièrement rédigés par ChatGPT, là ouais on pourrait commencer à s'inquiéter mais vu les performances, ça se verrait assez vite. Sans compter que la production de qualité médiocre n'a jamais menacé les productions de qualité, que ça soit dans les arts ou la presse, il y a de la place pour les tabloïds et pour le journalisme d'investigation. Les clients feront le tri. Au final les critiques légitimes sur la qualité jurent avec l'inquiétude qu'on va droit dans le mur. Mais c'est peut-être parce que tu le vois du côté artistique et que je ne le considère que du côté pratique… Un outil comme un jq augmenté d'un Clippy beaucoup plus performant.
bot qui répond mal à des calculs mathématiques niveau primaire. Et on veut lui faire expliquer du code complexe?
C'est drôle parce que tu hurles que "les gens" n'ont pas compris comment ça fonctionne mais cette seule phrase montre que tu n'as pas vraiment compris non plus… Qu'un modèle de langage ne fasse pas de calcul ça ne devrait surprendre personne. C'est normal, quand on a compris comment ça fonctionne. Afficher de la documentation par contre, ça rentre plus dans la catégorie "langage". Donc oui lui faire afficher une succession de passages de documentation c'est carrément indiqué. Je veux bien que tu me montres la faille ici
Sérieusement, si quiconque se sert de ChatGPT pour se faire expliquer du code, vous courez droit au mur.
Comme tu me réponds sous un autre commentaire, je reprends ici… Je crois qu'encore une fois tu prends les mots au pied de la lettre(ou alors tu nous prends pour des cons). Voilà un exemple pratique de ce que j'entends par "expliquer du code" : https://linuxfr.org/users/octane/journaux/mon-avis-sur-chatgpt#comment-1913116 Ça se résume à dérouler le script et compiler les parties de la documentation qui conviennent. Mashup comme tu dis. Sans avoir à fouiller individuellement la manpage de chaque commande. Et pour l'utiliser quotidiennement, je suis au courant qu'il lui arrive de se tromper mais personne (vraiment personne) n'a dit que ChatGPT était devenu son mentor et qu'on faisait confiance à tout ce qu'il affiche. J'insiste mais je t'assure que personne n'est aussi bête et de toutes les façons quiconque le ferait se rendrait immédiatement compte qu'il y a des failles régulières. Par contre, oui il peut faire gagner du temps.
Il faut que les gens comprennent ça et arrêtent d'écouter ce bot comme une sorte de prophète qui comprend tout!
Il y a tout juste une semaine je disais mot pour mot "il faut connaître les limites de l'outil et cesser de l'utiliser comme un oracle qui peut nous apporter la réponse à la Vie l'Univers et tout le reste". On est d'accord que c'est la même chose que tu dis là ? Donc nous sommes d'accord.
Pour tout le reste de ton commentaire je comprends les inquiétudes (ubérisation, problèmes sociaux, …) mais c'est orthogonal à la critique de l'utilité du bouzin. Concernant DALL-E je n'en vois pas encore l'utilité à part s'amuser quelques minutes donc je n'ai rien à en dire. Mais pour ChatGPT il faut comprendre que des personnes pas complètement débiles l'ont utilisé plusieurs fois et sont conscients des failles. Et que tu joues à te faire peur avec le dev qui va copier-coller une réponse de ChatGPT pour la pousser en production. On peut faire le choix de ne s'intéresser qu'à ses manquements ou alors tester pour constater que bien que n'étant qu'un T9 évolué, on peut lui faire fournir des réponses utiles. Exactement comme on le ferait avec une réponse de StackOverflow.
Pour parler de ce que je connais, bien des noirs sont plus racistes envers les noirs qu'envers les blancs. Ont une déférence envers les blancs qu'ils n'ont pas avec leurs collègues noirs. Et tout ça remonte au phénomène de "peau sauvée" : plus ta peau était claire plus tu montais dans l'échelle sociale. Noir < Chabin < Mulâtre < Béké < Français. Pour qui a vécu aux Antilles, ces distinctions sont flagrantes, prégnantes, et sont une grille de lecture nécessaire pour comprendre cette société métissée. C'est ce qu'on appelle ailleurs le colorisme. Une représentation célèbre du phénomène est La Rédemption de Cham.
Oui les noirs ont "absorbé" les discriminations apprisent des blancs. La hiérarchie et les violences policières n'y échappent pas. On appréciera la vitesse à laquelle les coupables ont été écartés, pointés par le FBI, lâchés par les syndicats. Du jamais vu et c'est tant mieux ! L'excuse du "il nous faut 6 mois d'enquête pour déterminer si c'était bien un meurtre" a du plomb dans l'aile (pun intended). Ça n'a sûrement rien à voir avec le fait qu'ils sont noirs comme leur victime ?
sûrement parce que vous vous faites avoir par l'idée que ces logiciels sont "intelligents". Non ils ne le sont pas. Ces systèmes logiciels "n'apprennent" pas réellement, ils ne comprennent pas ce qu'ils font
J'ai l'impression que tu prends un peu les gens pour des cons. Je pense que tout le monde (au moins sur LinuxFr…) comprend le sens des expressions "algorithme", "modèle" ou "données d'entraînement." Et que les modèles de ces IA ne sont pas mis à "comprendre" le langage naturel pour "réfléchir" à la question posée. Il y a un contexte dans l'utilisation des mots. Ici, "comprendre" serait plutôt "traduire pour utiliser", un peu comme un compilo qui comprend ton code haut niveau pour le traduire en langage machine. Et dans ce contexte, ils comprennent puisqu'on obtient bien en sortie quelque chose correspondant à la demande en langage naturel (modulo les ratés (ChatGPT) ou la faible qualité (Dall-E)). La question du droit d'auteur est primordiale et ce genre d'études qui pointent les failles feront que les modèles seront améliorés pour ne pas recracher de manière basique les données d'entraînement.
Il faut aussi garder à l'esprit que ces trucs sont très jeunes. Il y a 1 an on ne s'attendait pas à pouvoir se faire expliquer du code ou rédiger un article (insipide mais ce n'est pas la question) par un chatbot. Je ne suis pas de ceux qui prédisent une Intelligence Artificielle Forte pour bientôt (ni même de notre vivant je pense) mais on aurait tort de penser qu'on a atteint là le maximum des possibilités de ces modèles. Tiens d'ailleurs OpenAI vient de sortir un modèle servant à distinguer un texte rédigé par une IA d'un texte rédigé par un humain. Là encore personne n'est dupe, ça va surtout servir à entraîner ChatGPT à mieux masquer son IAttitude…
Le mot important du titre c'est "britanniques", vu que c'est un article du Guardian. On s'attend peut-être plus à ce que ces sociétés soient domiciliées au Panama ou aux Seychelles.
Un ingénieur de Californie […] a déclaré que le statut britannique leur conférait une "crédibilité factice".
"Vous pensez que vous aurez un moyen de les poursuivre s'ils vous prennent tout votre argent", dit-il. "Si cette société avait été enregistrée en Chine, je ne lui aurais pas fait confiance. Tout simplement pas."
# Attention à l'URL
Posté par Faya . En réponse au lien Antarctique - La superficie de la banquise du pôle Sud n’a jamais été aussi petite . Évalué à 8.
Attention aux paramètres de tracking dans l'URL. Tout ça peut être (devrait être ?) supprimé :
?utm_medium=Social&utm_source=Twitter&Echobox=1676654452# Google vs Microsoft
Posté par Faya . En réponse au lien Open-source tests of web browser privacy. Updated 2023-02-03. Évalué à 3.
Donc si je comprends bien, le navigateur de Google bloque les cookies de Microsoft et de Google (analytics & pubs) alors que celui de Microsoft laisse passer ceux de Google (analytics, pas les pubs) mais bloque les pubs de Bing !? Quelque chose m'échappe. Et quand on fait défiler rapidement il semblerait que Edge soit vraiment une passoire… bien pire que Chrome sur lequel il est basé.
[^] # Re: La science, justement
Posté par Faya . En réponse au lien Dès le plus jeune âge, implicitement, les filles sont exclues du domaine scientifique . Évalué à 3.
Trouve moi une seule femme qui dirait qu'aucune femme n'est sexiste ou que le patriarcat n'influence pas aussi le comportement des femmes… Cette position est absurde.
Mais c'est exactement ce qu'elle voulait dire… Elle démontrait que elle, femme et féministe, avait intégré et pouvait reproduire cette discrimination. Comme précédemment avec les noirs tu sembles ne pas comprendre que les victimes reproduisent souvent ces schémas négatifs, et surtout qu'on en est conscients ! Ce qui compte c'est l'après… Les femmes sexistes, les noirs racistes (y compris envers les noirs) qui réalisent et tâchent de renverser la vapeur. Avec des ratés, forcément.
[^] # Re: voire aussi
Posté par Faya . En réponse au lien La télémétrie sur la chaîne de compilation de Go sera activée par défaut. Évalué à 5.
Tu t'emballes… Je pense que ça n'était qu'une figure de style pour coller au reste du commentaire. Il faut lire "choisir avec qui on communique". Et je suis assez surpris de la liste des paquets qui font ce choix à ma place… Genre tu installes GNUnet "un réseau informatique pair à pair garantissant l'anonymat, n'utilisant aucun service centralisé ou autre service de confiance." et par défaut il communique avec les DNS de Google en ignorant ceux que tu as soigneusement paramétrés !?
[^] # Re: Cher' Nal
Posté par Faya . En réponse au journal [HS] Microsoft ♥ Linux - Episode VII "Cutting EDGE". Évalué à 4.
Je plussoie, vu que ça a joué en ma faveur. Je n'étais pas un mauvais élève mais je fuyais tout ce qu'il fallait apprendre par coeur. Nul en Histoire-Géo, SVT, &co (oui j'étais jeune et sot, je regrette amèrement et aujourd'hui je m'enfile les docus d'histoire). Donc pour la philo j'ai fait pareil : rien. Et ça marchait super bien… Mon prof était un original pas peigné qui se promenait nu-pieds dans le lycée et visiblement ma prose lui plaisait, j'ai toujours eu la moyenne. Et ça a aussi marché au bac. J'étais un lecteur avide, ça a sûrement aidé m'enfin je suis bien incapable de me rappeler d'un concept appris en cours de philo.
[^] # Re: teasing teasing
Posté par Faya . En réponse au lien "Story Killers", enquête de 100 journalistes révélant l’ampleur de l’industrie de la désinformation. Évalué à 5.
Un article de France Info sur le cas Rachid M’Barki :
https://www.francetvinfo.fr/monde/story-killers/soupcon-d-ingerence-a-bfmtv-derriere-le-cas-de-rachid-m-barki-l-enquete-story-killers-revele-le-role-d-une-agence-de-desinformation-israelienne_5659016.html
Allez expliquer aux complotistes que non, les infos des chaînes nationales ne sont pas pilotées par des agents extérieurs (surtout que la boîte est Israélienne… la cerise sur le gâteau) et qu'elles ne sont pas moins fiables que nouvelordremondial.blogobscur.com
[^] # Re: Comptes inactifs
Posté par Faya . En réponse à la dépêche Règles de pérennité des comptes LinuxFr.org et données à caractère personnel. Évalué à 10. Dernière modification le 14 février 2023 à 17:11.
Donc le créateur du site qui ne poste à peu près jamais (il est visiblement resté sans poster de 2015 à 2021) aurait définitivement perdu son compte ? Lui et bien d'autres qui viennent épisodiquement… Je fais de même sur certains forums encore actifs que je fréquentais assidûment par le passé et sur lesquels je retourne à l'occasion mais je peux laisser passer 4 ans y toucher (ou plutôt sans me connecter, même si je visite hors connexion).
Je comprends l'impératif (RGPD tout ça…) mais j'ai l'impression qu'on va perdre des moules historiques.
[^] # Re: La bourse ?
Posté par Faya . En réponse au lien Google Bard : l’IA se trompe et fait perdre 100 milliards de dollars à Google en bourse. Évalué à 4.
Surtout dans l'ambiance d'inversion de pôles actuelle, on lit que ChatGPT va remplacer Google (vrai ou pas), que Bing va intégrer GPT-4 et dépasser Google (vrai ou pas), même Satya Nadella y va de son annonce : “From now on, the [gross margin] of search is going to drop forever[…] There is such margin in search, which for us is incremental. For Google it’s not, they have to defend it all” he added, referring to the competition against Google as “asymmetric”
Bluff ou pas elle a été entendue. Et dans cette ambiance, Google lance sa démo pour montrer que lui aussi sait faire un chatbot cool mais ça fait plouf. Ça ne me paraît pas extraordinaire qu'un nombre suffisant se soit dit qu'il valait mieux placer ses billes ailleurs. Et de fait, les 08 & 09 février, l'action Microsoft est montée en même temps que celle de Google chutait.
# Sur le même sujet
Posté par Faya . En réponse au journal Openstreetmap et l’influence des licences sur la communauté. Évalué à 8.
Discussion sur ce même article ici : https://linuxfr.org/users/hellpe/liens/bing-map-builder-pose-probleme-a-la-communaute-openstreetmap
Mais ton journal fournit une traduction donc ça peut être utile
[^] # Re: Colocations
Posté par Faya . En réponse au journal Une idée pour fiancer les retraité.e.s. Évalué à 3.
Ça n'était qu'une tentative de jeux de mot sur les journaux précédents, mais fallait bien écrire quelque chose à part le titre !
[^] # Re: Pas compris
Posté par Faya . En réponse au lien Bing Map Builder pose problème à la communauté OpenStreetMap. Évalué à 7. Dernière modification le 07 février 2023 à 15:28.
Le titre reste valide. La question de la licence est à débattre (et c'est exactement ce qu'il dit dans la footnote 11. Il se demande comment ça se passerait au tribunal) mais pour le reste, l'action de Microsoft, bien que légale pourrait mettre OpenStreetMap en danger. Un éventuel fork par un acteur aussi gros que Microsoft est un danger pour la communauté OSM, c'est factuel. Le EEE est quand même largement documenté.
[EDIT] Par contre je ne sais pas comment il pourrait justifier de "cutting off mapbuilder from the API"
[^] # Re: TL;DR
Posté par Faya . En réponse au lien The Four Horsemen of the Tech Recession. Évalué à 5.
auto-performateur n'est peut-être pas correct, mais "performatif" pourrait suffire (même sans le
auto): https://fr.wiktionary.org/wiki/performatifC'est à peu près ce que tu voulais dire il me semble (mais il manque la notion de boucle). Concernant l'étymologie, on trouve quantité d'exemples antérieurs à 1980 dans GoogleBooks/Scholar. Ça a été un anglicisme mais aujourd'hui je crois qu'on peut dire que c'est français. Auto-réalisateur a le mérite d'être intuitif mais ce n'est vraiment pas joli (contrairement à son féminin souvent accolé à "prophétie" !)
[^] # Re: moi j'aime pas l'argent liquide
Posté par Faya . En réponse au lien Le Mouvement de liberté suisse demande à sanctuariser l’argent liquide - letemps.ch. Évalué à 6.
Il y a exactement 2 cas dans lesquels j'utilise du cash : pour le SDF de ma station de métro et pour la tirelire de mon fils (la petite souris, pour lui faire acheter sa sucrerie lui-même et compter la monnaie rendue, …). Et un 3e qui m'arrive occasionnellement : quand j'ai oublié ma CB. {Apple,Google}Pay ça marche mais là c'est de la réactance. Pas envie de leur fournir (en plus de tout ce qu'ils possèdent déjà) ma liste de course. Donc j'utilise les moyens électronique dans 99% des cas, c'est très pratique, je suis à fond pour.
Mais au final la vraie question pour moi serait plutôt "Pourquoi supprimer le cash ?" Qu'est-ce qui empêche de conserver les 2 ? Les moyens dématérialisés vont se multiplier inexorablement, tout paiement important en cash sera suspect donc ça met déjà des bâtons dans les roues des blanchisseurs et autres tricheurs. Et ça sans gêner les quelques cas à la marge où le cash resterait utile. Sans compter que le cash rapporte aussi de l'argent à l'état !
Bref pourquoi prendre une décision extrême. In medio stat virtus
[^] # Re: Question technique
Posté par Faya . En réponse à la dépêche wallabag.it a 6 ans. Évalué à 3.
Les grands journaux ont compris depuis un certain temps que la méthode javascript était inutile une fois que le contenu complet est envoyé au navigateur. LeMonde gère son paywall côté serveur et n'envoie qu'un morceau de l'article. Ça serait très étonnant que Wallabag en récupère la totalité sans une authentification quelconque. Peut-être qu'il laisse l'accès libre aux robots des moteurs de recherche et Wallabag doit être considéré comme tel. Sinon certains articles sont accessibles avec un referer particulier (genre de puis Google News) et bloqué avec un autre (résultat de recherche). Ça pourrait aussi venir de là.
[^] # Re: Pour ceux qui ressortent encore régulièrement que ces "AI" "créent" des images…
Posté par Faya . En réponse au lien "Extracting Training Data from Diffusion Models" - Stable Diffusion (et autres "AI") et copyright. Évalué à 4.
Tu as choisi ton mode de vie, tu évites les employeurs nocifs, les supermarchés, les outils qui pourraient être dommageable au reste de la société. J'en suis juste à éviter les plus méchants avec ce que m'offre le libre (et à le financer occasionnellement). Tu prends des mesures et moi des mesurettes donc bravo sincère et j'espère que le monde que tu veux voir est encore possible.
En lisant cette réponse et un échange précédent que nous avions eu au sujet des darks patterns, je crois que je suis juste désabusé. Limite cynique. J'aime mes données et le libre donc je n'abreuve ni Facebook ni Google (enfin lui j'essaye mais il est omniprésent…) mais je pratique parfois le doomscrolling sur Twitter. L'élection de Trump, Cambridge Analytica, suivis de la pandémie, nous ont montré à quel point les contenus débiles/nocifs étaient lus et partagés. L'effet que ça avait déjà sur nos vies. Et dans cet océan de déchets, d'éventuels articles médiocres écrits par une IA ne seront pour moi qu'une goutte de plus. Les humains le font déjà si bien…
[^] # Re: Pour ceux qui ressortent encore régulièrement que ces "AI" "créent" des images…
Posté par Faya . En réponse au lien "Extracting Training Data from Diffusion Models" - Stable Diffusion (et autres "AI") et copyright. Évalué à 2.
On tourne en rond. Oui c'est à fuir si on compte l'utiliser comme un Oracle infaillible. Et quelque soit la réponse qu'il te donnera, un code ça se teste.
[^] # Re: Pour ceux qui ressortent encore régulièrement que ces "AI" "créent" des images…
Posté par Faya . En réponse au lien "Extracting Training Data from Diffusion Models" - Stable Diffusion (et autres "AI") et copyright. Évalué à 3.
C'est le principe qui est comparable. Copier-coller quelque chose que tu n'as pas compris. À partir de là, quelque soit la source, c'est mauvais. Et la responsabilité incombe au copieur.
[^] # Re: Pour ceux qui ressortent encore régulièrement que ces "AI" "créent" des images…
Posté par Faya . En réponse au lien "Extracting Training Data from Diffusion Models" - Stable Diffusion (et autres "AI") et copyright. Évalué à 2.
Comme dit plus haut, pour moi c'est "Un outil comme un jq augmenté d'un Clippy beaucoup plus performant.". C'est à dire que je ne l'utilise pas pour la production d'oeuvre. Ni graphiques, ni écrites. Sur ce point je ne suis pas loin d'être d'accord (cf. ma phrase sur "Des articles de presse entièrement rédigés par ChatGPT.")
Maintenant, n'avons nous pas déjà appris à naviguer entre les torrents de vidéos mensongères, les blogs obscurs, les journaux sensationnalistes, les articles de fake-science à la France-Soir,… L'océan dont tu parles est déjà là mais on sait (à peu près) où trouver les infos qui comptent. Je ne suis pas sûr que des trucs générés automatiquement y changeront grand chose.
[^] # Re: Pour ceux qui ressortent encore régulièrement que ces "AI" "créent" des images…
Posté par Faya . En réponse au lien "Extracting Training Data from Diffusion Models" - Stable Diffusion (et autres "AI") et copyright. Évalué à 2.
Si tu parles de 1+1 il me semble qu'il a répondu correctement. Ensuite c'est l'algo de "Reinforcement Learning from Human Feedback" qui provoque l'erreur (sycophancy bias, les gens qui bossent dessus connaissent le soucis et la recherche continue). Mais dans tous les cas on est d'accord que ces modèles sont expérimentaux hein. Vu que j'ai appris l'expression aujourd'hui il semblerait que tu joues à la "négation polémique" avec ton "se fier à ça pour son code de production". Je re-re-reprends l'exemple de StackOverflow, qui colle en production du code copié sur le net ? Faut arrêter avec ce fantasme ou alors me trouver qqun qui aurait dit que ChatGPT savait tout résoudre. C'est suffisant pour le besoin, parfois ça ne l'est pas et charge à l'utilisateur de le tester/comprendre.
[^] # Re: Pour ceux qui ressortent encore régulièrement que ces "AI" "créent" des images…
Posté par Faya . En réponse au lien "Extracting Training Data from Diffusion Models" - Stable Diffusion (et autres "AI") et copyright. Évalué à 6.
Alors milles excuses. Je ne l'ai pas écrit comme une attaque. Quand je dis "tu nous prends pour des cons" ça rejoint "vous courez droit au mur." Note que je ne t'ai qualifié de rien du tout mais bon ouais le ton est peut-être un peu sec. Sûrement parce qu'on lit de tout sur ce sujet, entre les adorateurs de l'IA et ceux qui annoncent la fin du monde. Et puis c'est un peu lourd de (re)lire qu'on a rien compris à son fonctionnement. Ce que je veux c'est prendre une position plus mesurée. Juste la question pratique (je ne me suis pas exprimé sur les dangers sociétaux). Je baisse sur la pression.
Bah tu me cites en disant "C'est une course à la médiocrité" (entre autres) donc ouais je l'ai un peu pris pour moi. M'enfin rien de grave.
Justement je ne parlais pas des problèmes de société. J'ai voulu rester uniquement sur la question technique car je ne suis pas très à l'aise sur le sujet, c'est vachement flou et incertain. Tu dis "On aura toujours besoin de graphistes, illustrateurs, développeurs, écrivains et chroniqueurs… Mais on essaie de faire croire artificiellement à une forme d'inutilité." Si on en aura toujours besoin (et je suis d'accord sur ce point) qui croira à l'inutilité puisqu'il faudra bien embaucher ces développeurs ? Si ChatGPT est si mauvais, nous n'avons pas grand chose à craindre puisque sa production sera aussi mauvaise que lui et on embauchera des humains pour faire des choses de qualité. C'est comme les outils no-code qui devaient remplacer les devs… Je ne me sens pas menacé le moins du monde. Je vois bien par contre les soucis d'exploitation de la production d'auteurs qui n'ont pas donné leur accord pour entraîner ces trucs.
En fait j'ai l'impression que tu as des inquiétudes possiblement légitimes (problèmes de droits, problèmes d'emploi…) mais que c'est mélangé avec des choses annexes et infondées (je dis "tu" parce que je réponds à tes messages mais là encore ce n'est pas une attaque ! Ou alors une attaque de l'argumentation.) Par exemple le fait qu'il ne sache pas calculer, ou qu'il produise des textes sans saveur je ne vois pas en quoi ça nous mène "dans le mur". Les personnes qui l'utilisent pour autre chose que pour s'amuser le font en gardant les failles à l'esprit, comme tout développeur sait qu'il ne faut pas copier-coller un bout de code de StackOverflow si on ne l'a pas compris. Quand je lui demande de me trier des données, le mur me paraît assez éloigné. Des articles de presse entièrement rédigés par ChatGPT, là ouais on pourrait commencer à s'inquiéter mais vu les performances, ça se verrait assez vite. Sans compter que la production de qualité médiocre n'a jamais menacé les productions de qualité, que ça soit dans les arts ou la presse, il y a de la place pour les tabloïds et pour le journalisme d'investigation. Les clients feront le tri. Au final les critiques légitimes sur la qualité jurent avec l'inquiétude qu'on va droit dans le mur. Mais c'est peut-être parce que tu le vois du côté artistique et que je ne le considère que du côté pratique… Un outil comme un jq augmenté d'un Clippy beaucoup plus performant.
[^] # Re: Pour ceux qui ressortent encore régulièrement que ces "AI" "créent" des images…
Posté par Faya . En réponse au lien "Extracting Training Data from Diffusion Models" - Stable Diffusion (et autres "AI") et copyright. Évalué à 1.
C'est drôle parce que tu hurles que "les gens" n'ont pas compris comment ça fonctionne mais cette seule phrase montre que tu n'as pas vraiment compris non plus… Qu'un modèle de langage ne fasse pas de calcul ça ne devrait surprendre personne. C'est normal, quand on a compris comment ça fonctionne. Afficher de la documentation par contre, ça rentre plus dans la catégorie "langage". Donc oui lui faire afficher une succession de passages de documentation c'est carrément indiqué. Je veux bien que tu me montres la faille ici
Explication de code
[^] # Re: Pour ceux qui ressortent encore régulièrement que ces "AI" "créent" des images…
Posté par Faya . En réponse au lien "Extracting Training Data from Diffusion Models" - Stable Diffusion (et autres "AI") et copyright. Évalué à 0.
Comme tu me réponds sous un autre commentaire, je reprends ici… Je crois qu'encore une fois tu prends les mots au pied de la lettre(ou alors tu nous prends pour des cons). Voilà un exemple pratique de ce que j'entends par "expliquer du code" : https://linuxfr.org/users/octane/journaux/mon-avis-sur-chatgpt#comment-1913116 Ça se résume à dérouler le script et compiler les parties de la documentation qui conviennent. Mashup comme tu dis. Sans avoir à fouiller individuellement la manpage de chaque commande. Et pour l'utiliser quotidiennement, je suis au courant qu'il lui arrive de se tromper mais personne (vraiment personne) n'a dit que ChatGPT était devenu son mentor et qu'on faisait confiance à tout ce qu'il affiche. J'insiste mais je t'assure que personne n'est aussi bête et de toutes les façons quiconque le ferait se rendrait immédiatement compte qu'il y a des failles régulières. Par contre, oui il peut faire gagner du temps.
Il y a tout juste une semaine je disais mot pour mot "il faut connaître les limites de l'outil et cesser de l'utiliser comme un oracle qui peut nous apporter la réponse à la Vie l'Univers et tout le reste". On est d'accord que c'est la même chose que tu dis là ? Donc nous sommes d'accord.
Pour tout le reste de ton commentaire je comprends les inquiétudes (ubérisation, problèmes sociaux, …) mais c'est orthogonal à la critique de l'utilité du bouzin. Concernant DALL-E je n'en vois pas encore l'utilité à part s'amuser quelques minutes donc je n'ai rien à en dire. Mais pour ChatGPT il faut comprendre que des personnes pas complètement débiles l'ont utilisé plusieurs fois et sont conscients des failles. Et que tu joues à te faire peur avec le dev qui va copier-coller une réponse de ChatGPT pour la pousser en production. On peut faire le choix de ne s'intéresser qu'à ses manquements ou alors tester pour constater que bien que n'étant qu'un T9 évolué, on peut lui faire fournir des réponses utiles. Exactement comme on le ferait avec une réponse de StackOverflow.
[^] # Re: Pourquoi essayer d'en faire un crime raciste ?
Posté par Faya . En réponse au lien Cinq policiers afro-américains battant à mort un afro-américain : est-ce du racisme ?. Évalué à 7. Dernière modification le 01 février 2023 à 17:07.
On a pas attendu Zenitram pour découvrir les discriminations intracommunautaires.
"Well… let's not act like that HNIC mentality stayed on the plantation." (HNIC = Head Nigga In Charge ou Nègre de Maison)
ou encore
"Les gens qui sont surpris que les flics qui ont fait ça soient noirs sont sur le point d'apprendre une partie de "The Talk" sur laquelle mes parents ont toujours insisté : la race d'un flic est "flic". Ne soyez jamais dans l'illusion qu'un flic noir est moins susceptible de vous brutaliser ou de vous tuer."
Pour parler de ce que je connais, bien des noirs sont plus racistes envers les noirs qu'envers les blancs. Ont une déférence envers les blancs qu'ils n'ont pas avec leurs collègues noirs. Et tout ça remonte au phénomène de "peau sauvée" : plus ta peau était claire plus tu montais dans l'échelle sociale. Noir < Chabin < Mulâtre < Béké < Français. Pour qui a vécu aux Antilles, ces distinctions sont flagrantes, prégnantes, et sont une grille de lecture nécessaire pour comprendre cette société métissée. C'est ce qu'on appelle ailleurs le colorisme. Une représentation célèbre du phénomène est La Rédemption de Cham.
Oui les noirs ont "absorbé" les discriminations apprisent des blancs. La hiérarchie et les violences policières n'y échappent pas. On appréciera la vitesse à laquelle les coupables ont été écartés, pointés par le FBI, lâchés par les syndicats. Du jamais vu et c'est tant mieux ! L'excuse du "il nous faut 6 mois d'enquête pour déterminer si c'était bien un meurtre" a du plomb dans l'aile (pun intended). Ça n'a sûrement rien à voir avec le fait qu'ils sont noirs comme leur victime ?
[^] # Re: Pour ceux qui ressortent encore régulièrement que ces "AI" "créent" des images…
Posté par Faya . En réponse au lien "Extracting Training Data from Diffusion Models" - Stable Diffusion (et autres "AI") et copyright. Évalué à 3.
J'ai l'impression que tu prends un peu les gens pour des cons. Je pense que tout le monde (au moins sur LinuxFr…) comprend le sens des expressions "algorithme", "modèle" ou "données d'entraînement." Et que les modèles de ces IA ne sont pas mis à "comprendre" le langage naturel pour "réfléchir" à la question posée. Il y a un contexte dans l'utilisation des mots. Ici, "comprendre" serait plutôt "traduire pour utiliser", un peu comme un compilo qui comprend ton code haut niveau pour le traduire en langage machine. Et dans ce contexte, ils comprennent puisqu'on obtient bien en sortie quelque chose correspondant à la demande en langage naturel (modulo les ratés (ChatGPT) ou la faible qualité (Dall-E)). La question du droit d'auteur est primordiale et ce genre d'études qui pointent les failles feront que les modèles seront améliorés pour ne pas recracher de manière basique les données d'entraînement.
Il faut aussi garder à l'esprit que ces trucs sont très jeunes. Il y a 1 an on ne s'attendait pas à pouvoir se faire expliquer du code ou rédiger un article (insipide mais ce n'est pas la question) par un chatbot. Je ne suis pas de ceux qui prédisent une Intelligence Artificielle Forte pour bientôt (ni même de notre vivant je pense) mais on aurait tort de penser qu'on a atteint là le maximum des possibilités de ces modèles. Tiens d'ailleurs OpenAI vient de sortir un modèle servant à distinguer un texte rédigé par une IA d'un texte rédigé par un humain. Là encore personne n'est dupe, ça va surtout servir à entraîner ChatGPT à mieux masquer son IAttitude…
[^] # Re: surprise
Posté par Faya . En réponse au lien Des gangs internationaux utilisent des sociétés-écrans britanniques pour piéger leurs victimes. Évalué à 4.
Le mot important du titre c'est "britanniques", vu que c'est un article du Guardian. On s'attend peut-être plus à ce que ces sociétés soient domiciliées au Panama ou aux Seychelles.