Je ne sais pas pour la licence. La page [https://linuxfr.org/code_source_du_site] dit "L’avatar par défaut est une version modifiée de Tux." et "Certaines icônes utilisées sur le site proviennent du jeu d’icônes Iconic Set, sous licence CC By‑SA 3.0.", mais je ne pense pas qu'on parle des trois manchots.
Mais de toutes manières, on ne parle pas forcément de droit d'auteur ici. Le logo peut être protégé par le droit des marques et/ou le droit des modèles, et même s'il n'est pas protégé, ça ne rend pas le parasitisme légal (même si ça renverse un peu la charge de la preuve). Je trouve que la réutilisation est clairement de nature à tromper le public sur l'origine du sondage, donc c'est condamnable. Bien entendu, ça ne veut pas dire qu'il y a une raison légitime d'aller en justice (au mieux tu récupères 1€ symbolique), mais c'est quand même un réflexe puéril d'aller illustrer ton propre site avec un logo distinctif que tu as récupéré sans en avoir l'autorisation.
Bah que c'est bien de personnaliser, mais que le modèle traditionnel qui consiste à écrire une page de blabla sans aucun contenu informatif n'existe pas par hasard: une information peut avoir un effet positif ou un effet négatif. Alors que l'absence d'information reste au niveau du "à peine négatif".
En fait, le pire, c'est le mensonge, "Depuis ma plus tendre enfance je rêve de devenir contrôleur de gestion". Mais le truc sincère qui ne correspond pas à l'entreprise, ça n'est pas bon non plus.
C'est pareil sur les CV, dans les loisirs il peut y avoir des choses qui ne correspondent pas à ce qu'on recherche pour un poste (sportif de haut niveau, maquettes de tour Eiffel en allumettes…). Malheureusement, il y a beaucoup de sélection sociale; une organisation peut vouloir sélectionner sur la maitrise d'un certain nombre de codes professionnels (pareil pour la manière dont on s'habille pour un entretien, etc).
Une lettre de motivation personnalisé, avec vos mots, même maladroite, est infiniment plus intéressante qu’un énième modèle remplis
C'est vrai, sauf qu'il faut garder en tête que quand c'est intéressant et informatif pour l'employeur, ça marche dans les deux sens. Moi j'ai déja eu droit à des trucs comme "c'est important pour moi que le résultat de mon travail puisse influencer la vie des gens", bah c'était un peu éliminatoire quand même…
Après il suffit de propager les constantes et d'évaluer la condition, ici.
OK, dit comme ça ça semble un peu magique et j'imagine que ça ne gère pas les cas où la variable de départ est modifiée pour retrouver sa valeur initiale, mais de toutes manières quand on parle d'optimisation l'objectif reste quand même pragmatique, ça n'est pas grave si des cas particuliers ne sont pas optimisables…
et donc en déduire que le code ne sera jamais utilisé si il est déconnecté en conséquence, avec les éléments dont il dépend au passage.
En fait, l'utilité de tout ça dépend un peu des objectifs, non? S'il te faut 10 secondes de calcul pour déterminer si tu dois compiler ou pas 3 lignes de code, au final tu n'y gagnes pas grand chose…
En fait, certains s'imaginent que la lettre de motivation peut faire obtenir un stage ou un boulot, et c'est assez faux. Ce que la lettre permet de faire, c'est de trier ceux qui n'ont pas les codes du monde du travail ou qui n'ont pas compris le boulot auquel ils postulaient. Du coup, une mauvaise lettre est éliminatoire.
C'est d'ailleurs fou à quel point certains peuvent se tromper dans leurs lettres de motivation, du style "j'ai toujours aimé travailler avec les animaux" dans un abattoir, ou "je cherche un travail épanouissant" pour être opérateur dans un call center…
En gros, il ne faut pas se gourer, mais en fonction du boulot, recopier une lettre bateau ça peut revenir à sa gourer.
j'ai du lister toutes mes adresses physiques depuis ma naissance
C'est bien légal ce truc? Ça me parait totalement aberrant, et sans aucun lien avec la recherche d'emploi.
Tout au plus peut-on imaginer qu'on demande les pays de résidence pour anticiper d'éventuels problèmes pour l'obtention d'un visa dans le cadre d'un recrutement international…
Bon, en fait j'ai quand même répondu avec un peu de mauvaise foi, parce que le compilateur sait ou non s'il a besoin de compiler, et s'il y a un appel dynamique, il compile de toutes manières, j'imagine. Je ne sais pas s'il évalue par exemple si les variables sont potentiellement modifiables
const int truc = 2;
if (truc == 2)
foo();
vs
int truc = 2;
if (truc == 2)
foo();
vs
int truc = 2;
bar(truc);
if (truc == 2)
foo();
parce que si void bar(int) ou void bar (const int&), alors foo() est mort, mais si void bar(int&), foo() est peut-être vivant, mais il y a moyen à partir du code de bar() de vérifier si la référence est potentiellement modifiée.
Il semble y avoir des discussions sur les aspects éthiques de l'A/B testing, mais rien de bien tranché (https://www.ama.org/marketing-news/are-a-b-tests-ethical/). En gros, "ça dépend". Il semble que quand ça concerne des tests du style "fake/real news", c'est pas éthique, par contre, servir des photos de produits aléatoire et choisir celle qui a déclenché le plus de ventes ne pose pas spécialement de problème.
Le problème c'est que des pratiques similaires sont très répandues et pas du tout interdites, et c'est souvent une manière de faire des choix rationnels dans le commerce. Par exemple le lundi tu mets tes pommes à 2€ le kg, le lundi d'après tu prends les mêmes pommes que tu mets à 3€/kg, et tu compares le chiffre et la marge pour les deux solutions, tu peux alors fixer ton prix de vente au mieux. En attendant, les clients du deuxième lundi ont payé leur kg de pommes 1€ plus cher, c'est pas très éthique, c'est complètement arbitraire.
Les annonceurs font régulièrement des campagnes "à blanc", ils passent des pubs ou mettent des affiches correspondant à un "faux" produit (fausse marque, personnage imaginaire, etc). Puis ils font des sondages pour savoir quelle proportion de la population connaissent ce produit, ce qui leur permet de "vendre" ça à leurs clients. Ça existait même avant Internet.
Mais il y a moyen que tu sois moins agressif quand tu n'es pas d'accord avec quelque chose? Surtout quand tu n'as même pas lu…
Je dis juste que c'est Amazon qui décide de couper son programme pour mettre des pubs, et que lui préfère continuer à payer son abonnement Amazon mais arrête d'acheter des pâtes Buitoni parce que c'est tombé sur Buitoni. On n'a pas le droit de trouver ça bizarre comme raisonnement?
Celà dit je me demande si le compilateur est en mesure de traquer tout le code mort ou s'il a ses limites (j'avoue que je ne me suis jamais posé la question).
Ça doit dépendre du langage; quand la reflexivité est autorisée (eval()), tu ne peux pas vérifier, et j'imagine qu'il y a des constructions avec des pointeurs de fonction qui rendent le traquage du code mort très très complexe.
Et puis tu as de toutes manières les trucs du genre
if (check_P_equals_NP()) foo();
qui fait que foo() est peut-être mort et peut-être pas…
L'analogie serait plutôt que l'électricien vient garer sa camionnette Renault, alors du coup tu achèteras une Peugeot même si la Renault est moins chère.
Ce que je veux dire, c'est que l'intérêt que tu peux avoir à acheter un objet n'est pas corrélé avec le fait que la marque fait de la pub. Choisir de ne pas acheter un produit dont tu as besoin, ou exclure une marque sur une base qui n'est pas liée à la qualité du produit, a priori, ça revient à te priver arbitrairement d'un choix. C'est, je trouve, un choix très surprenant de ne pas boycotter l'entreprise qui crée la nuisance (Amazon), pour préférer boycotter le client d'Amazon…
moi je me suis fait une liste de truc a pas acheter avec la pub
En termes d'interactions sociales, comme tu ne peux avoir aucun espoir raisonnable que la situation des coupures publicitaires puisse changer, je pense que ton comportement s'apparente techniquement à de la malveillance (tu acceptes de payer un coût pour nuire à quelqu'un). C'est comme si tu leur envoyait une lettre avec un timbre et tout pour dire "Chere entreprise machin, je n'aime pas vos publicités, jamais je n'achèterai votre produit".
Le drame pour toi, c'est que les gens en général ne sont pas malveillants, donc il n'y a aucune chance pour que ce comportement soit généralisé. Les gens sont évidemment agaçés par la publicité, et vont éventuellement arrêter ce regarder les programmes (soit pour faire autre chose, soit pour passer par un autre canal avec moins de pub, éventuellement par un programme payant). En gros, ils acceptent de payer un coût pour améliorer leur expérience.
Un autre truc dramatique pour nous, c'est que l'efficacité de la publicité ne dépend pas du tout de l'expérience positive qu'on aurait en la regardant. En gros, plus c'est agaçant, répétitif, plus ça stimule une émotion, et plus tu vas retenir ses éléments essentiels (la marque, le produit). On peut donc en déduire qu'interrompre un film pile au moment où c'est intéressant, c'est voulu : ton cerveau va être hyper-disponible pour le message publicitaire.
Par contre, je doute que l'annonceur soit particulièrement au courant de quand et dans quel contexte Amazon décide de passe sa pub. Il paye juste pour l'annonce, fait probablement quelques choix ciblés sur le public, le type de programme, etc., et il laisse Amazon faire "au mieux".
Je n'ai pas trop compris pourquoi c'était censé marcher, on n'aurait pas le même genre de problème avec la redéfinition d'une méthode dans une classe dérivée? Tous les langages qui autorisent la redéfinition / surcharge vont se comporter de cette manière, quand on supprime l'appel le plus spécialisé, le compilateur va appeler l'appel moins spécialisé, etc.
Et en fait c'est même pire pour les langages non-compilés qui vont écraser "silencieusement" les déclarations précédentes, puisque quand on supprime la fonction locale on va aller appeler du code qui était mort auparavant.
Est-ce qu'il y a un contexte où la technique de "je supprime la fonction et ça ne marche plus" fonctionne autrement que par coup de bol?
Mouais, je sais bien qu'il peut y avoir des bulles ou des trucs comme ça, mais imaginer que les entreprises dépensent des milliards pour des choses qui ont "un faible intérêt" me semble risqué… Est-ce que ça n'est pas une confusion entre ce qui est vrai et ce qu'on souhaiterait être vrai?
Moi j'ai toujours eu un doute sur la plus-value de la publicité ciblée, notamment par rapport aux investissements colossaux qui sont nécessaires (mise au point et mise à jour continue des trackers, concurrence féroce, bande passante ahurissante, stockage en analyse de Po de données hétérogènes et polluées…). Il n'y a pas besoin de savoir quand et où tu vas aux toilettes pour te vendre du PQ… Mais il ne faut pas oublier que la publicité est souvent un jeu à somme négative. Il existe quelques campagnes de pub dont l'objectif est de stimuler le marché (style "les produits laitiers"), mais la règle c'est que la publicité est concurrentielle : on dépense de l'argent pour gagner des parts de marché sur un marché saturé, les concurrents le font aussi, les marges en prennent un coup et les prix augmentent. Au final, le consommateur y perd (il se fait polluer la vie par la publicité et en plus il paye ses produits plus cher), les industriels y perdent (ils dépensent dans la publicité juste pour maintenir leurs parts de marché). Les seuls gagnants sont ceux qui vivent du système : publicitaires, brokers de données, et ceux pour qui la pub est un revenu (chaines de TV, Cinémas, journaux, sites web…), mais certainement pas ceux qui achètent la pub.
Donc si j'ai bien compris ton argument, pas de banque, pas d'assurance pour une partie de la société, parce qu'elle n'est pas rentable.
Je ne comprends pas où tu veux en venir. Les banques ou les assurances sont des entreprises commerciales, elles n'exercent pas un service public. Elles sont en droit (et c'est légitime) de facturer un service en fonction de la rentabilité potentielle (par exemple, une assurance peut augmenter les cotisations si ton profil est "à risques"), ou de ne pas te fournir ce service si elles estiment que c'est trop risqué ou que c'est à perte pour elles.
Note que pour la banque, il existe un droit au compte bancaire; la Banque de France peut forcer une banque commerciale à t'ouvrir un compte "de base" sous certaines conditions.
Tu trouves ça bien
Je trouve ça logique, je n'ai pas porté de jugement de valeur. Un commerce n'est pas un service public.
tu pointes un problème de fonctionnement d'une société basé sur la cupidité
Je ne suis pas vraiment convaincu que j'aimerais vivre dans une société où il existerait un droit à imposer des besoins fantaisistes à des tiers, particuliers ou entreprises. Je trouve ça bien que la loi règlemente les besoins nécessaires à la vie en société (par exemple, imposer un accès aux handicapés, même si ça coute de l'argent aux entreprises); par contre, ça fait partie des interactions sociales ordinaires que de voir se refuser l'accès à un service parce qu'on a des besoins personnels que l'entreprise ne souhaite pas fournir, pour une raison ou pour une autre. Rentrer dans un restaurant et exiger un plat végétarien par exemple, rentrer dans un magasin de mobylettes et exiger un modèle électrique, ou rentrer dans une banque et exiger un service à distance sans smartphone. Tes besoins peuvent être motivés par des raisons personnelles, religieuses, politiques, ou financiers, mais il n'empêche que le reste du monde n'a pas à les couvrir ; c'est à toi de chercher comment tu peux trouver le service dont tu as besoin.
Je trouve également logique que la facturation soit proportionnée au coût réel du service. Si j'ai une voiture de collection et qu'il faille faire venir les pièces détachées du bout du monde, c'est normal que ça soit plus cher pour moi que pour moi voisin qui fait changer les plaquettes de sa clio. Le service est différent, donc le coût est différent; quand tu as des demandes plus précises et plus complexes, il est logique que tu payes plus cher. Tu sembles t'indigner que parfois, les requêtes sont plus complexes parce que tu es pauvre, mais tu ne fais qu'opposer deux logiques tout à fait légitimes et je ne vois pas pourquoi par principe l'une prévaudrait sur l'autre. Il me semble plus sain que l'État mette à disposition un système de subventionnement pour compenser le manque à gagner pour les entreprises, plutôt que d'imposer par la loi de commercialiser des services non-rentables.
Ça doit être parce que tu dois avoir un biais vers les sources scientifiques :-)
En ce qui concerne l'observabilité du ciel, il y a un problème assez clair avec les outils super-précis des observatoires scientifiques et/ou la pollution de bandes de fréquences importantes. Pour les ondes radio, c'est probablement difficile de contourner le problème, pour la pollution lumineuse, j'imagine que les ingénieurs sont capables avec le temps de trouver des stratégies pour limiter les problèmes (observer le ciel depuis la terre est déja très sous-optimal, entre la météo, les perturbations de l'atmosphère, et l'absorption de nombreuses longueurs d'onde…).
Pour l'astronomie amateur, c'est juste une question de principe, parce que les satellites en orbite basse ne gênent pas vraiment l'observation (on les voit passer, mais ils ne gênent pas; on ne les voit qu'au crépuscule et à l'aube, où de toutes manières le ciel n'est pas assez noir pour les observations, et de toutes manières depuis un point sur Terre on ne voit qu'environ 1% de l'orbite basse, donc seulement quelques satellites à la fois sur 20000 degrés carrés de voute céleste…). Ils passent vite et on peut les retirer des photos numériques (ça n'aurait pas été possible avec des photos argentiques). La pollution lumineuse des villes, ça c'est un vrai problème pour l'observation, les satellites artificiels, bof hein.
on peut aussi faire un truc qui est un poil moins scolaire,
Les LLMs sont quand même souvent capables de gérer pas mal de choses… Il ne faut pas partir du principe qu'ils ne savent répondre qu'à des requêtes simples.
Par contre, c'est très très difficile de repérer les manipulateurs (ce que tu appelles les escrocs), même pour un professionnel, et je pense que tu peux partir du principe que tu ne les repèreras pas, sauf par exemple si tu as l'impression que le candidat est "trop parfait" (il a deviné tes attentes et y a répondu sans aucun lien avec la réalité). Le seul moyen de confronter un manipulateur c'est des tests d'aptitude en conditions réelles (un entretien en anglais, 10 minutes devant un ordinateur et un bout de code à faire en temps réel et en expliquant, etc), même si un très bon manipulateur peut quand même s'en sortir (en te tirant les vers du nez sans que tu le réalises, ou en t'embobinant sur la raison pour laquelle il n'a pas pu faire le test—il ne faut jamais sous-estimer les capacités des escrocs à se tirer de situations apparemment inextricables). Mais dans les faits, le manipulateur se débrouillera toujours pour que tu n'aies pas recours à de tels tests. Du coup, à mon avis, la seule chose que tu peux faire est de garder en tête que quelles que soient les circonstances, il y a toujours une possibilité pour que la personne en face de toi soit un manipulateur (et surtout, ne jamais se convaincre que le candidat n'en n'est pas un).
Précisément. Savoir se servir d'une IA, ça pourrait passer comme une compétence super utile?
Je doute que de se servir d'un outil en le cachant à son employeur soit une qualité recherchée… Le test sert peut-être à repérer les champions qui vont copier-coller les rapports confidentiels dans chatGPT pour les traduire parce qu'ils ont pipeauté leur niveau d'anglais dans leur CV? :-)
Tout dépend du contexte, mais produire deux bouts de code, l'un qu'on a sorti spontanément, l'autre qu'on a affiné avec Google et ChatGPT, ça va représenter à la fois son propre niveau et sa capacité à se documenter, tout en mettant en avant l'honnêteté de la démarche et le respect de ses futurs collègues (on ne considère pas l'entretien comme une compétition où l'employeur essaye de piéger les candidats et où les candidats se permettent de tricher sur leurs capacités).
Gruger sur les CV ou les entretiens, ça en dit pas mal sur les gens, leur confiance en eux, la manière dont ils se projettent dans leur job, etc. D'après un DRH avec qui j'en avais parlé, seuls les manipulateurs passent à travers les gouttes, mais c'est un trait de personnalité, pas quelque chose qu'on peut travailler (même si on le veut de toutes ses forces, on ne peut pas devenir manipulateur). Si tu poses la question "est-ce que c'est convenable de pipeauter sur ses capacités professionnelles" sur un forum, c'est sûr que tu es hors de cette catégorie.
Pour moi, c'est exactement un argument de la cible mouvante. Maintenant, ça ne suffit plus qu'il simule l'intelligence de manière crédible, il faut qu'il puisse prouver qu'il le soit, qu'il soit créatif, qu'il soit meilleur qu'un humain, etc. C'est sans aucune fin. Quand tu ne veux pas admettre que les LLMs remplissent presque toutes les cases d'une intelligence artificielle, tu trouves tout un tas d'excuses pour lui refuser le statut. Je remarque souvent de toutes manières que les détracteurs des LLMs n'ont aucune réelle idée de leurs capacités en pratique. Les arguments sont un peu toujours les mêmes, "ça n'est que des algorithmes de complétion", "ça leur arrive d'halluciner", etc. Ça n'est que des arguments théoriques, et la grande majorité d'entre eux peuvent être facilement démontés en vérifiant par soi-même (comme le coup du jeu de société; l'argument partait du principe même que c'était impossible alors qu'il suffisait de vérifier que c'était parfaitement possible.
Oui, justement, c'est à ce genre de trucs que je pensais : en gros, l'IA arrive à faire quelque chose de pas trop tarte, mais qui reste loin du génie du compositeur initial. C'est tellement prévisible… C'est quand même dommage de ne pas plus insister sur le fait que finalement, ce qu'il fait reste acceptable, et probablement mieux que 99% des humains.
Au passage, dans l'histoire, on s'est souvent accommodés de cas similaires, l'Adagio d'Albinoni a été recomposé au XXe siècle à partir de traces (ce qui ne l'a pas empêché de connaitre un certain succès), et pire encore, le Requiem de Mozart a été terminé par ses élèves (sa femme avait besoin du pognon, et il fallait donc absolument livrer une version terminée); moi je trouve en tout cas que tout ce qui suit le Lacrimosa n'a aucun intérêt… Du coup, finalement, l'IA fait comme un compositeur moyen qui doit finir une oeuvre d'un maitre!
(Je ne fais pas de remarques sur le fait que c'est probablement plus facile d'imiter Beethoven que Bach, mais disons qu'il y a des candidats éventuels pour des compositeurs qui ont pu égaler Beethoven :-) ).
Je m'auto-réponds, parce que j'ai fait le teste, et chatGPT s'en est très bien sorti. J'ai inventé un jeu pas trop complexe:
Je souhaite que tu joues à un jeu de société contre moi. Voici les règles: nous avons chacun un pion sur un parcours circulaire de 10 cases, numérotées de 0 à 9. Chacun notre tour, nous pouvons choisir de lancer un ou deux dés. Nous avançons alors le pion du total des dés. Si nous tombons sur le pion de l'adversaire, nous l'envoyons sur la case 0 et nous marquons un point. Le gagnant est le premier à arriver à 3 points. Je commence sur la case 0 et tu commences sur la case 1. Tu es le premier joueur. C'est moi qui jette les dés, tu me dis combien de dés tu jettes et je le fais à ta place. As-tu compris les règles?
Le transcrit est un peu long, mais en résumé, il a très bien compris. À chaque tour, il faisait le décompte d'où étaient les pions. Il ne s'est jamais trompé sur la somme des dés ou sur la case atteinte. Il m'a défoncé, 3 à 1 d'ailleurs, mais je n'ai pas triché avec les lancers et il a eu un peu de chance. Il a fait une seule erreur, à un moment, c'est moi qui suis tombé sur lui et il s'est mis un point, je lui ai fait remarquer et il a corrigé. Il a pris les mêmes décisions que moi sur le lancer des dés (moi je comparais les probas de tomber sur l'autre avec un dé ou deux dés), à la fin je lui ai demandé comment il avait choisi sa stratégie, et il m'a répondu :
Bien sûr ! Pour expliquer mes choix, j'avais tendance à opter pour lancer deux dés dans des situations où je pouvais soit prendre de l'avance rapidement, soit espérer tomber sur la case de l'adversaire. Lancer deux dés augmente mes chances d'atteindre une case plus lointaine et peut potentiellement me permettre de marquer un point si je tombe sur ton pion.
C'est finalement très humain, alors que c'est vrai qu'on se serait attendu à un calcul de probabilités. Ceci dit, si quand il dit "prendre de l'avance" il "pensait" mettre son pion à plus de 6 cases du mien, alors il a été plus loin que moi parce que je n'avais pas pensé à ça (je n'ai pas adopté de stratégie défensive).
Bon, en tout cas, en ce qui me concerne, "jouer à un jeu de société", je considère qu'il sait le faire. Il n'a pas mathématisé le jeu, mais il a compris les règles, il les a appliquées, il a fait une erreur qu'il a corrigée quand je lui ai fait remarquer… Ça m'a l'air très très similaire à ce qu'aurait fait un humain dans la même situation.
C'est super-important de tester ses intuitions sur l'IA. J'arrête pas de me "disputer" sur ce forum avec des gens qui disent "ouais mais les LLMs ne savent pas faire ci ou ça" : bah arrêtez de théoriser, faites le test. Qu'es-ce que tu risques à faire le test, à part de te faire douter de tes certitudes?
Pour la question de la cible qui bouge c'est surtout qu'on a du mal à définir, et même à se mettre d'accord sur ce qu'es l'intelligence.
Du coup, tu définis une cible, l'ordinateur l'atteint, et tu dis "ah oui mais non, c'est parce qu'il calcule, attends, je vais définir une nouvelle cible", et tu répètes à l'infini. Je trouve que c'est exactement un argument de la cible qui bouge, tu veux que l'ordinateur fasse toujours plus et jamais tu ne prévois de t'arrêter en disant "bon OK, là c'est quand même assez proche de l'intelligence pour que j'accepte de le qualifier d'IA".
Alors, le scoop, c'est que quelque soit les objectifs atteints, ça sera toujours par le calcul (parce qu'un ordinateur ne sait faire que ça). Soit tu pars du principe que l'intelligence ne peut être qu'humaine (dans ce cas, ça ne sert à rien de mettre des critères pour l'ordinateur), soit tu acceptes qu'il y a moyen d'être apparemment intelligent sans reproduire strictement en interne le fonctionnement d'un cerveau, auquel cas les LMMs sont des très bons candidats pour être qualifiés d'IA.
Bref, de mon point de vue, lorsque le même (programme / machine) sera capable d'apprendre à jouer à des jeux de sociétés, passer le bac, jouer à des jeux vidéos (et choisir ses jeux vidéos), le tout sans une supervision intensive, ni devoir faire 15000 partie pour avoir un niveau correcte, alors on pourra parler d'intelligence.
"sans supervision", tu demandes l'impossible. Un humain a besoin de supervision pour passer le bac (il a besoin d'environ 15 ans de supervision 200 jours par an 7h par jour sans compter l'effet de la famille, on est quand même proche de tes 15000 parties), ou pour apprendre un jeu de société.
Je ne l'ai jamais fait, mais je pense que ChatGPT est probablement capable d'apprendre de jouer à un jeu de société. Tu inventes un jeu (pour être certain qu'il n'est pas dans le corpus), tu lui expliques les règles, tu fais une partie avec lui, tu lui expliques éventuellement là où il s'est trompé ou là où il y avait une ambiguité dans les règles, et tu regardes s'il prend à peu près les bonnes décisions. Ça ne m'étonnerait pas qu'il s'en sorte honorablement; si j'ai le temps un jour je ferai un essai.
Tu as des travaux très intéressants en philosophie de l'esprit (bon, pas beaucoup en France, puisque la philosophie y est ancrée dans une dimension littéraire qui n'a pas beaucoup d'intérêt), qu'il faut distinguer du gloubiboulga médiatique actuel…
Il y a une position que j'ai du mal à comprendre, c'est que la conscience est une propriété émergente d'un cerveau, et que les IA n'ayant pas de cerveau, elles ne peuvent pas par définition avoir de conscience. Je veux dire, c'est cohérent d'une certaine manière, mais je trouve que ça n'a aucun intérêt (la réponse est dans la définition).
Quelque chose de spécialement gênant avec les LLMs, qui est quelque part complètement nouveau dans la reflexion, c'est que les LLMs ne génèrent pas de pensée par eux-mêmes : ils alignent des mots de manière cohérente avec un corpus de référence. Il est donc très tentant de dire qu'ils n'ont aucune intelligence, ils ne font que recopier des patterns qu'ils ont appris et intégrés sans "comprendre" quoi que ce soit (c'est l'argument de la "chambre chinoise"). C'est un argument intéressant, parce qu'il touche profondément à la définition d'intelligence. Quelque part, ça exclut la possibilité d'évaluer l'intelligence par l'étude de la manifestation de l'intelligence (par exemple, par des questions, ou par une observation du comportement). Ce que ça dit, c'est que si tu veux déterminer si quelque chose ou quelqu'un est "intelligent", il faut avoir accès à ses processus internes (IRM pour un cerveau, déboggage pour un algo, etc). C'est un peu bizarre, et c'est totalement contre-intuitif (on sait qu'Einstein était intelligent sans lui faire passer d'IRM).
C'est un truc que j'ai répété plusieurs fois donc je ne vais pas écrire une nouvelle tartine dessus, mais il faut faire attention à ne pas trop changer la définition d'intelligence en fonction des avancées techniques : c'est un raisonnement fallacieux ("la cible qui bouge"). Au XIXe siècle, le summum de l'intelligence c'était le jeu d'échecs; quand les ordinateurs ont commencé à gagner contre les meilleurs humains on a dit "ah oui mais non, en fait c'est que du calcul, donc ça n'a rien à voir avec l'intelligence. Par contre le go ça c'est de l'intelligence". Et puis le go a été maitrisé par les ordis, alors on a encore changé la définition, vers la maitrise du langage par exemple ("la traduction automatique est un processus impossible pour un ordinateur parce qu'il ne comprends pas le contexte", etc). Puis avec les LLMs, la maitrise du langage est quasiment parfaite, donc on va encore changer de cible ("ah oui mais non, le langage il l'a appris en lisant ce que des humains ont écrit [entre nous, j'aimerais bien rencontré la personne qui a appris le langage sans lire ou écouter d'autres humains], il faudrait montrer que les IA ont des capacités créatrices, etc"). Au passage, ça commence à mettre la barre au-delà de ce qu'un humain moyen est capable de faire, parce que certes, chatGPT ne sait probablement pas composer une fugue aussi bien que Bach, mais moi non plus, et aucun des ~ 10 milliards d'humains qui sont nés après Jean-Seb non plus, donc le critère est peut-être un chouilla exigeant…
En fait, les LLMs ont des capacités tout à fait comparables, voire largement supérieures, à ce que les gens du XXe siècle décrivaient quand ils parlaient d'intelligence artificielle. Je trouve qu'il faut pas mal de mauvaise foi pour prétendre qu'il ne s'agit pas de systèmes IA, imparfaits certes, mais qui simulent de manière très convaincante l'expression de l'intelligence par le langage. Ça ne veut évidemment pas dire qu'on va tous perdre notre boulot à cause de ça!
À ma connaissance, les gens qui lancent les satellites ne le feraient pas s'il y avait une probabilité pour que tout ça finisse en petits morceaux d'ici quelques années…
Le point clé, c'est évidemment le manque de régulation internationale. C'était une idée apparemment universaliste de dire 'l'espace est à tout le monde', mais évidemment ça a fait que les Russes se sont amusés à dégommer des cibles dans l'espace en créant des gazillons de débris, que les Chinois abandonnent leurs étages de fusées en orbite basse sans les désorbiter… Il existe des "bonnes pratiques", mais le respect des bonnes pratiques, c'est pas obligatoire. En plus, c'est une bonne pratique de désorbiter les satellites, mais évidemment ça éjecte quand même des particules dans l'atmosphère, c'est pas top.
De toutes manières, je ne dis pas que c'est une bonne idée d'envoyer des flottes de dizaines de milliers de satellites, parce que je ne suis pas sûr de comprendre le problème que c'est censé régler. Mais quand l'argument principal est "ne faites pas ça ils vont se rentrer dedans", et que les industriels prouvent par la pratique qu'ils maitrisent suffisamment les trajectoires et les prévisions de collisions pour qu'en pratique ça n'arrive pas, bah l'argument ne tient plus.
[^] # Re: Le modérateur qui est une modératrice
Posté par arnaudus . En réponse au journal Etude d'une communauté de pratique dans le cadre d'un master : nous avons besoin de vous ! . Évalué à 4.
Je ne sais pas pour la licence. La page [https://linuxfr.org/code_source_du_site] dit "L’avatar par défaut est une version modifiée de Tux." et "Certaines icônes utilisées sur le site proviennent du jeu d’icônes Iconic Set, sous licence CC By‑SA 3.0.", mais je ne pense pas qu'on parle des trois manchots.
Mais de toutes manières, on ne parle pas forcément de droit d'auteur ici. Le logo peut être protégé par le droit des marques et/ou le droit des modèles, et même s'il n'est pas protégé, ça ne rend pas le parasitisme légal (même si ça renverse un peu la charge de la preuve). Je trouve que la réutilisation est clairement de nature à tromper le public sur l'origine du sondage, donc c'est condamnable. Bien entendu, ça ne veut pas dire qu'il y a une raison légitime d'aller en justice (au mieux tu récupères 1€ symbolique), mais c'est quand même un réflexe puéril d'aller illustrer ton propre site avec un logo distinctif que tu as récupéré sans en avoir l'autorisation.
[^] # Re: Le modérateur qui est une modératrice
Posté par arnaudus . En réponse au journal Etude d'une communauté de pratique dans le cadre d'un master : nous avons besoin de vous ! . Évalué à 6.
J'imagine qu'ils étudient plusieurs communautés, et qu'ils n'ont pas changé le medium de leur sondage juste pour Linuxfr.
Par contre, les manchots en tête de questionnaire, c'est vraiment une erreur assez grossière (genre, la propriété intellectuelle, ballec, quoi).
[^] # Re: Un bel exemple de mauvaise lettre de motivation
Posté par arnaudus . En réponse au journal On n’a pas de CV quand on a 14 ans. Évalué à 3.
Bah que c'est bien de personnaliser, mais que le modèle traditionnel qui consiste à écrire une page de blabla sans aucun contenu informatif n'existe pas par hasard: une information peut avoir un effet positif ou un effet négatif. Alors que l'absence d'information reste au niveau du "à peine négatif".
En fait, le pire, c'est le mensonge, "Depuis ma plus tendre enfance je rêve de devenir contrôleur de gestion". Mais le truc sincère qui ne correspond pas à l'entreprise, ça n'est pas bon non plus.
C'est pareil sur les CV, dans les loisirs il peut y avoir des choses qui ne correspondent pas à ce qu'on recherche pour un poste (sportif de haut niveau, maquettes de tour Eiffel en allumettes…). Malheureusement, il y a beaucoup de sélection sociale; une organisation peut vouloir sélectionner sur la maitrise d'un certain nombre de codes professionnels (pareil pour la manière dont on s'habille pour un entretien, etc).
[^] # Re: Un bel exemple de mauvaise lettre de motivation
Posté par arnaudus . En réponse au journal On n’a pas de CV quand on a 14 ans. Évalué à 3.
C'est vrai, sauf qu'il faut garder en tête que quand c'est intéressant et informatif pour l'employeur, ça marche dans les deux sens. Moi j'ai déja eu droit à des trucs comme "c'est important pour moi que le résultat de mon travail puisse influencer la vie des gens", bah c'était un peu éliminatoire quand même…
[^] # Re: bah non
Posté par arnaudus . En réponse au journal Le bon sens et le C++. Évalué à 2.
OK, dit comme ça ça semble un peu magique et j'imagine que ça ne gère pas les cas où la variable de départ est modifiée pour retrouver sa valeur initiale, mais de toutes manières quand on parle d'optimisation l'objectif reste quand même pragmatique, ça n'est pas grave si des cas particuliers ne sont pas optimisables…
En fait, l'utilité de tout ça dépend un peu des objectifs, non? S'il te faut 10 secondes de calcul pour déterminer si tu dois compiler ou pas 3 lignes de code, au final tu n'y gagnes pas grand chose…
[^] # Re: Y a une appli pour ça...
Posté par arnaudus . En réponse au journal On n’a pas de CV quand on a 14 ans. Évalué à 6. Dernière modification le 18 novembre 2024 à 10:06.
En fait, certains s'imaginent que la lettre de motivation peut faire obtenir un stage ou un boulot, et c'est assez faux. Ce que la lettre permet de faire, c'est de trier ceux qui n'ont pas les codes du monde du travail ou qui n'ont pas compris le boulot auquel ils postulaient. Du coup, une mauvaise lettre est éliminatoire.
C'est d'ailleurs fou à quel point certains peuvent se tromper dans leurs lettres de motivation, du style "j'ai toujours aimé travailler avec les animaux" dans un abattoir, ou "je cherche un travail épanouissant" pour être opérateur dans un call center…
En gros, il ne faut pas se gourer, mais en fonction du boulot, recopier une lettre bateau ça peut revenir à sa gourer.
[^] # Re: Je pense que tu prends le problème à l'envers ...
Posté par arnaudus . En réponse au journal On n’a pas de CV quand on a 14 ans. Évalué à 3.
C'est bien légal ce truc? Ça me parait totalement aberrant, et sans aucun lien avec la recherche d'emploi.
Tout au plus peut-on imaginer qu'on demande les pays de résidence pour anticiper d'éventuels problèmes pour l'obtention d'un visa dans le cadre d'un recrutement international…
[^] # Re: bah non
Posté par arnaudus . En réponse au journal Le bon sens et le C++. Évalué à 2.
Bon, en fait j'ai quand même répondu avec un peu de mauvaise foi, parce que le compilateur sait ou non s'il a besoin de compiler, et s'il y a un appel dynamique, il compile de toutes manières, j'imagine. Je ne sais pas s'il évalue par exemple si les variables sont potentiellement modifiables
vs
vs
parce que si
void bar(int)
ouvoid bar (const int&)
, alors foo() est mort, mais sivoid bar(int&)
, foo() est peut-être vivant, mais il y a moyen à partir du code de bar() de vérifier si la référence est potentiellement modifiée.[^] # Re: Et sinon...
Posté par arnaudus . En réponse au lien Google va tester de « supprimer » les médias de tous ses résultats en Europe pour certains internau…. Évalué à 3.
Il semble y avoir des discussions sur les aspects éthiques de l'A/B testing, mais rien de bien tranché (https://www.ama.org/marketing-news/are-a-b-tests-ethical/). En gros, "ça dépend". Il semble que quand ça concerne des tests du style "fake/real news", c'est pas éthique, par contre, servir des photos de produits aléatoire et choisir celle qui a déclenché le plus de ventes ne pose pas spécialement de problème.
Le problème c'est que des pratiques similaires sont très répandues et pas du tout interdites, et c'est souvent une manière de faire des choix rationnels dans le commerce. Par exemple le lundi tu mets tes pommes à 2€ le kg, le lundi d'après tu prends les mêmes pommes que tu mets à 3€/kg, et tu compares le chiffre et la marge pour les deux solutions, tu peux alors fixer ton prix de vente au mieux. En attendant, les clients du deuxième lundi ont payé leur kg de pommes 1€ plus cher, c'est pas très éthique, c'est complètement arbitraire.
Les annonceurs font régulièrement des campagnes "à blanc", ils passent des pubs ou mettent des affiches correspondant à un "faux" produit (fausse marque, personnage imaginaire, etc). Puis ils font des sondages pour savoir quelle proportion de la population connaissent ce produit, ce qui leur permet de "vendre" ça à leurs clients. Ça existait même avant Internet.
[^] # Re: Suite de...
Posté par arnaudus . En réponse au lien Google va tester de « supprimer » les médias de tous ses résultats en Europe pour certains internau…. Évalué à 4. Dernière modification le 15 novembre 2024 à 13:53.
Mais il y a moyen que tu sois moins agressif quand tu n'es pas d'accord avec quelque chose? Surtout quand tu n'as même pas lu…
Je dis juste que c'est Amazon qui décide de couper son programme pour mettre des pubs, et que lui préfère continuer à payer son abonnement Amazon mais arrête d'acheter des pâtes Buitoni parce que c'est tombé sur Buitoni. On n'a pas le droit de trouver ça bizarre comme raisonnement?
[^] # Re: bah non
Posté par arnaudus . En réponse au journal Le bon sens et le C++. Évalué à 2.
Ça doit dépendre du langage; quand la reflexivité est autorisée (eval()), tu ne peux pas vérifier, et j'imagine qu'il y a des constructions avec des pointeurs de fonction qui rendent le traquage du code mort très très complexe.
Et puis tu as de toutes manières les trucs du genre
if (check_P_equals_NP()) foo();
qui fait que foo() est peut-être mort et peut-être pas…
[^] # Re: Suite de...
Posté par arnaudus . En réponse au lien Google va tester de « supprimer » les médias de tous ses résultats en Europe pour certains internau…. Évalué à -2.
L'analogie serait plutôt que l'électricien vient garer sa camionnette Renault, alors du coup tu achèteras une Peugeot même si la Renault est moins chère.
Ce que je veux dire, c'est que l'intérêt que tu peux avoir à acheter un objet n'est pas corrélé avec le fait que la marque fait de la pub. Choisir de ne pas acheter un produit dont tu as besoin, ou exclure une marque sur une base qui n'est pas liée à la qualité du produit, a priori, ça revient à te priver arbitrairement d'un choix. C'est, je trouve, un choix très surprenant de ne pas boycotter l'entreprise qui crée la nuisance (Amazon), pour préférer boycotter le client d'Amazon…
[^] # Re: Suite de...
Posté par arnaudus . En réponse au lien Google va tester de « supprimer » les médias de tous ses résultats en Europe pour certains internau…. Évalué à -2.
En termes d'interactions sociales, comme tu ne peux avoir aucun espoir raisonnable que la situation des coupures publicitaires puisse changer, je pense que ton comportement s'apparente techniquement à de la malveillance (tu acceptes de payer un coût pour nuire à quelqu'un). C'est comme si tu leur envoyait une lettre avec un timbre et tout pour dire "Chere entreprise machin, je n'aime pas vos publicités, jamais je n'achèterai votre produit".
Le drame pour toi, c'est que les gens en général ne sont pas malveillants, donc il n'y a aucune chance pour que ce comportement soit généralisé. Les gens sont évidemment agaçés par la publicité, et vont éventuellement arrêter ce regarder les programmes (soit pour faire autre chose, soit pour passer par un autre canal avec moins de pub, éventuellement par un programme payant). En gros, ils acceptent de payer un coût pour améliorer leur expérience.
Un autre truc dramatique pour nous, c'est que l'efficacité de la publicité ne dépend pas du tout de l'expérience positive qu'on aurait en la regardant. En gros, plus c'est agaçant, répétitif, plus ça stimule une émotion, et plus tu vas retenir ses éléments essentiels (la marque, le produit). On peut donc en déduire qu'interrompre un film pile au moment où c'est intéressant, c'est voulu : ton cerveau va être hyper-disponible pour le message publicitaire.
Par contre, je doute que l'annonceur soit particulièrement au courant de quand et dans quel contexte Amazon décide de passe sa pub. Il paye juste pour l'annonce, fait probablement quelques choix ciblés sur le public, le type de programme, etc., et il laisse Amazon faire "au mieux".
[^] # Re: bah non
Posté par arnaudus . En réponse au journal Le bon sens et le C++. Évalué à 5.
Je n'ai pas trop compris pourquoi c'était censé marcher, on n'aurait pas le même genre de problème avec la redéfinition d'une méthode dans une classe dérivée? Tous les langages qui autorisent la redéfinition / surcharge vont se comporter de cette manière, quand on supprime l'appel le plus spécialisé, le compilateur va appeler l'appel moins spécialisé, etc.
Et en fait c'est même pire pour les langages non-compilés qui vont écraser "silencieusement" les déclarations précédentes, puisque quand on supprime la fonction locale on va aller appeler du code qui était mort auparavant.
Est-ce qu'il y a un contexte où la technique de "je supprime la fonction et ça ne marche plus" fonctionne autrement que par coup de bol?
[^] # Re: Suite de...
Posté par arnaudus . En réponse au lien Google va tester de « supprimer » les médias de tous ses résultats en Europe pour certains internau…. Évalué à 10.
Mouais, je sais bien qu'il peut y avoir des bulles ou des trucs comme ça, mais imaginer que les entreprises dépensent des milliards pour des choses qui ont "un faible intérêt" me semble risqué… Est-ce que ça n'est pas une confusion entre ce qui est vrai et ce qu'on souhaiterait être vrai?
Moi j'ai toujours eu un doute sur la plus-value de la publicité ciblée, notamment par rapport aux investissements colossaux qui sont nécessaires (mise au point et mise à jour continue des trackers, concurrence féroce, bande passante ahurissante, stockage en analyse de Po de données hétérogènes et polluées…). Il n'y a pas besoin de savoir quand et où tu vas aux toilettes pour te vendre du PQ… Mais il ne faut pas oublier que la publicité est souvent un jeu à somme négative. Il existe quelques campagnes de pub dont l'objectif est de stimuler le marché (style "les produits laitiers"), mais la règle c'est que la publicité est concurrentielle : on dépense de l'argent pour gagner des parts de marché sur un marché saturé, les concurrents le font aussi, les marges en prennent un coup et les prix augmentent. Au final, le consommateur y perd (il se fait polluer la vie par la publicité et en plus il paye ses produits plus cher), les industriels y perdent (ils dépensent dans la publicité juste pour maintenir leurs parts de marché). Les seuls gagnants sont ceux qui vivent du système : publicitaires, brokers de données, et ceux pour qui la pub est un revenu (chaines de TV, Cinémas, journaux, sites web…), mais certainement pas ceux qui achètent la pub.
[^] # Re: La 3G suivra bientôt
Posté par arnaudus . En réponse au journal La fin de la 2G : quelles solutions pour une communication stable et flexible ?. Évalué à 3.
Je ne comprends pas où tu veux en venir. Les banques ou les assurances sont des entreprises commerciales, elles n'exercent pas un service public. Elles sont en droit (et c'est légitime) de facturer un service en fonction de la rentabilité potentielle (par exemple, une assurance peut augmenter les cotisations si ton profil est "à risques"), ou de ne pas te fournir ce service si elles estiment que c'est trop risqué ou que c'est à perte pour elles.
Note que pour la banque, il existe un droit au compte bancaire; la Banque de France peut forcer une banque commerciale à t'ouvrir un compte "de base" sous certaines conditions.
Je trouve ça logique, je n'ai pas porté de jugement de valeur. Un commerce n'est pas un service public.
Je ne suis pas vraiment convaincu que j'aimerais vivre dans une société où il existerait un droit à imposer des besoins fantaisistes à des tiers, particuliers ou entreprises. Je trouve ça bien que la loi règlemente les besoins nécessaires à la vie en société (par exemple, imposer un accès aux handicapés, même si ça coute de l'argent aux entreprises); par contre, ça fait partie des interactions sociales ordinaires que de voir se refuser l'accès à un service parce qu'on a des besoins personnels que l'entreprise ne souhaite pas fournir, pour une raison ou pour une autre. Rentrer dans un restaurant et exiger un plat végétarien par exemple, rentrer dans un magasin de mobylettes et exiger un modèle électrique, ou rentrer dans une banque et exiger un service à distance sans smartphone. Tes besoins peuvent être motivés par des raisons personnelles, religieuses, politiques, ou financiers, mais il n'empêche que le reste du monde n'a pas à les couvrir ; c'est à toi de chercher comment tu peux trouver le service dont tu as besoin.
Je trouve également logique que la facturation soit proportionnée au coût réel du service. Si j'ai une voiture de collection et qu'il faille faire venir les pièces détachées du bout du monde, c'est normal que ça soit plus cher pour moi que pour moi voisin qui fait changer les plaquettes de sa clio. Le service est différent, donc le coût est différent; quand tu as des demandes plus précises et plus complexes, il est logique que tu payes plus cher. Tu sembles t'indigner que parfois, les requêtes sont plus complexes parce que tu es pauvre, mais tu ne fais qu'opposer deux logiques tout à fait légitimes et je ne vois pas pourquoi par principe l'une prévaudrait sur l'autre. Il me semble plus sain que l'État mette à disposition un système de subventionnement pour compenser le manque à gagner pour les entreprises, plutôt que d'imposer par la loi de commercialiser des services non-rentables.
[^] # Re: autre dimension?
Posté par arnaudus . En réponse au lien Pollution du spectre électro-magnétique par l’industrie numérique. Évalué à 2.
Ça doit être parce que tu dois avoir un biais vers les sources scientifiques :-)
En ce qui concerne l'observabilité du ciel, il y a un problème assez clair avec les outils super-précis des observatoires scientifiques et/ou la pollution de bandes de fréquences importantes. Pour les ondes radio, c'est probablement difficile de contourner le problème, pour la pollution lumineuse, j'imagine que les ingénieurs sont capables avec le temps de trouver des stratégies pour limiter les problèmes (observer le ciel depuis la terre est déja très sous-optimal, entre la météo, les perturbations de l'atmosphère, et l'absorption de nombreuses longueurs d'onde…).
Pour l'astronomie amateur, c'est juste une question de principe, parce que les satellites en orbite basse ne gênent pas vraiment l'observation (on les voit passer, mais ils ne gênent pas; on ne les voit qu'au crépuscule et à l'aube, où de toutes manières le ciel n'est pas assez noir pour les observations, et de toutes manières depuis un point sur Terre on ne voit qu'environ 1% de l'orbite basse, donc seulement quelques satellites à la fois sur 20000 degrés carrés de voute céleste…). Ils passent vite et on peut les retirer des photos numériques (ça n'aurait pas été possible avec des photos argentiques). La pollution lumineuse des villes, ça c'est un vrai problème pour l'observation, les satellites artificiels, bof hein.
[^] # Re: Mon avis
Posté par arnaudus . En réponse au message LLM et offres d'emploi. Évalué à 2.
Les LLMs sont quand même souvent capables de gérer pas mal de choses… Il ne faut pas partir du principe qu'ils ne savent répondre qu'à des requêtes simples.
Par contre, c'est très très difficile de repérer les manipulateurs (ce que tu appelles les escrocs), même pour un professionnel, et je pense que tu peux partir du principe que tu ne les repèreras pas, sauf par exemple si tu as l'impression que le candidat est "trop parfait" (il a deviné tes attentes et y a répondu sans aucun lien avec la réalité). Le seul moyen de confronter un manipulateur c'est des tests d'aptitude en conditions réelles (un entretien en anglais, 10 minutes devant un ordinateur et un bout de code à faire en temps réel et en expliquant, etc), même si un très bon manipulateur peut quand même s'en sortir (en te tirant les vers du nez sans que tu le réalises, ou en t'embobinant sur la raison pour laquelle il n'a pas pu faire le test—il ne faut jamais sous-estimer les capacités des escrocs à se tirer de situations apparemment inextricables). Mais dans les faits, le manipulateur se débrouillera toujours pour que tu n'aies pas recours à de tels tests. Du coup, à mon avis, la seule chose que tu peux faire est de garder en tête que quelles que soient les circonstances, il y a toujours une possibilité pour que la personne en face de toi soit un manipulateur (et surtout, ne jamais se convaincre que le candidat n'en n'est pas un).
[^] # Re: Entrtien techniques
Posté par arnaudus . En réponse au message LLM et offres d'emploi. Évalué à 4.
Je doute que de se servir d'un outil en le cachant à son employeur soit une qualité recherchée… Le test sert peut-être à repérer les champions qui vont copier-coller les rapports confidentiels dans chatGPT pour les traduire parce qu'ils ont pipeauté leur niveau d'anglais dans leur CV? :-)
Tout dépend du contexte, mais produire deux bouts de code, l'un qu'on a sorti spontanément, l'autre qu'on a affiné avec Google et ChatGPT, ça va représenter à la fois son propre niveau et sa capacité à se documenter, tout en mettant en avant l'honnêteté de la démarche et le respect de ses futurs collègues (on ne considère pas l'entretien comme une compétition où l'employeur essaye de piéger les candidats et où les candidats se permettent de tricher sur leurs capacités).
Gruger sur les CV ou les entretiens, ça en dit pas mal sur les gens, leur confiance en eux, la manière dont ils se projettent dans leur job, etc. D'après un DRH avec qui j'en avais parlé, seuls les manipulateurs passent à travers les gouttes, mais c'est un trait de personnalité, pas quelque chose qu'on peut travailler (même si on le veut de toutes ses forces, on ne peut pas devenir manipulateur). Si tu poses la question "est-ce que c'est convenable de pipeauter sur ses capacités professionnelles" sur un forum, c'est sûr que tu es hors de cette catégorie.
[^] # Re: Vraiment ?
Posté par arnaudus . En réponse au journal Entre imitation et biais systématiques : les supercheries de l’intelligence artificielle by chatgpt©. Évalué à 2.
Pour moi, c'est exactement un argument de la cible mouvante. Maintenant, ça ne suffit plus qu'il simule l'intelligence de manière crédible, il faut qu'il puisse prouver qu'il le soit, qu'il soit créatif, qu'il soit meilleur qu'un humain, etc. C'est sans aucune fin. Quand tu ne veux pas admettre que les LLMs remplissent presque toutes les cases d'une intelligence artificielle, tu trouves tout un tas d'excuses pour lui refuser le statut. Je remarque souvent de toutes manières que les détracteurs des LLMs n'ont aucune réelle idée de leurs capacités en pratique. Les arguments sont un peu toujours les mêmes, "ça n'est que des algorithmes de complétion", "ça leur arrive d'halluciner", etc. Ça n'est que des arguments théoriques, et la grande majorité d'entre eux peuvent être facilement démontés en vérifiant par soi-même (comme le coup du jeu de société; l'argument partait du principe même que c'était impossible alors qu'il suffisait de vérifier que c'était parfaitement possible.
[^] # Re: Vraiment ?
Posté par arnaudus . En réponse au journal Entre imitation et biais systématiques : les supercheries de l’intelligence artificielle by chatgpt©. Évalué à 2. Dernière modification le 08 novembre 2024 à 14:29.
Oui, justement, c'est à ce genre de trucs que je pensais : en gros, l'IA arrive à faire quelque chose de pas trop tarte, mais qui reste loin du génie du compositeur initial. C'est tellement prévisible… C'est quand même dommage de ne pas plus insister sur le fait que finalement, ce qu'il fait reste acceptable, et probablement mieux que 99% des humains.
Au passage, dans l'histoire, on s'est souvent accommodés de cas similaires, l'Adagio d'Albinoni a été recomposé au XXe siècle à partir de traces (ce qui ne l'a pas empêché de connaitre un certain succès), et pire encore, le Requiem de Mozart a été terminé par ses élèves (sa femme avait besoin du pognon, et il fallait donc absolument livrer une version terminée); moi je trouve en tout cas que tout ce qui suit le Lacrimosa n'a aucun intérêt… Du coup, finalement, l'IA fait comme un compositeur moyen qui doit finir une oeuvre d'un maitre!
(Je ne fais pas de remarques sur le fait que c'est probablement plus facile d'imiter Beethoven que Bach, mais disons qu'il y a des candidats éventuels pour des compositeurs qui ont pu égaler Beethoven :-) ).
[^] # Re: Vraiment ?
Posté par arnaudus . En réponse au journal Entre imitation et biais systématiques : les supercheries de l’intelligence artificielle by chatgpt©. Évalué à 5.
Je m'auto-réponds, parce que j'ai fait le teste, et chatGPT s'en est très bien sorti. J'ai inventé un jeu pas trop complexe:
Le transcrit est un peu long, mais en résumé, il a très bien compris. À chaque tour, il faisait le décompte d'où étaient les pions. Il ne s'est jamais trompé sur la somme des dés ou sur la case atteinte. Il m'a défoncé, 3 à 1 d'ailleurs, mais je n'ai pas triché avec les lancers et il a eu un peu de chance. Il a fait une seule erreur, à un moment, c'est moi qui suis tombé sur lui et il s'est mis un point, je lui ai fait remarquer et il a corrigé. Il a pris les mêmes décisions que moi sur le lancer des dés (moi je comparais les probas de tomber sur l'autre avec un dé ou deux dés), à la fin je lui ai demandé comment il avait choisi sa stratégie, et il m'a répondu :
C'est finalement très humain, alors que c'est vrai qu'on se serait attendu à un calcul de probabilités. Ceci dit, si quand il dit "prendre de l'avance" il "pensait" mettre son pion à plus de 6 cases du mien, alors il a été plus loin que moi parce que je n'avais pas pensé à ça (je n'ai pas adopté de stratégie défensive).
Bon, en tout cas, en ce qui me concerne, "jouer à un jeu de société", je considère qu'il sait le faire. Il n'a pas mathématisé le jeu, mais il a compris les règles, il les a appliquées, il a fait une erreur qu'il a corrigée quand je lui ai fait remarquer… Ça m'a l'air très très similaire à ce qu'aurait fait un humain dans la même situation.
C'est super-important de tester ses intuitions sur l'IA. J'arrête pas de me "disputer" sur ce forum avec des gens qui disent "ouais mais les LLMs ne savent pas faire ci ou ça" : bah arrêtez de théoriser, faites le test. Qu'es-ce que tu risques à faire le test, à part de te faire douter de tes certitudes?
[^] # Re: Vraiment ?
Posté par arnaudus . En réponse au journal Entre imitation et biais systématiques : les supercheries de l’intelligence artificielle by chatgpt©. Évalué à 3.
Du coup, tu définis une cible, l'ordinateur l'atteint, et tu dis "ah oui mais non, c'est parce qu'il calcule, attends, je vais définir une nouvelle cible", et tu répètes à l'infini. Je trouve que c'est exactement un argument de la cible qui bouge, tu veux que l'ordinateur fasse toujours plus et jamais tu ne prévois de t'arrêter en disant "bon OK, là c'est quand même assez proche de l'intelligence pour que j'accepte de le qualifier d'IA".
Alors, le scoop, c'est que quelque soit les objectifs atteints, ça sera toujours par le calcul (parce qu'un ordinateur ne sait faire que ça). Soit tu pars du principe que l'intelligence ne peut être qu'humaine (dans ce cas, ça ne sert à rien de mettre des critères pour l'ordinateur), soit tu acceptes qu'il y a moyen d'être apparemment intelligent sans reproduire strictement en interne le fonctionnement d'un cerveau, auquel cas les LMMs sont des très bons candidats pour être qualifiés d'IA.
"sans supervision", tu demandes l'impossible. Un humain a besoin de supervision pour passer le bac (il a besoin d'environ 15 ans de supervision 200 jours par an 7h par jour sans compter l'effet de la famille, on est quand même proche de tes 15000 parties), ou pour apprendre un jeu de société.
Je ne l'ai jamais fait, mais je pense que ChatGPT est probablement capable d'apprendre de jouer à un jeu de société. Tu inventes un jeu (pour être certain qu'il n'est pas dans le corpus), tu lui expliques les règles, tu fais une partie avec lui, tu lui expliques éventuellement là où il s'est trompé ou là où il y avait une ambiguité dans les règles, et tu regardes s'il prend à peu près les bonnes décisions. Ça ne m'étonnerait pas qu'il s'en sorte honorablement; si j'ai le temps un jour je ferai un essai.
[^] # Re: Vraiment ?
Posté par arnaudus . En réponse au journal Entre imitation et biais systématiques : les supercheries de l’intelligence artificielle by chatgpt©. Évalué à 6.
Tu as des travaux très intéressants en philosophie de l'esprit (bon, pas beaucoup en France, puisque la philosophie y est ancrée dans une dimension littéraire qui n'a pas beaucoup d'intérêt), qu'il faut distinguer du gloubiboulga médiatique actuel…
Il y a une position que j'ai du mal à comprendre, c'est que la conscience est une propriété émergente d'un cerveau, et que les IA n'ayant pas de cerveau, elles ne peuvent pas par définition avoir de conscience. Je veux dire, c'est cohérent d'une certaine manière, mais je trouve que ça n'a aucun intérêt (la réponse est dans la définition).
Quelque chose de spécialement gênant avec les LLMs, qui est quelque part complètement nouveau dans la reflexion, c'est que les LLMs ne génèrent pas de pensée par eux-mêmes : ils alignent des mots de manière cohérente avec un corpus de référence. Il est donc très tentant de dire qu'ils n'ont aucune intelligence, ils ne font que recopier des patterns qu'ils ont appris et intégrés sans "comprendre" quoi que ce soit (c'est l'argument de la "chambre chinoise"). C'est un argument intéressant, parce qu'il touche profondément à la définition d'intelligence. Quelque part, ça exclut la possibilité d'évaluer l'intelligence par l'étude de la manifestation de l'intelligence (par exemple, par des questions, ou par une observation du comportement). Ce que ça dit, c'est que si tu veux déterminer si quelque chose ou quelqu'un est "intelligent", il faut avoir accès à ses processus internes (IRM pour un cerveau, déboggage pour un algo, etc). C'est un peu bizarre, et c'est totalement contre-intuitif (on sait qu'Einstein était intelligent sans lui faire passer d'IRM).
C'est un truc que j'ai répété plusieurs fois donc je ne vais pas écrire une nouvelle tartine dessus, mais il faut faire attention à ne pas trop changer la définition d'intelligence en fonction des avancées techniques : c'est un raisonnement fallacieux ("la cible qui bouge"). Au XIXe siècle, le summum de l'intelligence c'était le jeu d'échecs; quand les ordinateurs ont commencé à gagner contre les meilleurs humains on a dit "ah oui mais non, en fait c'est que du calcul, donc ça n'a rien à voir avec l'intelligence. Par contre le go ça c'est de l'intelligence". Et puis le go a été maitrisé par les ordis, alors on a encore changé la définition, vers la maitrise du langage par exemple ("la traduction automatique est un processus impossible pour un ordinateur parce qu'il ne comprends pas le contexte", etc). Puis avec les LLMs, la maitrise du langage est quasiment parfaite, donc on va encore changer de cible ("ah oui mais non, le langage il l'a appris en lisant ce que des humains ont écrit [entre nous, j'aimerais bien rencontré la personne qui a appris le langage sans lire ou écouter d'autres humains], il faudrait montrer que les IA ont des capacités créatrices, etc"). Au passage, ça commence à mettre la barre au-delà de ce qu'un humain moyen est capable de faire, parce que certes, chatGPT ne sait probablement pas composer une fugue aussi bien que Bach, mais moi non plus, et aucun des ~ 10 milliards d'humains qui sont nés après Jean-Seb non plus, donc le critère est peut-être un chouilla exigeant…
En fait, les LLMs ont des capacités tout à fait comparables, voire largement supérieures, à ce que les gens du XXe siècle décrivaient quand ils parlaient d'intelligence artificielle. Je trouve qu'il faut pas mal de mauvaise foi pour prétendre qu'il ne s'agit pas de systèmes IA, imparfaits certes, mais qui simulent de manière très convaincante l'expression de l'intelligence par le langage. Ça ne veut évidemment pas dire qu'on va tous perdre notre boulot à cause de ça!
[^] # Re: autre dimension?
Posté par arnaudus . En réponse au lien Pollution du spectre électro-magnétique par l’industrie numérique. Évalué à 2.
À ma connaissance, les gens qui lancent les satellites ne le feraient pas s'il y avait une probabilité pour que tout ça finisse en petits morceaux d'ici quelques années…
Le point clé, c'est évidemment le manque de régulation internationale. C'était une idée apparemment universaliste de dire 'l'espace est à tout le monde', mais évidemment ça a fait que les Russes se sont amusés à dégommer des cibles dans l'espace en créant des gazillons de débris, que les Chinois abandonnent leurs étages de fusées en orbite basse sans les désorbiter… Il existe des "bonnes pratiques", mais le respect des bonnes pratiques, c'est pas obligatoire. En plus, c'est une bonne pratique de désorbiter les satellites, mais évidemment ça éjecte quand même des particules dans l'atmosphère, c'est pas top.
De toutes manières, je ne dis pas que c'est une bonne idée d'envoyer des flottes de dizaines de milliers de satellites, parce que je ne suis pas sûr de comprendre le problème que c'est censé régler. Mais quand l'argument principal est "ne faites pas ça ils vont se rentrer dedans", et que les industriels prouvent par la pratique qu'ils maitrisent suffisamment les trajectoires et les prévisions de collisions pour qu'en pratique ça n'arrive pas, bah l'argument ne tient plus.