arnaudus a écrit 4596 commentaires

  • [^] # Re: débat ouvert...

    Posté par  . En réponse au journal On efface la communauté du libre. Évalué à 3. Dernière modification le 29 novembre 2023 à 19:07.

    Les articles ont aussi des critères d'admissibilité. Il faut plusieurs sources secondaires et centrées, et apparemment, personne n'est capable d'en fournir. Il y a des sources primaires (les infos sur les sites en question, les interviews des créateurs), des sources secondaires non-centrées (par exemple, des articles sur les associations du libre, avec une mention entre parenthèse comme un exemple), mais apparemment pas de sources secondaires centrées. Pour avoir pas mal pratiqué Wikipédia, c'est un signal clair qu'un sujet n'est pas notable: personne n'a trouvé bon d'écrire quoi que ce soit dessus : un article, un reportage, un billet, un mémoire de stage, rien de tout ça. Les seules informations pour écrire l'article viennent du site lui-même ou des créateurs / participants à l'association, ce qui n'est pas valable pour Wikipédia.

    Il n'y a aucun "mérite" à apparaitre dans Wikipédia. L'existence d'un article n'est pas liée à un jugement objectif sur la valeur de l'objet de l'article, c'est juste une conséquence de sa notoriété. Un participant à un show de TV réalité pourra être admissible, alors qu'un scientifique ne le sera pas, simplement parce qu'il y a des informations secondaires disponibles pour écrire un article sur le premier, et pas sur le deuxième.

    À noter que les pages à supprimer ne sont pas des "votes". Si les avis "conserver" ne sont pas argumentés (avec des arguments recevables en termes d'admissibilté", la page peut être supprimée (et inversement).

  • # Les années passent, rien ne change

    Posté par  . En réponse au journal On efface la communauté du libre. Évalué à 3. Dernière modification le 29 novembre 2023 à 11:33.

    En fait, ça fait 20 ans que je n'ai plus le temps de contribuer à Wikipédia, mais il y a quelque chose qui ne change pas: la plupart des utilisateurs ponctuels du site n'ont aucune idée de ses principes et de son fonctionnement, mais tous ont des certitudes sur ce que Wikipédia devrait être.

    Dire que Wikipédia devrait conserver des articles sur le "libre", parce qu'elle doit beaucoup au libre, c'est ne rien avoir compris à son fonctionnement. Et quand je dis "rien", c'est vraiment "rien". Cette proposition revient à affirmer qu'une fonctionnalité buggée et inutile dans un logiciel libre devrait être conservée dans le "main" parce que c'est du code libre. C'est n'importe quoi.

    La communauté qui fait tourner le site de Wikipédia a des règles; elles sont complexes, elles sont parfois discutables et sujettes à interprétation, certaines ont été mises en place il y a très longtemps et ne sont plus forcément adaptées, etc. Mais ces règles ont une histoire, et arriver comme un débile en hurlant que les règles c'est pour les nazis et que Wikipédia est libre, ça en dit beaucoup plus sur le pseudo-contributeur que sur le fonctionnement de Wikipédia.

    En particulier, Wikipédia s'est donnée pour mission de répertorier du savoir documenté. Wikipédia n'a pas de limite de taille théorique, mais elle a des critères de notoriété et de vérifiabilité des informations disponibles. Par exemple, le fait qu'il y ait eu une panne d'électricité à Trifouillis les Oies entre 12h et 14h le 17 novembre 1987, ça peut être vérifiable (par exemple par un article du journal local), mais l'information est trop anecdotique pour exister dans Wikipédia. Parallèlement, une information hautement importante (la corruption d'un responsable politique par exemple) ne peut être dans Wikipédia sans qu'elle soit corroborée par une source à laquelle on peut l'attribuer (article de journal, reportage TV…). Un témoignage direct par exemple n'est pas recevable, même si évidemment le contributeur est sûr de la véracité de son histoire, et même s'il parvient à convaincre les autres utilisateurs de Wikipédia.

    Il y a plusieurs choses à comprendre sur les suppression de pages. D'une part, si Wikipédia n'a pas de limite théorique au nombre d'articles, elle a une limite pratique, celle de la maintenance. Il y a toujours des choses à maintenir (lutte contre le vandalisme, mise à jour des informations, modifications techniques pour suivre les changements de charte graphique, de règles, etc); les articles anecdotiques peuvent peser sur les capacités limitées de la communauté. Il faut donc voir la suppression d'un article qui ne correspond pas aux critères comme une bonne nouvelle, la capacité s'assainir la base d'articles pour ne pas se retrouver avec une dette technique ingérable.

    Il y a aussi le fait que de nombreux articles qui datent de plus de 20 ans peuvent ne plus correspondre aux critères d'admissibilités actuels. Au début de Wikipédia, tout était en brouillon, il y avait une certaine tolérance envers les "stubs", les articles "bouchons" qui ne contenaient rien (l'exemple classique, c'est l'article "Pomme", qui contenait dans sa première version "La pomme est un fruit"). L'idée, c'est que ces ébauches étaient destinées à évoluer. Or, celles qui n'ont pas bougé en 20 ans, qui n'ont pas été confirmées par des sources externes et vérifiables, ne peuvent plus prétendre à ce statut: il y a de très fortes chances pour que plus personne ne modifie jamais ces articles indigents, qui resteront à jamais inachevés. Il y a toujours eu des discussions entre les "inclusionnistes" et les "suppressionnistes", mais comme dans un logiciel, il est toujours pertinent de se demander s'il ne faut pas supprimer des bouts de code qui ne servent pas et qui restent dans la base pour des raisons historiques. Et si quelqu'un (un développeur potentiel, un client, un étudiant?) tombait dessus, par hasard? Quel impact sur l'image de l'ensemble du projet? Comment détecter les vandalismes, les anachronismes, dans des articles que personne ne consultent jamais? Comment justifier le fait qu'il est interdit selon les nouvelles règles de créer des articles dont l'état serait plus convainquant que des articles qui existent déja?

    Tout ça pour dire que

    1) la moindre des choses, c'est de laisser à ceux qui travaillent vraiment sur Wikipédia au quotidien de décider du fonctionnement de leur projet, ceux qui gueulent sans savoir de quoi ils parlent ne vont pas aller mettre à jour et maintenir les articles qu'ils voudraient garder pour des questions de principe, c'est juste qu'ils voudraient que quelqu'un bosse gratis pour flatter leurs idées sur ce que devrait être Wikipédia
    2) Wikipédia, c'est une communauté et une encyclopédie. L'encyclopédie est libre; vous pouvez récupérer le contenu des articles qui vont être supprimés et héberger votre "Crap-ipedia" qui contiendra tout un tas d'artiles pourris sur des trucs qui vous rappellent votre adolescence. La communauté est par contre constituée de gens, elle est ouverte (n'importe qui peut en faire partie) mais l'intégrer n'est pas "de droit", surtout si c'est pour arriver avec de gros sabots pour expliquer que les règles communautaires sont pourries. Comme pour beaucoup de logiciels libres, en fait.
    3) Il y a autant de conceptions du libre que de libristes. Je ne sais pas comment on peut être assez naïf ou péremptoire pour aller dire à la communauté de Wikipédia "Le libre c'est comme ci comme ça, vous n'avez rien compris au libre", etc. En fait, j'ai même l'impression que c'est celui qui va expliquer "vous n'avez rien compris au libre" qui n'a rien compris au libre; le libre c'est justement aussi une grande diversité de conception des principes (copyleft ou pas, communauté ou pas, etc). Wikipédia est publiée sous licence libre, elle est libre, et ses contributeurs ont "tout compris" au libre. Tout le monde peut avoir une autre conception du libre, et quand on pense que Wikipédia est mal barrée, qu'elle ne peut pas marcher, que ses admins sont des nazis, qu'elle se tire une balle dans le pied, qu'elle ne devrait pas faire autant de pub pour les appels aux dons, qu'elle devrait accepter plus d'articles ou moins d'articles, qu'elle devrait montrer de la reconnaissance, ou qu'elle devrait faire n'importe quoi qui vous passe par la tête, alors il faut montrer que vous-même avez compris la seule chose qu'implique le libre: possibilité (i): on se sort les doigts et on forke; possibilité (ii): on retourne mouler sur linuxfr et on ferme sa tronche.

  • [^] # Re: Pour combien de temps ?

    Posté par  . En réponse au lien À ce jour, toutes les intelligences artificielles butent sur les maths . Évalué à 2. Dernière modification le 28 novembre 2023 à 10:41.

    Il me semble que "The House of the rising sun" est mondialement plus connu dans ses différentes versions anglaises

    Tu es en train de débattre si on peut dire "Y est une chanson de X" quand Y est une reprise? Même Wikipédia ne semble pas cohérente en fonction des langues :
    "My Way" is a song popularized in 1969 by Frank Sinatra" vs "La chanson My Way est l'adaptation en anglais de la chanson Comme d'habitude, écrite par Jacques Revaux, Claude François et Gilles Thibaut, et interprétée à l'origine, en 1967, par Claude François". J'imagine qu'un bête chauvinisme suffit à expliquer la divergence :-)

    Pour The house of the rising sun, Wikipédia semble empêtrée dans un conflit d'édition idiot sur l'antériorité. La version des Animals, avec les arpèges en triolets, qui est largement plus populaire que cette de Van Ronk et de Dylan, a été enregistrée à la même époque, et apparemment, complètement indépendamment.

  • [^] # Re: Pour combien de temps ?

    Posté par  . En réponse au lien À ce jour, toutes les intelligences artificielles butent sur les maths . Évalué à 5.

    C'est juste que c'est assimilé à un bug, alors que c'est le comportement normal.

    Je ne sais pas ce que tu appelles "le comportement normal". ChatGPT est une interface d'accès au modèle de langage GPT. Si j'ai bien compris le fonctionnement du truc, GPT ne sait faire que compléter un texte. Tu lui donnes un bout de texte, et il continue tout seul, comme le ferait un outil de complétion sur un téléphone. Par exemple, "Les portes du pénitentier" va être continué par "bientôt vont se refermer" ou "est une chanson de Johnny Halliday". Comme ça, ça n'est pas très utilisable. ChatGPT va donc "invoquer" GPT avec des instructions (pas du code, du texte brut en Anglais), du type "nous sommes dans un chat de discussion avec deux interloculeurs, le texte des réponses devra être comme ci comme ça, de telle longueur, le ton doit être cordial", etc. Les premières versions de l'invocation étaient connues (parce que chatGPT les répétait naïvement quand on les lui demandait :-)), mais depuis c'est secret, on sait juste qu'il y en a pour plusieurs pages. Du coup, avec ces pages d'invocation, il n'y a rien de "normal": ça n'est pas du tout la nature de GPT de simuler un chat de discussion, s'il n'y avait pas cette invocation, GPT continuerait simplement le texte, ce qui serait super bizarre ("Bonjour" pourrait être suivi de "tout le monde", ou "je me permets de vous contacter pour faire une réclamation sur la qualité des biscottes que j'ai achetées à Leclerc", n'importe quelle phrase qui aurait du sens après "bonjour", et pas nécessairement une simulation de discussion).

    Bref, chatGPT est un simulateur de chat, et il a des pages complètes d'instructions pour lui donner le cadre des réponses qu'il doit fournir. Répondre poliment, éviter les propos polémiques, etc. rentrent dans le cadre des instructions, et les responsables du site décident de la manière dont il doit interagir avec les utilisateurs. C'est plus une histoire de pertinence que de censure, pour éviter qu'il parle de n'importe quoi.

    Comme je l'ai écrit au dessus, le cadre juridique n'existe pas, donc on ne peut que spéculer, mais j'imagine qu'il est tout à fait possible que les juristes d'OpenAI considèrent qu'OpenAI est responsable de publication sur ce site. Facebook essaye toujours de se faire passer pour un hébergeur, et pas pour un éditeur, parce que les textes sont écrits par d'autres êtres humains qui peuvent être tenus responsables des dérapages. Pour ChatGPT, personne ne peut être tenu pour responsable à part l'hébergeur du site, c'est donc logique qu'ils souhaitent éviter les propos illégaux (insultes, négationnisme, contrefaçon, exercice illégal de la médecine, etc). Si tu crées un robot qui colle des baffes au hasard aux passants dans la rue, tu vas être tenu pour responsable, même si tu peux montrer le code qui fait que le robot choisit aléatoirement ses victimes (ou même s'il ne colle des mandales qu'à ceux qui lui parlent mal, d'ailleurs). Là c'est pareil, ça n'est pas parce que tu ne contrôles pas ton chatbot que tu peux t'exonérer de ta responsabilité.

  • [^] # Re: Pour combien de temps ?

    Posté par  . En réponse au lien À ce jour, toutes les intelligences artificielles butent sur les maths . Évalué à 4.

    si tu cherches à faire une fiction futuriste avec le retour de la vengeance du sus-nommé

    Je pense que c'est surtout un histoire de responsabilité. Ce n'est pas le logiciel d'AI qui a un problème, c'est l'interface publique sous forme de chat. J'imagine que tu peux très bien concevoir qu'un accès payant ou professionnel à chatGPT ne possède pas de telles restrictions, mais que le site (l'interface) qui permet d'interagir avec chatGPT doit implémenter ce genre de sécurité.

    C'est aussi normal d'avoir ce genre de limite pour les avis médicaux, les avis juridiques, etc. Tu ne peux pas risquer d'avoir un chatBot qui raconte des trucs incontrôlés à un dépressif qui vient de faire une tentative de suicide, ou qui te donne les meilleurs conseils pour dissoudre un corps dans l'acide fluorhydrique. Juridiquement, j'imagine que l'hébergeur du site qui propose le service de chat est responsable du contenu publié, il ne peut pas se retrancher derrière la responsabilité des utilisateurs du service comme Twitter ou Youtube.

    Et puis il y a une question d'image. Je ne sais pas si tu te rappelles, mais les premiers mois après l'ouverture au public de chatGPT, il y a eu des centaines d'articles ou de commentaires de très mauvaise foi prétendant que chatGPT était raciste, misogyne, etc., sans expliquer qu'il fallait contourner les sécurités naïves existantes (typiquement, via ces histoires de jeu de rôle). Je n'ai jamais vu chatGPT partir en vrille en demandant si les noirs étaient destinés à être esclaves, mais par contre tu pouvais lui demander d'écrire un discours qui aurait pu être prononcé par un esclavagiste pour défendre l'esclavage, et un coup de copier-coller plus tard tu avais ton article "chatGPT est raciste, les dangers de l'intelligence artificielle", etc. C'est d'ailleurs assez impressionnant qu'il n'a pas semblé très difficile de bloquer la plupart de ces tentatives de manipulation; il a par contre été nécessaire de faire en sorte que chatGPT ne récite plus le texte d'invocation du bot quand on le lui demandait, parce que ça rendait le contournement particulièrement facile.

  • [^] # Re: AX

    Posté par  . En réponse au lien Sans l'engouement pour les SUV, les émissions des moteurs auraient pu baisser de 30% . Évalué à 5.

    Les normes interdisent les moteurs 2T, qui pourtant pourrait résuire de façon importante les émissions de CO2, si on avait le courage d'investir dessus.

    Avec l'interdiction des moteurs thermiques qui se profile, je ne vois pas l'intérêt d'investir sur des gains marginaux de moteurs 2T. Sans compter que par conception les 2T ont un rendement inférieur (une partie de l'essence n'est pas brûlée), donc je ne comprends pas où tu veux en venir. Pour être exact, je ne comprends pas où tu veux en venir avec toute cette discussion; tu as l'air de chercher des raisons pour expliquer que les moteurs thermiques modernes sont problématiques, en listant des souvenirs personnels des années 1990 qui ne paraissent pas exacts: les voitures des années 1990 étaient en effet plus légères, parce que plus petites, moins confortables et moins sécurisées, mais leurs moteurs n'étaient pas très bons (ni en rendement, ni en pollution). Au final, les grosses bagnoles modernes, malgré un poids et un Cx supérieurs, consomment sensiblement la même chose, rejettent sensiblement autant de CO2, et polluent beaucoup moins pour le reste (particules, NOx, hydrocarbures imbrûlés, plomb, etc), parce que leurs moteurs sont bien meilleurs et frôlent les rendements optimaux. Donc il n'y a quasiment plus de marge sur les rendements; il y aurait de la marge sur les tailles de véhicules mais ni les constructeurs ni les consommateurs ne le veulent, donc ça va être très casse-pied à changer. L'interdiction à terme des moteurs thermiques est quasi-certaine (et c'est une très bonne chose, puisque pour réduire les émissions de CO2, il faut complètement arrêter de brûler des énergies fossiles), donc gagner des pouillèmes de rendement est inutile et démesurément coûteux.

    Bien sûr, tu peux toujours rêver que les petits tape-culs des années 1980, type AX ou 107, étaient des voitures extraordinaires qui consommaient 2L/100 à 180km/h sans polluer, mais c'est probablement la même chose que la sensation que la musique de notre adolescence était la meilleure de tous les temps, c'est un phénomène psychologique qui n'a rien à voir avec la réalité. L'avenir est certainement vers plus de petites citadines électriques, mais à mon avis il va falloir une sacrée baisse des prix pour qu'on se dirige dans cette direction, parce que payer plus cher une voiture plus petite et moins confortable, ça risque de poser problème pour pas mal de monde.

  • [^] # Re: Pour combien de temps ?

    Posté par  . En réponse au lien À ce jour, toutes les intelligences artificielles butent sur les maths . Évalué à 4.

    L'histoire est amusante, mais ça n'est pas un problème général avec les AI qui jouent au Go. Si j'ai bien compris, les auteurs de l'étude ont fait jouer un programme faible 1 million de fois contre Katago (une sorte de clone d'AlphaGo), et ont pu identifier une partie ou Katago avait un bug (il passe son tour dans une position gagnante à long terme, mais perdante dans l'instant; du coup si on adversaire passe aussi Katago perd). Ils ont ensuite pu reproduire ce bug en jouant "à la main".

    Il ne s'agit donc pas de jouer mal pour destabiliser le programme IA, il s'agit de jouer mal d'une manière très spécifique pour exploiter un bug (si je comprends bien, le bug est dans la fonction d'évaluation, parce que l'IA ne sait visiblement pas compter les points).

    Ça me semble assez similaire aux premiers bugs de ChapGPT, où il suffisait de lui proposer un jeu de rôle où il jouait Hitler pour le voir proférer des pages d'insultes antisémites. Les IA "naives" semblent assez sensibles à la manipulation, et il faut une période de débuggage pour boucher ces trous.

  • [^] # Re: Pour combien de temps ?

    Posté par  . En réponse au lien À ce jour, toutes les intelligences artificielles butent sur les maths . Évalué à 3.

    Un ordinateur qui jouerait « vraiment » au poker devrait être en mesure d’analyser ce qui relève du langage corporel, de l’aspect comportemental…

    En fait, on ne parle peut-être pas de la même chose.

    Si l'expérience consiste à mettre une AI à une table de poker pleine d'humains, alors l'AI va gagner, mais il est possible qu'un humain assis à cette table gagne plus souvent, justement parce qu'il serait capable d'avoir des informations sur les autres joueurs auxquelles l'AI n'a pas accès.

    Si l'expérience consiste à opposer une AI à des humains, alors l'AI gagnera.

    On s'entend bien, "gagner", c'est en moyenne. L'aléatoire dans le poker fait qu'évidemment, on peut parfois perdre en jouant mieux.

    Quand je parle de probabilités c’est avec une prise en compte non seulement des probabilités de tirage, mais aussi du montant des mises, des tapis des joueurs et des mains précédentes connus du joueur

    Il ne fait aucun doute qu'un AlphaPoker utiliserait toutes les informations disponibles pour affiner sa stratégie. Mais c'est vrai qu'il y a quelque chose qui change par rapport aux échecs, certaines subtilités stratégiques ne pourront pas être ajustées par des entrainements entre AI (je pense par exemple à la prise en compte du temps de reflexion).

  • [^] # Re: AX

    Posté par  . En réponse au lien Sans l'engouement pour les SUV, les émissions des moteurs auraient pu baisser de 30% . Évalué à 6.

    J'avais une 106 XN, de 98. Un 1l1, achetée d'occasion. Je l'ai gardée 12 ans, je n'ai jamais eu de problème, je roulais à 180 dans le Morvan (sur l'A6, dans la côte, à l'époque on s'en foutait de la vitesse, de la clope, et de la ceinture, surtout moi). Elle consommait dans les 5l, c'était une voiture d'occasion, avec un moteur conçu au début des années 90.

    La résistance de l'air augmente avec le carré de la vitesse. À 180 km/h, on consomme entre 3 et 4 fois la conso à 90 km/h. Du coup, ta voiture avec un moteur de 1990 consommait 1.5 L/100 km à 90 km/h? Ou elle violait les lois de la physique?

    Soit on a regressé d'un facteur 3 en rendement de moteurs thermiques en 30 ans, soit tes souvenirs sont… douteux. Ta voiture, à 180 km/h, devait consommer 12 à 14L/100km, comme à peu près toutes les voitures à 180 km/h.

    Au passage, ce que tu appelles "les normes", genre les trucs pondus par des bureaucrates idiots, ont contribué à réduire la mortalité routière de 16000 à 4000 morts par an.

    les moteurs n'ont pas suivi.

    La consommation augmente avec la cyclindrée, donc c'est plutôt bien pour la conso que le rapport poids/puissance n'a pas suivi. Ou alors je n'ai pas du tout compris où tu voulais en venir.

    D'une manière générale, le poids améliore le confort et la tenue de route; si tu essayes plusieurs voitures c'est toujours la plus lourde qui semble la plus stable et qui donne le plus confiance. J'imagine que c'est un paramètre pas du tout négligeable dans le choix d'une voiture…

  • [^] # Re: AX

    Posté par  . En réponse au lien Sans l'engouement pour les SUV, les émissions des moteurs auraient pu baisser de 30% . Évalué à 10.

    Je crois qu'une AX des années 80 / 90 c'était 3 litres au 100…

    Non. J'ai eu une AX diesel, et la consommation était d'environ 4 à 5L/100km (exemple de source: https://www.histo-auto.com/fr/actualite/1066/citroen-ax-thalassa-la-meilleure-voiture-du-monde). Le rendement des moteurs s'est énormément amélioré ces 40 dernières années; il est possible qu'une voiture telle que l'AX ait actuellement une conso de 3L/100, mais ça n'était pas le cas à l'époque.

    De même, le diésel est 30 % plus efficace que l'essence

    Rendement moteur diesel: 42%, essence: 36%, soit 16% de mieux pour le diesel (source: https://www.ifpenergiesnouvelles.fr/enjeux-et-prospective/decryptages/transports/les-vehicules-essence-et-diesel).

    Note que comme le diesel émet d'autres gaz à effet de serre, les émissions en CO2 d'un diesel sont réduites de 11% par rapport à l'essence, mais seulement de 6% en équivalent CO2. Changer une essence contre un diesel, c'est l'économie moyenne d'un an (environ -5%) par rapport aux objectifs de l'accord de Paris. Il va falloir trouver autre chose.

    en tout cas bien plus écolo que le couple batterie / renouvelable

    En cycle total (fabrication et utilisation), une voiture électrique c'est environ -50% d'équivalent CO2 par rapport à une thermique. Il faut arrêter le délire sur ces histoires de rendement; c'est clair que le rendement d'un moteur thermique ne peut pas dépasser de beaucoup les 40% à cause de contraintes thermodynamiques, et jamais on n'arrivera par le gain de rendement à -5% par an. Il n'y a qu'un moyen d'arrêter de rejeter du CO2, c'est d'arrêter de brûler des combustibles fossiles. "Brûler un peu moins" n'est pas une réponse adaptée aux enjeux. C'est parfois possible technologiquement de brûler moins en gardant une utilisation à peu près équivalente (par exemple, voiture électrtique), et parfois, la solution technologique n'existe pas (avion), auquel cas il faudra juste cesser d'utiliser cette technologie.

  • [^] # Re: Pour combien de temps ?

    Posté par  . En réponse au lien À ce jour, toutes les intelligences artificielles butent sur les maths . Évalué à 5.

    D'une manière générale, on est rarement arrivés à un objectif d'ingénierie en simulant la solution biologique connue. Par exemple, on sait faire voler plein de trucs, mais ils ne volent pas comme un insecte ou une chauve-souris. On sait faire avancer plein de trucs, mais ils ne marchent pas avec des pattes. Bien souvent d'ailleurs, les contraintes biologiques et le processus de sélection naturelle sont limitants; le rendement des cellules photovoltaïques est bien meilleur que le rendement de la photosynthèse (~ 10%), le rendement du mouvement d'un vélo est bien supérieur à celui de la course (la roue, c'est super), etc.

    Du coup, je ne suis pas du tout convaincu que la simulation du fonctionnement d'un cerveau est la voie à suivre pour mettre au point des outils d'AI. Les algorithmes qu'on appelle "réseaux de neurones" sont d'ailleurs assez différents, du point du vue du fonctionnement, des vrais neurones. Il semble tout à fait probable que la manière la plus efficace de créer des ordinateurs qui semblent "penser" ne ressemble pas à une simulation de cerveau.

  • [^] # Re: Pour combien de temps ?

    Posté par  . En réponse au lien À ce jour, toutes les intelligences artificielles butent sur les maths . Évalué à 3. Dernière modification le 25 novembre 2023 à 11:21.

    Sans parler du caractère évolutif du cerveau des êtres vivants. Qui peut imaginer un cerveau (un hardware j’entends) artificiel aussi évolutif ?

    Si ton argument, c'est qu'on n'est pas fichus pareils qu'un ordinateur, c'est dur de s'y opposer. Par contre, si on admet un point de vue matérialiste (la conscience est une propriété émergente de l'organisation et du fonctionnement des neurones), alors j'ai du mal à comprendre pourquoi la conscience devrait être associée à un support ("hardware") particulier. Si on simulait l'activité du cerveau avec un gros ordinateur, tu admettrais qu'il soit conscient ou non?

    Si par "évolutif" tu veux dire "plastique", alors oui, un cerveau est plus plastique qu'un ordinateur (en particulier, la mémoire est encodée par la structure des connexions, ce qui est très différent d'un ordinateur). Par contre, ça n'est pas du tout clair pour moi en quoi cette plasticité serait un avantage ou un inconvénient pour l'émergence de la conscience.

    Vous avez saisi : le cerveau du plus bête des mammifères est une machine infiniment plus complexe que le plus abouti des supercalculateurs que nous pouvons espérer développer.

    Je ne pense pas que ça soit vrai. La quantité d'informations à intégrer n'est pas si grande que ça. Les capteurs sont assez mauvais (résolution des yeux, sensibilité des oreilles, etc), et sans vérifier, le nombre de capteurs total me semble probablement du même ordre de grandeur que sur une navette spatiale (et les capteurs d'un vaisseau spatial sont plus sensibles, plus robustes, plus précis que les capteurs biologiques).

    Un être doué de conscience comme nous le sommes (enfin vous surtout), ne peut pas générer un être d’une conscience équivalente.

    Ça me semble être une version "meta" de l'argument fallacieux du Dieu créateur, non? (on observe un truc X d'une certaine complexité, il existe donc nécessairement un créateur plus complexe que X pour avoir créé X). Pourtant, on peut fabriquer des calculatrices qui calculent plus vite que nous, ou des algorithmes qui jouent mieux aux échecs, c'est même presque dans la définition d'un outil que d'être capable d'être plus efficace à une tâche que celui qui l'a fabriqué.

    En fait, ce qui est important à mon avis dans la discussion, c'est la possibilité de créer des programmes qui donnent l'illusion de l'intelligence ou de la conscience. Selon ton point de vue métaphysique, tu peux décider de doter ou non ces programmes de l'attribut "conscient", mais ça ne change pas ce que le programme fait ou comment il interagit avec toi, sa capacité à remplacer les êtres humains dans certaines tâches, ou contribuer à l'avancée des connaissances.

    Il faut aussi réaliser que finalement, ça n'est pas vraiment nécessaire que ces outils simulent la conscience, on veut juste la plupart du temps qu'ils simulent l'intelligence. Tu te fous pas mal que l'ordinateur de bord de ta voiture du futur soit capable de disserter sur son existence ou sur le sexe des anges; par contre, tu voudrais qu'il puisse t'assister quand tu penses à autre chose et que tu arrives trop vite dans un virage, ou se rendre compte que tu es en train de rater ta sortie sur l'autoroute. Il est possible que la conscience ou l'illusion de conscience arrive automatiquement avec l'intelligence (en tout cas pour les modèles de langage), mais je ne suis pas persuadé que c'est nécessairement le cas.

  • [^] # Re: Pour combien de temps ?

    Posté par  . En réponse au lien À ce jour, toutes les intelligences artificielles butent sur les maths . Évalué à 6. Dernière modification le 25 novembre 2023 à 00:56.

    Sans IA, un « bête » programme informatique qui joue en fonction des probabilités, qui ne connaît ni la fatigue, ni le stress, ni le bluff, peut facilement battre énormément d’humains.

    Un bon joueur va exploser un programme qui joue en fonction des probabilités, ça sera très facile de deviner son jeu. Mais honnêtement, je ne vois pas comment un alphaPoker correctement entraîné ne pourrait pas plumer tout joueur humain; justement, un programme qui s'entraine contre lui-même va apprendre à rendre son jeu imprévisible.

    Les ordinateurs surpasseront les humains dans énormément de domaine, comme ils l’ont toujours fait, mais « développer une conscience » j’en doute.

    En simplifiant, tu as deux lignes de pensée. Soit tu crois que la conscience est un phénomène biologique propre au cerveau, quelque chose qui ne peut qu'être une expérience subjective, défini par des "qualia" (la sensation subjective d'avoir une conscience). Dans ce cas, la question n'existe pas vraiment: par définition, un ordinateur ne peut avoir de conscience, au mieux, il simulera la conscience de manière convaincante, mais ça ne sera pour toi qu'une mystification, parce qu'il est impossible qu'il ait un état interne que tu accepterais d'appeller "conscience". Soit tu admets que la question de si quelqu'un ou quelque chose d'autre que toi n'est pas décidable (tu n'as pas accès aux qualia des autres), et tu acceptes alors d'appeler "conscient" quelque chose ou quelqu'un qui agit comme s'il avait une conscience. Dans ce cas, un ordinateur pourrait avoir une conscience, même si tu sais que ça n'est qu'une propriété émergente d'un courant qui circule dans un processeur.

  • [^] # Re: Pour combien de temps ?

    Posté par  . En réponse au lien À ce jour, toutes les intelligences artificielles butent sur les maths . Évalué à 9.

    Et pour le Go, les joueurs humainssavent à nouveau vaincre les ordinateurs, il suffit de jouer des coups évidents qu'un joueur humain contrerait immédiatement, et qui n'apparaissent t donc jamais dans les jeux de données sur lesquels l'ordinateur a été entraìné. Ce qui fait qu'il ne sait pas les bloquer.

    Tu as une source pour ça? Ça n'est pas du tout comme ça que fonctionne alphaGo (il s'améliore contre lui-même, il n'apprend pas du tout à partir d'une base de données). A priori, ce mode de fonctionnement le protège complètement de ce genre de martingales.

    ce qui a conduit kasparov à croire qu'il avait raté un truc.

    C'est la version de Kasparov, mondialement connu pour être bon perdant. Comme depuis aucun champion d'échec n'a jamais battu un ordinateur, et que les ordis d'aujourd'hui mettent 1000 points ELO aux meilleurs humains, je pense qu'on peut conclure avec pas mal de certitude que Kasparov vs Deep Blue marque à quelques mois près le moment où les ordinateurs sont devenus pour toujours meilleurs que les humains aux échecs.

    La capacité à faire des calculs mathématiques fiables, à ne pas inventer des références qui n'existent pas, etc, ce n'est simplement pas possible avec cette technologie.

    L'histoire des références qui n'existent pas me semble très largement résolue dans les dernières versions de ChatGPT, apparemment, c'est quelque chose qui peut être paramétré (peut-être dans l'invocation du bot). Pour les maths, c'est théoriquement impossible qu'un modèle de langage soit mathématiquement fiable (dans le sens d'un assistant de preuve, ou quelque chose dans le genre). Par contre, si tu entraines ChatGPT sur des milliards et des milliards de sorties de Wolfram au lieu de l'entrainer sur facebook et Twitter, je pense qu'il va réussir à résoudre pas mal d'équations différentielles…

    En fait, ça semble de plus en plus dur de piéger chatGPT avec des problèmes mathématiques ambigus (du style "combien de mois faut-il à 9 femmes pour faire un bébé"). C'est évidemment possible, mais il faut trouver des problèmes qu'il ne connait pas, parce que quand il connait, il répond de manière très convainquante:
    "Bonjour! La durée nécessaire pour faire un bébé ne change pas en fonction du nombre de femmes impliquées. Chaque grossesse individuelle prend généralement environ 9 mois, quel que soit le nombre de personnes concernées. Le processus biologique de la grossesse suit son cours indépendamment du nombre de femmes impliquées. Ainsi, même si 9 femmes sont impliquées, chacune d'entre elles aura toujours besoin de 9 mois pour mener à bien une grossesse."

    Je viens de faire un essai, ChatGPT a 4/5 sur des problèmes de maths de CM2, par exemple. Il a fait une erreur d'un facteur 10 sur une multiplication, c'est étonamment humain comme erreur! Mais bon, il n'est pas "nul" en maths, il a probablement un niveau équivalent à un humain moyen. J'ai fait un essai il y a quelques mois avec ma femme qui est enseignante, ChatGPT aurait largement le bac avec mention. Peut-être pas terrible en maths, mais excellent en français, philo, histoire-géo, et SVT. Il faut bien comprendre que quand on dit qu'il n'est pas au niveau des humains, il n'est pas au niveau des meilleurs humains: il ne peut pas rendre un travail universitaire créatif, il ne peut pas écrire un bon roman, il ne peut pas composer une fugue intéressante, etc. Mais moi non plus je ne peux pas composer une fugue!

    Ceci dit, vu son mode de fonctionnement, c'est difficile d'imaginer comment il pourrait être meilleur que les meilleurs humains à une tâche spécifique. Il peut par contre probablement être un peu en dessous des meilleurs humains pour tout un tas d'activités, ce qui est quand même assez remarquable.

  • [^] # Re: Elon

    Posté par  . En réponse au journal SNCF/RATP et X (Twitter). Évalué à 3.

    Mais ce n'est pas ce parasite dégénéré […] qui en paiera les conséquences.

    Je ne sais pas exactement ce que tu appelles "payer les conséquences", mais Twitter a perdu plus de la moitié de sa valeur. Musk a donc déja "payé" plus de 20 milliards de dollars pour sa gestion approximative de l'entreprise. Et pour le coup, c'est vraiment de l'argent "évaporé", il a acheté un truc qui n'en vaut plus que la moitié un an après.

    Bien sûr, il lui reste un tas de fric, et des fusées, et tout un tas de trucs, mais même pour lui, ça a dû lui faire un sacré trou dans le portefeuille, il a littéralement "payé" les conséquences.

  • [^] # Re: Le monde change !

    Posté par  . En réponse au lien Mon premier kit de télétravail (via TechTrash). Évalué à 7.

    Une autre option, ce serait de laisser les enfants être des enfants. Pourquoi vouloir les habituer si tôt à travailler ?

    C'est exactement ce que tu refuses de faire. Ce truc est un jouet, ça n'est pas pour "les habituer à travailler". Tu calques ta grille d'interprétation d'adulte sur un truc innocent, et tu en fais toute une montagne. Si tu vas par là, les petites voitures sont pour habiter les enfants à claquer la moitié de leur salaire dans un objet qui brûle du pétrole, les chateaux de chevalier c'est pour les habituer à faire la guerre dans un monde post-apocalyptique, et les poupées barbie c'est pour entrainer les petites filles à jouer aux escort-girls?

    En caricaturant à peine, je me permets quand même de te faire remarquer que tu es en train de plaindre les enfants qui peuvent "jouer à travailler" avec des jouets en plastique fabriqués par des enfants qui travaillent pour de vrai. Si tu veux mon avis, tu te trompes un peu de combat…

  • [^] # Re: Le monde change !

    Posté par  . En réponse au lien Mon premier kit de télétravail (via TechTrash). Évalué à 7.

    Je pense que c'est l'histoire de s'offusquer pour pas grand chose. L'utilité principale de ces jouets est de permettre aux enfants d'imiter leurs parents sans utiliser les objets lourds, dangereux, ou coûteux que les parents ne veulent pas prêter. Ça vaut pour la voiture, le fer à repasser, la scie sauteuse, ou le dernier iMac.

    Ça me semble quand même un progrès pour la société d'imiter Maman qui fait du télétravail, plutôt que Maman qui passe l'aspirateur.

  • [^] # Re: Encore une fois, il semble que la traduction se plante

    Posté par  . En réponse au journal La carte d'identité européenne eIDAS bientôt requise pour utiliser les grandes plateformes?. Évalué à 10. Dernière modification le 10 novembre 2023 à 13:16.

    semble être une fausse traduction de

    Malheureux! Comment pourrait-on continuer à soutenir que nos dirigeants nous veulent du mal si on ne peut plus utiliser l'argument de la pente glissante ou des traductions bidonnées?

    L'étape d'après, c'est quoi? Que ça permettrait à Google et Facebook de ne plus devoir te demander des informations personnelles (numéro de téléphone) si tu ne veux pas perdre l'accès à ton compte du jour au lendemain? Voire d'imposer aux Gafam de te permettre d'accéder à ces services par un token anonyme? D'enfin contrôler l'âge des utilisateurs des réseaux sociaux ou des sites porno? De permettre à l'utilisateur de configurer précisément quelles informations il partage avec quelle plateforme?

    Tu es bien naïf. Bruxelles veut savoir en temps réel l'identité réelle de celui qui a corrigé une faute de frappe dans l'article Wikipédia sur l'omelette aux champignons, c'est évident! C'est bien plus crédible comme hypothèse qu'une volonté politique de mettre en place les outils qui permettent d'appliquer la RGPD, par exemple.

    Pour ceux qui ont eu la flemme de lire:

    In addition to securely storing their digital identity, the Wallet will allow users to open bank accounts, make payments and hold digital documents, such as a mobile Driving Licence, a medical prescription, a professional certificate or a travel ticket. The Wallet will offer a user-friendly and practical alternative to online identification guaranteed by EU law. The Wallet will fully respect the user's choice whether or not to share personal data, it will offer the highest degree of security certified independently to the same standards, and relevant parts of its code will be published open source to exclude any possibility of misuse, illegal tracking, tracing or government interception.

    Bon, je ne vois pas tellement comment l'open source peut exclure l'interception gouvernementale, et c'est toujours le problème de l'impossibilité de vérifier que le code publié est bien celui qui tourne sur la plateforme, mais sur le fond il n'y a rien d'objectivement inquiétant là-dedans.

  • [^] # Re: Pas tout compris

    Posté par  . En réponse au lien Collection de sites qui ont des consignes de mots de passe à la noix . Évalué à 4.

    Non mais là c'est juste un bug idiot. Ça n'est pas du tout comme ça que tu es censé utilisé un générateur de nombres aléatoires: tu initialises la graine une fois (typiquement, quand le programme est lancé), et tu génères une série de nombres. Si j'ai bien compris, KPM réinitialisait la graine à chaque mdp, ce qui est profondément stupide. En plus, en prenant les secondes de l'horloge système, ce qui est encore plus stupide.

    Si tu voulais dire que les générateurs de mdp pouvaient être buggués, alors oui, évidemment. Mais ça n'est pas un problème fondamental avec des générateurs de nombres pseudo-aléatoires.

  • [^] # Re: Pas tout compris

    Posté par  . En réponse au lien Collection de sites qui ont des consignes de mots de passe à la noix . Évalué à 3.

    comment peut tu être assuré que ce dernier n'a pas un biais ?

    L'aticle ne parle pas de biais, mais de prévisibilité. Et à mon avis, le pseudo-risque est bidon. Si l'attaquant a accès à la base de données de passwords, alors il n'a pas besoin de craquer le générateur de nombre aléatoire. Et pour craquer le prochain mot de passe, il fautdrait qu'il ait accès à plusieurs dizaines de mots de passe générés précédemment, dans la bonne séquence, et sans élément manquant… ou bien au tick d'horloge auquel le générateur de nombre aléatoire a été initialisé, en partant du principe que les dévs ont été assez idiots pour faire ça sans rajouter un facteur d'entropie.

    Le XKCD qui va bien:
    xkcd

  • [^] # Re: Pas tout compris

    Posté par  . En réponse au lien Collection de sites qui ont des consignes de mots de passe à la noix . Évalué à 7. Dernière modification le 08 novembre 2023 à 17:25.

    Avec une règle "au moins un chiffre, un caractère spécial, une majuscule et une minuscule" tu es à 10*8*26*26*(26+26+10+8)4 = 1'298'460'800'000 combinaisons possibles.

    Pas d'accord, parce que le chiffre n'est pas forcément à la première position. Je compte 1.62 1015 combinaisons (708 - toutes les combinaisons sans lettre minuscule (448), sans majuscule (448), sans chiffre (608) et sans caractère spécial (628)), ce qui fait seulement 3.5 fois moins que 708. La perte d'entropie est donc vraiment assez limitée.

  • [^] # Re: Tribune de 130 féministes en réponse à Emmanuel Macron

    Posté par  . En réponse au lien «En français, le masculin fait l’homme, le dominant, il ne “fait pas le neutre”» (article partiel). Évalué à 10.

    pour preuve la sidérante note -11 de ce post au moment où j'écris ce commentaire.

    Du coup, si c'est + 11, c'est que c'était nécessaire, et si c'est -11, ça prouve aussi que c'était nécessaire. J'imagine que si c'était 0, cette indifférence prouverait aussi à quel point c'était nécessaire.

  • [^] # Re: Pas tout compris

    Posté par  . En réponse au lien Collection de sites qui ont des consignes de mots de passe à la noix . Évalué à 6.

    On peut deviser éternellement sur le sexe des anges. La seule méthode qui fonctionne pour connaitre la robustesse d'un mdp, ça n'est pas de calculer son entropie théorique, c'est de le confier à un cracker.

    Avec les calculs d'entropie, on partirait du principe que 0123456789 est un mdp assez robuste, alors qu'il doit tomber en 2ms. La théorie dit que AAAAAAAA… a autant d'entropie de JSTCNDPQS…, mais mon intuition, c'est que AAAAAAA…. va tomber en pratique très rapidement. Je me trompe peut-être, mais je ne prendrais pas le risque.

  • [^] # Re: Pas tout compris

    Posté par  . En réponse au lien Collection de sites qui ont des consignes de mots de passe à la noix . Évalué à 3.

    Une technique que j'ai vue ailleurs c'est de ne pas utiliser l'alphabet français (et surtout pas l'anglais…)

    Ça fonctionne très mal, parce que nk augmente beaucoup plus vite avec k qu'avec n.

    5 mots parmi 1000 = 1015 possibilités

    En doublant le nombre de mots: 3.2 1016 (x 32)
    En ajoutant un mot : 1018 (x1000)

    Donc non, c'est une idée à oublier.

  • [^] # Re: Pas tout compris

    Posté par  . En réponse au lien Collection de sites qui ont des consignes de mots de passe à la noix . Évalué à 2.

    tu va diminuer fortement l'entropie des mots de passes

    Non, tu vas diminuer imperceptiblement l'entropie des mots de passe, mais tu vas empêcher les attaques sur les mdp avec faible entropie, donc ça n'est pas idiot du tout.