L'étude que tu indiques montre qu'il y a eu des progressions des glaciers de la péninsule antarctique au VIIIe, XIIe, et XVIIIe siècle. Si l'optimum climatique médiéval avait été généralisé, je ne vois pas comment les glaciers auraient pu s'étendre ainsi pendant cette période.
C'est une remarque intéressante, elle en parle à partir de 47:38. Je vois différentes choses :
Il y a un délai parfois important entre l'amélioration des conditions matérielles et le développement des droits des femmes. Le Qatar et l'Arabie Saoudite, par exemple, ne sont pas entrés dans l'ère industrielle avant la seconde guerre mondiale. L'Afghanistan est encore en grande partie une société rurale (plus de 70% de la population)
Dans les sciences sociales, on peut rarement prétendre trouver un seul facteur explicatif mais juste, éventuellement, quelques facteurs prédominants. Ainsi, Elle ne prétend pas proposer une loi universelle : elle présente le principal facteur explicatif là où la libération des femmes a eu lieu.
Un autre facteur important est l'emprise de la tradition, en particulier religieuse. En Europe, la révolution industrielle a eu lieu à un moment où la tradition religieuse s'affaiblissait particulièrement, et n'a donc pas beaucoup freiné cette évvolution sociale.
La vidéo est chapitrée, on peut se faire une idée de son propos en regardant le chapitre "les réelles raisons de l'émancipation des femmes", de 2:15 à 6:28.
Le propos de l'interviewée est que la libération des femmes est essentiellement due à l'entrée de l'humanité dans l'anthropocène, et que cela est a eu un rôle beaucoup plus important que les luttes féministes.
Jean-Marc Jancovici, entre autres, a une analyse très semblable.
La contradiction que tente d'apporter Maderios par son lien n'en est pas vraiment une, ou alors je n'ai pas compris sur quoi elle porte. Morceaux choisis :
Je n’ai effectivement jamais été convaincue par le récit officiel selon lequel les luttes féministes auraient produit la libération de la femme, parce qu’elles ont été très limitées. […]
Or, à mon avis, il faut effectivement s'intéresser aux questions matérielles. […]
Ce sont des progrès accomplis par l'humanité en général qui leur permettent aujourd'hui de revendiquer une victoire qui n'est pas exactement la leur. Les êtres humains ont moins besoin de l'asservissement de la femme, de son enchaînement au foyer. Mécaniquement, les femmes ne sont plus assignées à résidence."
Je n'ai pas qu'une petite partie de la vidéo, mais l’article est intéressant, nuancé et équilibré.
On ne peut pas donner de date d'épuisement d'une ressource non renouvelable sans faire d'hypothèses excessivement simpliste. En général, cela consiste à diviser la production annuelle par les réserves prouvées. C'est trompeur à plus d'un titre :
Les réserves prouvées peuvent varier avec la découverte de nouveaux gisements, le développement de technologie et, curieusement, avec les prix du marché : une réserve prouvée est, par définition, ce qui est économiquement rentable à produire. Si les prix flambent, les réserves augmentent mécaniquement.
La production peut varier selon la demande, qui dépend de multiples facteurs : technologiqies, économiques, géopolitiques, …
Empiriquement, on constate que la variation d'une ressource non renouvelable au cours d'une temps suit une courbe en cloche : elle est d'abord faible, puis augmente jusqu'à atteindre un pic, puis redescend durablement à un niveau faible. Cela est modélisé sous le nom de pic de Hubbert.
Par exemple, la production de pétrole conventionnel a connu une croissance irrégulière jusqu'à un pic que l'on estime avoir eu lieu vers 2007-2008. Il n'y aura pas à proprement parler de pénurie de pétrole, mais, avec la baisse de la production, les usage vont progressivement se réduire sur le siècle qui vient. Dans une centaine d'année, le sujet du pétrole conventionnel sera sans doute devenu si dépassé et anecdotique que le dernier puits de pétrole fermera sans que cela n'intéresse personne. Et la dernière goutte de pétrole sera peut-être mélangée dans un mix d'agrocarburant pour propulser un bombardier américain, raffinée pour produire le dernier lot de cathéters de l'humanité, ou exposée dans un musée pendant quelque siècles avant d'être négligemment oubliée.
Il faut s'attendre à une histoire semblable pour les réserves minérales.
J'ai un ami qui a bossé dans une boîte de maintenance et assistance informatique pour PME et petites municipalités. Apparemment, les clients n'ont aucune envie de gérer leurs palanquées de mots de passe et préfèrent déléguer cette charge au prestataire. Résultat : toute l'équipe technique a accès en permanence à tous les mots de passe de tous les clients : box, Wifi, boîtes mail, sessions Windows, … La seule "sécurité" est que les accès aux données clients sont journalisées. Et tout le monde trouve ça normal, car ça rend service au client et ça permet à la boîte d'être plus efficace dans ses prestations.
C'est par ailleurs une boîte qui a l'air très attachée à ITIL :/
Tu as raison d'interroger la pertinence du calcul, sans cela on s'expose à des comparaisons absurdes comme dans l'exemple que tu donnes. Là, je corrigeais une erreur de raisonnement consistant à comparer deux rendements : l'un calculé à partir d'une énergie primaire (le pétrole), l'autre à partir d'un vecteur énergétique (l'électricité). Je ne vois pas de contexte où cette comparaison peut avoir du sens. En revanche, comparer le rendement entre deux énergies primaires a du sens, car cela permet d'estimer la quantité de transformations énergétiques nécessaires pour arriver à un même résultat.
D'ailleurs, si j'avais voulu être plus pointu, j'aurais pu par exemple prendre en compte le taux de retour énergétique du pétrole, c'est à dire le rapport entre la quantité que peut fournir un litre de pétrole et l'énergie qui a été nécessaire pour le produire. Au début de l'ère du pétrole, ce taux était supérieur à 100. Il est aujourd'hui inférieur à 10 car les réserves sont d'accessibilités et de qualités décroissantes. Cela revient à réduire de 10% tout calcul de rendement d'une transformation énergétique à partir du pétrole.
Comme la croissance du PIB est solidement corrélée à la consommation d'énergie (source, vous parlez bien de la même chose.
La voiture électrique ne consomme pas "beaucoup moins d'énergie". Les voitures à essence convertissent le carburant en énergie mécanique avec un rendement d'environ 35-40 % (source). Les voitures électriques convertissent l'énergie électrique avec un rendement d'environ 90%, mais il a fallu auparavant produire cette électricité. Cela se fait en France avec un rendement d'environ 35-40 % également (source). Donc le rendement global de la voiture électrique est plutôt de 30-35 %.
Les réseaux de chaleur sont une bonne piste d'amélioration, mais on ne part pas de zéro puisque 2,4 millions de logements y étaient déjà raccordés en 2019 (source).
Pourquoi dis-tu qu'il ne sait pas que 1 + 1 = 2 ? Comme dit plus haut, il gère très bien les additions. Si tu ne veux pas créer de compte, tu peux tester HuggingChat : je ne l'ai pas beaucoup testé, il a l'air moins bon en maths que ChatGPT (il se plante sur les grosses additions), mais il sait très bien combien font 1 + 1.
en dessous de quelle difficulté ne se trompe-t'il jamais ?
Aucun ordinateur ne fait jamais d'erreur, il peut toujours y avoir un rayon cosmique qui traîne et qui induit un bug non rattrapé par la détection/correction d'erreur. Ce niveau d'exigence est absurde et inutile. La bonne question serait de savoir quel est le risque d'erreur acceptable. Il est ensuite simple de faire des jeux d'essais pour estimer le taux d'erreurs du modèle de langage sur le type de problème qui nous intéresse, et de décider si c'est acceptable ou pas.
Empiriquement, je constate que, dans les calculs formels, le risque d'erreur de ChatGPT augmente avec le nombre d'étapes de raisonnement. On peut y trouver une explication : dans un raisonnement formel, la bonne étape de raisonnement est celle qui est la plus probable dans le modèle de langage. Mais ces outils ne nous donnent pas l'étape la plus probable, ils tirent au hasard une étape proportionnellement à leur probabilité. Cela peut se corriger en donnant au modèle de langage une quantité si importante de raisonnements formels que la probabilité de donner autre chose que l'étape la plus probable va tendre vers zéro. En plus, générer automatiquement des tonnes de raisonnements formels est facile.
J'ai pas dit que ChatGPT était une application aboutie pour le calcul mathématique :) Au contraire, je confirme que, passé un certain niveau de difficulté, il fait souvent des erreurs. Je dis juste qu'il sait faire des maths dans une certaine mesure, et que cela prouve que c'est à la portée de ce type de technologie.
Il faut imaginer quelles pourraient être les capacités de ces technologies dans 10 ans, une fois qu'ont aura le retour sur investissement des milliards actuellement dépensés. Ce ne sera certainement pas algorithmiquement optimal, mais ce sera toujours mieux que ce que ChatGPT nous fournit aujourd'hui gratuitement en 30 secondes.
Pour résoudre ce problème, nous pouvons utiliser la formule de la distance égale à la vitesse multipliée par le temps (d = v * t).
Le premier train part de Triptown à 13h et se dirige vers Baudebourg à une vitesse de 100 km/h. Le temps écoulé lorsque les trains se croisent est représenté par "t". La distance parcourue par le premier train à ce moment-là est donc de 100t km.
Le deuxième train part de Baudebourg à 13h30, soit 0,5 heure après le premier train, et se dirige vers Triptown à une vitesse de 80 km/h. Le temps écoulé pour le deuxième train est également représenté par "t". La distance parcourue par le deuxième train à ce moment-là est donc de 80t km.
Lorsque les trains se croisent, la somme des distances parcourues par les deux trains est égale à la distance totale entre les deux villes, soit 200 km.
100t + 80t = 200
180t = 200
t = 200 / 180
t ≈ 1,1111 heures
Donc, les trains se croiseront environ 1,1111 heures après le départ du premier train.
Pour déterminer l'heure à laquelle les trains se croisent, nous devons ajouter cette durée de temps (1,1111 heures) à l'heure de départ du premier train.
13h + 1,1111 heures = 14h11 minutes (arrondi à la minute la plus proche)
Les trains se croiseront donc vers 14h11.
Pour calculer la distance à laquelle les trains seront de Baudebourg à ce moment-là, nous pouvons utiliser la vitesse du deuxième train (80 km/h) et la durée de temps écoulée (1,1111 heures).
Distance du deuxième train = vitesse * temps
Distance du deuxième train = 80 km/h * 1,1111 heures
Distance du deuxième train ≈ 88,8889 km
Donc, les trains seront d'environ 88,8889 km de Baudebourg lorsqu'ils se croiseront.
Il me semble qu'il s'est trompé en posant l'équation, il aurait dû poser :
100t + 80 (t - 0.5) = 200
Je lui ai fait régénérer sa réponse 2 fois, il a donné un autre résultat, également faux (il me semble), puis le même. Je suis curieux de savoir si ChatGPT 4 fait mieux.
Oui, j'ai testé juste avant de répondre pour être sûr. Le papier que tu cites, publié en janvier dernier, concerne GPT 3. En mars dernier, ChatGPT est passé à la version 3.5, qui a de plus grandes aptitudes arithmétiques et logiques. Quand à la version 4, payante, elle doit être encore un cran au dessus. Cet article donne une liste d'examens que ChatGPT a réussi jusqu'à présent.
Science4All a fait une très bonne série de vidéos sur "Le bayésianisme, une philosophie universelle du savoir". Bien qu'elle soit antérieure aux derniers coups d'éclats des IA, elle permet de mieux comprendre de quoi ces algorithmes à base de probabilité sont capables. On peut aussi mentionner le théorème de Cox-Jaynes, selon lequel, si on admet quelques hypothèses intuitives, tout processus d'apprentissage est équivalent à la théorie des probabilité.
Ma perception actuelle des choses est que le cerveau humain, dans sa fonction cognitive, est essentiellement une grosse machine à faire des probabilités.
Si on laisse 10 ans de développement à ces technologies, qu'on leur donne accès à des corpus spécialisés, ou à des corpus de données non linguistiques, je crois qu'elle vont mettre beaucoup de monde à la porte.
Je n'ai accès qu'à la version 3.5 de ChatGPT, mais si tu veux lui soumettre un problème de trains qui se croisent ou de baignoire qui fuit, je veux bien faire l'intermédiaire :)
ChatGPT sait faire ça ! J'ai testé les opérations arithmétiques, le calcul d'intégrale et le calcul de limites. Bon, certes, il s'est vautré sur le calcul de limite :/
De mon côté, je ne me demande pas tellement si ChatGPT est intelligent, parce que je n'aime pas utiliser des concepts trop flous tels que "intelligence". Je me demande surtout dans quelle mesure nous, humains, sommes davantage que des "synthétiseurs textuels" (pour reprendre le terme utilisé dans le journal).
Nous sommes certainement de meilleurs synthétiseurs textuels, en l'état actuel de la technologie, parce que nous somme capables de mettre à jour nos connaissances en temps réel. Je ne suis pas sûr que cette différence perdure. On doit pouvoir trouver quelques autres différences, mais je ne suis pas sûr non plus qu'elles soient si considérables.
On peut aussi se considérer supérieurs à des synthétiseurs textuels parce que nous avons des moyens d'acquérir des informations autrement que par le texte, et que nous avons des moyens d'agir directement sur notre environnement. Je ne crois pas que cela soit une différence fondamentale. En effet, on peut considérer les informations que nous recevons de notre environnement comme un langage : c'est un système de signes (les perceptions) doté d'une sémantique (acquise par l'expérience) et d'une syntaxe (les lois physiques). Si c'est un langage, les synthétiseurs textuels peuvent théoriquement se l'approprier. Dans la même logique, les actions que nous pouvons faire constituent également un langage ; les synthétiseurs textuels ont donc la capacité de devenir des "synthétiseurs d'actions".
Il y a 2 ans, je considérais la singularité comme une spéculation juste bonne pour écrire de la science-fiction. Aujourd'hui, je suis bien plus réservé. Les humains sont sans doute un peu plus que des "synthétiseurs d'actions", mais peut-être pas de beaucoup.
La curatelle est une mesure destinée aux personnes atteintes d'une altération physique ou mentale, lorsqu'elle est de nature à empêcher l'expression de sa volonté. Cette altération doit être constatée par un médecin. L'incapacité à se servir d'un ordinateur n'entre manifestement pas dans ce registre, et le texte ne permet pas non plus de conclure que la personne est "teubé". Perso, quand je donne des cours de bureautique, j'ai souvent l'impression que ce sont les concepteurs de logiciels et sites webs qui sont teubés, mais je m'égare.
Beaucoup de gens ont du mal clarifier leur pensée pour eux et à exprimer leurs besoins de manière claire, précise et concise. En général, ce n'est pas un problème de santé, mais un problème éducatif. On ne sera pas étonné d'apprendre que ces personnes sont surreprésentées dans la population pauvre ou précaire. Pour ces personnes là, l'informatique est naturellement un obstacle supplémentaire ; c'est ce qu’illustre l'article avec éloquence.
Aujourd'hui on est presque 8 milliards d'humain, sans grosses famines
Je ne peux pas te contredire sur le fond, mais l'indicateur est mauvais. Il faut distinguer le nombre d'humains que la Terre peut nourrir de manière durable et le nombre d'humains qu'elle peut nourrir en tapant dans ses réserves. Seul le premier me semble significatif.
Or, on n'a certes pas de famine cataclysmique, mais les réserves prennent cher : réserves d'hydrocarbures utilisés pour faire les engrais azotés, mines de phosphates, stocks halieutiques, déforestation permettant d'accroître les aires pâturées, diminution des stocks d'eau douce, désertification, urbanisation et dégradation des sols, …
On doit pouvoir monter à 12 milliards d'humains, mais la descente risque ensuite d'être raide.
Attention au graphique trompeur : la descente apparemment spectaculaire n'est en fait une réduction "que" de 16% sur 2 ans. C'est une évolution en euros, donc biaisée par l'évolution des prix du marché. Une approche plus rigoureuse consiste à comper la consommation en dose-unités ou NODU. Malgré le plan Ecophyto, qui visait à réduire la consommation de pesticides de 50% entre 2009 et 2018, la consommation a augmenté de 12 % entre 2009 et 2016 (source : Cour des Comptes). Cela est une tendance mondiale.
Les intrants baissent énormément. Engrais NPK
Dans le graphique que tu montres, on voit que seuls les phosphates et les potasses baissent, l'azote reste stable. Les potasses ne sont pas réputées pour leur toxicité environnementale. Il y a effectivement eu une nette réduction de la consommation française de phosphates entre 1980 et 2010 mais, depuis, elle s'est stabilisée autour de 400 000 tonnes par an (source : Faostat). Au niveau mondial, la tendance est en hausse solide (Banque mondiale), tout intrant confondu.
La productivité agricole augmente encore, mais de moins en moins vite
De nouveau, attention aux graphiques trompeurs : on voit bien une hausse de 1945 à 2000, mais ensuite, ça stagne quasiment partout. C'est bien ce que dit l'étude à l'origine du graphique.
[^] # Re: Remède pire que le mal ?
Posté par sobriquet . En réponse au journal La taxe carbone. Évalué à -1.
La critique est facile : face à la crise climatique, tout projet d'avenir est soit indésirable, soit utopique (voire les deux).
# en résumé
Posté par sobriquet . En réponse au lien « La preuve définitive que ChatGPT ne comprend rien » (génération de tokens et chambre chinoise). Évalué à 1.
Si je comprends bien, la vidéo démonte les arguments qui prétendent démontrer que ChatGPT ne comprend rien, c'est bien ça ?
[^] # Re: Tiens, pas de lien vers cette étude-ci ?
Posté par sobriquet . En réponse au lien Climat : non, il n’y a pas eu de réchauffement au Moyen-Age. Évalué à 4.
L'étude que tu indiques montre qu'il y a eu des progressions des glaciers de la péninsule antarctique au VIIIe, XIIe, et XVIIIe siècle. Si l'optimum climatique médiéval avait été généralisé, je ne vois pas comment les glaciers auraient pu s'étendre ainsi pendant cette période.
[^] # Re: eh, pas lu ni regarder ?
Posté par sobriquet . En réponse au lien La réalité oubliée derrière l'émancipation des femmes - Véra Nikolski. Évalué à 3.
C'est une remarque intéressante, elle en parle à partir de 47:38. Je vois différentes choses :
# Résumé
Posté par sobriquet . En réponse au lien La réalité oubliée derrière l'émancipation des femmes - Véra Nikolski. Évalué à 5.
La vidéo est chapitrée, on peut se faire une idée de son propos en regardant le chapitre "les réelles raisons de l'émancipation des femmes", de 2:15 à 6:28.
Le propos de l'interviewée est que la libération des femmes est essentiellement due à l'entrée de l'humanité dans l'anthropocène, et que cela est a eu un rôle beaucoup plus important que les luttes féministes.
Jean-Marc Jancovici, entre autres, a une analyse très semblable.
La contradiction que tente d'apporter Maderios par son lien n'en est pas vraiment une, ou alors je n'ai pas compris sur quoi elle porte. Morceaux choisis :
Je n'ai pas qu'une petite partie de la vidéo, mais l’article est intéressant, nuancé et équilibré.
[^] # Re: Le nucléaire est notre ami, il faut l'aimer aussi
Posté par sobriquet . En réponse au lien Tribune. « La France doit cesser de saboter la transition énergétique européenne ». Évalué à 1.
On ne peut pas donner de date d'épuisement d'une ressource non renouvelable sans faire d'hypothèses excessivement simpliste. En général, cela consiste à diviser la production annuelle par les réserves prouvées. C'est trompeur à plus d'un titre :
Empiriquement, on constate que la variation d'une ressource non renouvelable au cours d'une temps suit une courbe en cloche : elle est d'abord faible, puis augmente jusqu'à atteindre un pic, puis redescend durablement à un niveau faible. Cela est modélisé sous le nom de pic de Hubbert.
Par exemple, la production de pétrole conventionnel a connu une croissance irrégulière jusqu'à un pic que l'on estime avoir eu lieu vers 2007-2008. Il n'y aura pas à proprement parler de pénurie de pétrole, mais, avec la baisse de la production, les usage vont progressivement se réduire sur le siècle qui vient. Dans une centaine d'année, le sujet du pétrole conventionnel sera sans doute devenu si dépassé et anecdotique que le dernier puits de pétrole fermera sans que cela n'intéresse personne. Et la dernière goutte de pétrole sera peut-être mélangée dans un mix d'agrocarburant pour propulser un bombardier américain, raffinée pour produire le dernier lot de cathéters de l'humanité, ou exposée dans un musée pendant quelque siècles avant d'être négligemment oubliée.
Il faut s'attendre à une histoire semblable pour les réserves minérales.
# L'horreur ordinaire
Posté par sobriquet . En réponse au journal Le support technique du FAI a accès au mot de passe du wifi !?. Évalué à 2.
J'ai un ami qui a bossé dans une boîte de maintenance et assistance informatique pour PME et petites municipalités. Apparemment, les clients n'ont aucune envie de gérer leurs palanquées de mots de passe et préfèrent déléguer cette charge au prestataire. Résultat : toute l'équipe technique a accès en permanence à tous les mots de passe de tous les clients : box, Wifi, boîtes mail, sessions Windows, … La seule "sécurité" est que les accès aux données clients sont journalisées. Et tout le monde trouve ça normal, car ça rend service au client et ça permet à la boîte d'être plus efficace dans ses prestations.
C'est par ailleurs une boîte qui a l'air très attachée à ITIL :/
[^] # Re: Et personne n'a lu l'étude ?
Posté par sobriquet . En réponse au journal Vraiment toujours pas convaincu par l'Hydroxychloroquine ?. Évalué à 2.
Pour une analyse plus détaillée de l'étude : La dernière étude de l'IHU sur 30 000 patients plie le game sur l'hydroxychloroquine (non)
[^] # Re: En attendant, dans la réalité...
Posté par sobriquet . En réponse au journal Vraiment toujours pas convaincu par l'Hydroxychloroquine ?. Évalué à 3.
Des images d'une violence inouïe !
[^] # Re: énergie verte ?
Posté par sobriquet . En réponse au lien Centrale nucléaire de Golfech : EDF veut abolir les limites de température des rejets d'eau. Évalué à 3.
Tu as raison d'interroger la pertinence du calcul, sans cela on s'expose à des comparaisons absurdes comme dans l'exemple que tu donnes. Là, je corrigeais une erreur de raisonnement consistant à comparer deux rendements : l'un calculé à partir d'une énergie primaire (le pétrole), l'autre à partir d'un vecteur énergétique (l'électricité). Je ne vois pas de contexte où cette comparaison peut avoir du sens. En revanche, comparer le rendement entre deux énergies primaires a du sens, car cela permet d'estimer la quantité de transformations énergétiques nécessaires pour arriver à un même résultat.
D'ailleurs, si j'avais voulu être plus pointu, j'aurais pu par exemple prendre en compte le taux de retour énergétique du pétrole, c'est à dire le rapport entre la quantité que peut fournir un litre de pétrole et l'énergie qui a été nécessaire pour le produire. Au début de l'ère du pétrole, ce taux était supérieur à 100. Il est aujourd'hui inférieur à 10 car les réserves sont d'accessibilités et de qualités décroissantes. Cela revient à réduire de 10% tout calcul de rendement d'une transformation énergétique à partir du pétrole.
[^] # Re: énergie verte ?
Posté par sobriquet . En réponse au lien Centrale nucléaire de Golfech : EDF veut abolir les limites de température des rejets d'eau. Évalué à 6.
Comme la croissance du PIB est solidement corrélée à la consommation d'énergie (source, vous parlez bien de la même chose.
La voiture électrique ne consomme pas "beaucoup moins d'énergie". Les voitures à essence convertissent le carburant en énergie mécanique avec un rendement d'environ 35-40 % (source). Les voitures électriques convertissent l'énergie électrique avec un rendement d'environ 90%, mais il a fallu auparavant produire cette électricité. Cela se fait en France avec un rendement d'environ 35-40 % également (source). Donc le rendement global de la voiture électrique est plutôt de 30-35 %.
Les réseaux de chaleur sont une bonne piste d'amélioration, mais on ne part pas de zéro puisque 2,4 millions de logements y étaient déjà raccordés en 2019 (source).
[^] # Re: sommes nous davantage que des synthétiseurs textuels ?
Posté par sobriquet . En réponse au journal Le vocable « intelligence artificielle » vs synthétiseur de texte ?. Évalué à 1.
Tu as testé avec ChatGPT 3.5 ou ChatGPT 4 ?
[^] # Re: sommes nous davantage que des synthétiseurs textuels ?
Posté par sobriquet . En réponse au journal Le vocable « intelligence artificielle » vs synthétiseur de texte ?. Évalué à 1.
Merci pour le partage !
[^] # Re: sommes nous davantage que des synthétiseurs textuels ?
Posté par sobriquet . En réponse au journal Le vocable « intelligence artificielle » vs synthétiseur de texte ?. Évalué à 1.
Pourquoi dis-tu qu'il ne sait pas que 1 + 1 = 2 ? Comme dit plus haut, il gère très bien les additions. Si tu ne veux pas créer de compte, tu peux tester HuggingChat : je ne l'ai pas beaucoup testé, il a l'air moins bon en maths que ChatGPT (il se plante sur les grosses additions), mais il sait très bien combien font 1 + 1.
Aucun ordinateur ne fait jamais d'erreur, il peut toujours y avoir un rayon cosmique qui traîne et qui induit un bug non rattrapé par la détection/correction d'erreur. Ce niveau d'exigence est absurde et inutile. La bonne question serait de savoir quel est le risque d'erreur acceptable. Il est ensuite simple de faire des jeux d'essais pour estimer le taux d'erreurs du modèle de langage sur le type de problème qui nous intéresse, et de décider si c'est acceptable ou pas.
Empiriquement, je constate que, dans les calculs formels, le risque d'erreur de ChatGPT augmente avec le nombre d'étapes de raisonnement. On peut y trouver une explication : dans un raisonnement formel, la bonne étape de raisonnement est celle qui est la plus probable dans le modèle de langage. Mais ces outils ne nous donnent pas l'étape la plus probable, ils tirent au hasard une étape proportionnellement à leur probabilité. Cela peut se corriger en donnant au modèle de langage une quantité si importante de raisonnements formels que la probabilité de donner autre chose que l'étape la plus probable va tendre vers zéro. En plus, générer automatiquement des tonnes de raisonnements formels est facile.
[^] # Re: sommes nous davantage que des synthétiseurs textuels ?
Posté par sobriquet . En réponse au journal Le vocable « intelligence artificielle » vs synthétiseur de texte ?. Évalué à 1. Dernière modification le 09 mai 2023 à 13:26.
J'ai pas dit que ChatGPT était une application aboutie pour le calcul mathématique :) Au contraire, je confirme que, passé un certain niveau de difficulté, il fait souvent des erreurs. Je dis juste qu'il sait faire des maths dans une certaine mesure, et que cela prouve que c'est à la portée de ce type de technologie.
Il faut imaginer quelles pourraient être les capacités de ces technologies dans 10 ans, une fois qu'ont aura le retour sur investissement des milliards actuellement dépensés. Ce ne sera certainement pas algorithmiquement optimal, mais ce sera toujours mieux que ce que ChatGPT nous fournit aujourd'hui gratuitement en 30 secondes.
[^] # Re: sommes nous davantage que des synthétiseurs textuels ?
Posté par sobriquet . En réponse au journal Le vocable « intelligence artificielle » vs synthétiseur de texte ?. Évalué à 2.
Voilà sa réponse :
Il me semble qu'il s'est trompé en posant l'équation, il aurait dû poser :
Je lui ai fait régénérer sa réponse 2 fois, il a donné un autre résultat, également faux (il me semble), puis le même. Je suis curieux de savoir si ChatGPT 4 fait mieux.
[^] # Re: sommes nous davantage que des synthétiseurs textuels ?
Posté par sobriquet . En réponse au journal Le vocable « intelligence artificielle » vs synthétiseur de texte ?. Évalué à 2.
Oui, j'ai testé juste avant de répondre pour être sûr. Le papier que tu cites, publié en janvier dernier, concerne GPT 3. En mars dernier, ChatGPT est passé à la version 3.5, qui a de plus grandes aptitudes arithmétiques et logiques. Quand à la version 4, payante, elle doit être encore un cran au dessus. Cet article donne une liste d'examens que ChatGPT a réussi jusqu'à présent.
Science4All a fait une très bonne série de vidéos sur "Le bayésianisme, une philosophie universelle du savoir". Bien qu'elle soit antérieure aux derniers coups d'éclats des IA, elle permet de mieux comprendre de quoi ces algorithmes à base de probabilité sont capables. On peut aussi mentionner le théorème de Cox-Jaynes, selon lequel, si on admet quelques hypothèses intuitives, tout processus d'apprentissage est équivalent à la théorie des probabilité.
Ma perception actuelle des choses est que le cerveau humain, dans sa fonction cognitive, est essentiellement une grosse machine à faire des probabilités.
Si on laisse 10 ans de développement à ces technologies, qu'on leur donne accès à des corpus spécialisés, ou à des corpus de données non linguistiques, je crois qu'elle vont mettre beaucoup de monde à la porte.
Je n'ai accès qu'à la version 3.5 de ChatGPT, mais si tu veux lui soumettre un problème de trains qui se croisent ou de baignoire qui fuit, je veux bien faire l'intermédiaire :)
[^] # Re: sommes nous davantage que des synthétiseurs textuels ?
Posté par sobriquet . En réponse au journal Le vocable « intelligence artificielle » vs synthétiseur de texte ?. Évalué à 2. Dernière modification le 09 mai 2023 à 00:37.
ChatGPT sait faire ça ! J'ai testé les opérations arithmétiques, le calcul d'intégrale et le calcul de limites. Bon, certes, il s'est vautré sur le calcul de limite :/
# sommes nous davantage que des synthétiseurs textuels ?
Posté par sobriquet . En réponse au journal Le vocable « intelligence artificielle » vs synthétiseur de texte ?. Évalué à 2.
De mon côté, je ne me demande pas tellement si ChatGPT est intelligent, parce que je n'aime pas utiliser des concepts trop flous tels que "intelligence". Je me demande surtout dans quelle mesure nous, humains, sommes davantage que des "synthétiseurs textuels" (pour reprendre le terme utilisé dans le journal).
Nous sommes certainement de meilleurs synthétiseurs textuels, en l'état actuel de la technologie, parce que nous somme capables de mettre à jour nos connaissances en temps réel. Je ne suis pas sûr que cette différence perdure. On doit pouvoir trouver quelques autres différences, mais je ne suis pas sûr non plus qu'elles soient si considérables.
On peut aussi se considérer supérieurs à des synthétiseurs textuels parce que nous avons des moyens d'acquérir des informations autrement que par le texte, et que nous avons des moyens d'agir directement sur notre environnement. Je ne crois pas que cela soit une différence fondamentale. En effet, on peut considérer les informations que nous recevons de notre environnement comme un langage : c'est un système de signes (les perceptions) doté d'une sémantique (acquise par l'expérience) et d'une syntaxe (les lois physiques). Si c'est un langage, les synthétiseurs textuels peuvent théoriquement se l'approprier. Dans la même logique, les actions que nous pouvons faire constituent également un langage ; les synthétiseurs textuels ont donc la capacité de devenir des "synthétiseurs d'actions".
Il y a 2 ans, je considérais la singularité comme une spéculation juste bonne pour écrire de la science-fiction. Aujourd'hui, je suis bien plus réservé. Les humains sont sans doute un peu plus que des "synthétiseurs d'actions", mais peut-être pas de beaucoup.
[^] # Re: excellent article
Posté par sobriquet . En réponse au lien Politique de l’absurde : Le numérique et l’accès aux droits sociaux. Évalué à 10.
La curatelle est une mesure destinée aux personnes atteintes d'une altération physique ou mentale, lorsqu'elle est de nature à empêcher l'expression de sa volonté. Cette altération doit être constatée par un médecin. L'incapacité à se servir d'un ordinateur n'entre manifestement pas dans ce registre, et le texte ne permet pas non plus de conclure que la personne est "teubé". Perso, quand je donne des cours de bureautique, j'ai souvent l'impression que ce sont les concepteurs de logiciels et sites webs qui sont teubés, mais je m'égare.
Beaucoup de gens ont du mal clarifier leur pensée pour eux et à exprimer leurs besoins de manière claire, précise et concise. En général, ce n'est pas un problème de santé, mais un problème éducatif. On ne sera pas étonné d'apprendre que ces personnes sont surreprésentées dans la population pauvre ou précaire. Pour ces personnes là, l'informatique est naturellement un obstacle supplémentaire ; c'est ce qu’illustre l'article avec éloquence.
# fork
Posté par sobriquet . En réponse au lien « Du Rust dans le noyau de Windows ». Évalué à 4.
Mon petit doigt me dit qu'on peut s'attendre à un fork de Rust par Microsoft d'ici 2 ou 3 ans…
[^] # Re: Coopératives et intégrateurs
Posté par sobriquet . En réponse au lien Éleveurs enchaînés : "Je veux sortir du monde agricole mafieux" . Évalué à 4.
Je ne peux pas te contredire sur le fond, mais l'indicateur est mauvais. Il faut distinguer le nombre d'humains que la Terre peut nourrir de manière durable et le nombre d'humains qu'elle peut nourrir en tapant dans ses réserves. Seul le premier me semble significatif.
Or, on n'a certes pas de famine cataclysmique, mais les réserves prennent cher : réserves d'hydrocarbures utilisés pour faire les engrais azotés, mines de phosphates, stocks halieutiques, déforestation permettant d'accroître les aires pâturées, diminution des stocks d'eau douce, désertification, urbanisation et dégradation des sols, …
On doit pouvoir monter à 12 milliards d'humains, mais la descente risque ensuite d'être raide.
[^] # Re: Coopératives et intégrateurs
Posté par sobriquet . En réponse au lien Éleveurs enchaînés : "Je veux sortir du monde agricole mafieux" . Évalué à 10.
Attention au graphique trompeur : la descente apparemment spectaculaire n'est en fait une réduction "que" de 16% sur 2 ans. C'est une évolution en euros, donc biaisée par l'évolution des prix du marché. Une approche plus rigoureuse consiste à comper la consommation en dose-unités ou NODU. Malgré le plan Ecophyto, qui visait à réduire la consommation de pesticides de 50% entre 2009 et 2018, la consommation a augmenté de 12 % entre 2009 et 2016 (source : Cour des Comptes). Cela est une tendance mondiale.
Dans le graphique que tu montres, on voit que seuls les phosphates et les potasses baissent, l'azote reste stable. Les potasses ne sont pas réputées pour leur toxicité environnementale. Il y a effectivement eu une nette réduction de la consommation française de phosphates entre 1980 et 2010 mais, depuis, elle s'est stabilisée autour de 400 000 tonnes par an (source : Faostat). Au niveau mondial, la tendance est en hausse solide (Banque mondiale), tout intrant confondu.
De nouveau, attention aux graphiques trompeurs : on voit bien une hausse de 1945 à 2000, mais ensuite, ça stagne quasiment partout. C'est bien ce que dit l'étude à l'origine du graphique.
[^] # Re: Journal
Posté par sobriquet . En réponse au lien Consultation du Sénat sur l'acceptabilité des zones à faibles émissions. Évalué à 1.
Et rouler moins vite.
[^] # Re: Quand est-ce qu'on arrête d'inventer?
Posté par sobriquet . En réponse au lien Un manifestant puni par la justice pour refus de donner le code d’un téléphone… inexistant. Évalué à 5. Dernière modification le 24 avril 2023 à 02:50.
Il me semblait avoir vu un documentaire sur un avocat qui vendait ce genre de téléphone jetable, mais je retrouve plus le nom ;)