Faut pas aller chercher de mystère bien loin, ils investissent juste en suivant une logique de maximisation des profits, et pas une logique éthique.
Or ils se trouve que les compagnies pétrolière, en sachant à quel point nos sociétés sont dépendantes du pétroles, sont curieusement extrêmement rentables ...
Ne pas chercher le diable quand il y a une explication rationnelle qui marche super bien par ailleurs ...
Vraie bonne intention ? Ou juste un moyen de faire baisser ses impôts et redorer son image ?
Réponse facile: il paierait plus en impots que ce qu'il donne en humanitaire ?
redorer son image
Parce qu'il est si impopulaire que ça ? Il me semblait qu'à part chez les libristes il avait pas une si mauvaise image.
Cet article de Wikipedia rappelle entre autres l'histoire du Delta du Niger : la fondation B&M G lutte contre la polio et la rougeole, mais les habitants du coin sont aussi confrontés à des maladies respiratoires, dues à la pollution des industries pétrolières, lesquelles sont bien présentes dans le portefeuille d'actions de la fondation ! On pourra rétorquer que ce n'est qu'un investissement parmi tant d'autres (même pas un demi-milliard de $, une paille !)
Prendre les problèmes les uns après les autres et pas tout attaquer en même temps, c'est pas forcément une mauvaise stratégie. Il vaut mieux juste avoir de problèmes respiratoires dans un premier temps que d'avoir des problèmes respiratoires ET la polio, je dirai.
Après effectivement ça n'empêche pas une certaine éthique des industriels et une vigilance dans les investissement. Mais si il ne faisait rien, ça ne rendrait pas la situation meilleure pour autant. Il aurait seulement son argent placé. Est-ce mieux ?
Je te rejoins, c'est un peu le travers d'agoravox et de rue89 par exemple, ils prennent un ton résolument engagé très visible et très agaçant en général.
Bref, si t'es déjà méfiant vis à vis de ce genre de "médias"*, il faut faire un effort pour ne pas fuir et aller au bout de l'article ... (enfin, ce n'est que mon sentiment)
* Pour ceux qui n'aimeraient pas les guillemets, je ne fais qu'utiliser un des artifices vu récemment sur Rue89, juste retour de bâton.
Mea culpa pour la citation de la marque, mais j'avais pas capté quand tu l'as cité, je connaissais pas et j'ai cru à un produit à base d'étamines de lys.
Pas la peine de prendre la mouche cela dit, critiquer une marque de produit n'est pas critiquer un mode de vie ...
Éventuellement, l'article de 60 millions de consommateur est accessible contre 2€, et j'ai pas envie de dépenser 2€ juste pour troller, et il n'y a pas des masses de ressources un peu critiques sur la question, juste des sites tellement élogieux que ça ressemble à de la pub surfant sur la vague écolo à premiere vue.
Bref ce que j'aimerai savoir c'est:
* si c'est plus efficace que de l'eau et une éponge
* jusqu'à quel point c'est équologique
En même temps si t'étais plus précis et citais des produits référencés quelque part, on pourrait en retrouvant l'étude en question voir si ils sont dedans, ou pas ...
Que ça devient impossible de trouver un produit a 23H le soir vu que l'épicerie du coin a fermé ^^
Ouais alors tu me trouveras beaucoup d'épiceries du coin qui ont ouvert par le passé jusqu'à 23h ... à Paris peut être, je suis pas sûr que ça date de très très longtemps.
Une grande surface qui crée 300 emplois directement en détruit 1500 sur quelques lieux à la ronde, parait-il.
Source ? Et d'un point de vue plus "global", ça n'aurait pas d'autres effets de bords, genre les gens économisent des sous qu'ils peuvent réinvestir ailleurs, en créant d'autres types d'emplois ?
Régler les poids à la mano, c'est pas du tout de l'apprentissage, c'est une sorte de tuning manuel. L'apprentissage ça doit être automatique.
Apprendre à partir d'exemples, c'est ce qu'on appelle l'apprentissage supervisé, par opposition à apprentissage non supervisé.
L'apprentissage non supervisé, grosso modo, c'est apprendre quand on a pas d'information préalable sur les données qu'on va traîter.
Si on prends l'exemple de la reconnaissance d'écriture par exemple, l'apprentissage supervisé ce serait:
J'ai une base de donnée de dessin de "R", je les donne à manger à l'algo d'apprentissage en lui disant qu'il doit les classer comme des "R", je recommence avec des "A", ...
Ensuite tu lui file un dessin, et il doit trouver quelle lettre ton dessin représente.
L'apprentissage non supervisé, il ne connait pas les classes au préalable, et il doit trouver tout seul que deux "R" sont dans la même classe, que les "A" se ressemblent tous mais qu'ils sont différents des "R", donc créer deux classes "A" et "R".
Pour finir, j'y connais pas grand chose en réseau de neurone, mais utiliser des algo génétiques pour fixer les poids d'un réseau neuronal, ça a l'air plutôt avancé et de ma petite fenêtre j'ai pas vu ça dans les algo "classique" d'apprentissage pour un réseau de neurone ...
Il y a aussi une théorie qui dit que les personnes qui ont le plus de chances de trouver certains problèmes réputés très difficiles (comme trouver une vraie IA ou démontrer que P != NP (ou égal)), sont ceux qui sont loin du domaine, car ils pourront penser différemment, sans être influencés.
Merde, alors ma grand mère aurait aurait pu demontrer le théorème de Fermat si j'avais essayé de lui expliquer ? Dommage que je l'aie pas fait :)
Oui mais non, dans le cas de la classification, il y a une sorte de représentation d'un ensemble de visages, genre il n'a pas vu toutes les photos possibles du visage, mais grâce à sa structure il va pouvoir classer le visage. Il encode d'une certaine manière une représentation possible d'un ensemble de visages connus.
Après, effectivement, le réseau de neurone n'a aucune idée de ce qu'est un visage ou de ce qu'est une personne. Il n'a aucune notion de sémantique.
Est-ce à dire que les machines ne sont pas capables d'intelligence ? Ce n'est pas forcément mon avis. Ça veut simplement dire que le réseau de neurone en lui même n'est pas un être intelligent. Par contre il peut faire parti d'un être plus vaste qui lui, sera peut être intelligent. L'intelligence émergerait alors de cet ensemble plus vaste, d'un être qui serait capable de comprendre et d'agir sur le monde. Voir de se concevoir lui même.
Pour l'exemple du ski: le bot, dans ce cas, n'est pas personnellement impliqué dans l'affaire, il donne juste la sensation de l'intelligence. Serait-ce différent pour un robot suffisament élaboré ayant découvert et appris le ski alors qu'il n'en avait aucune connaissance avant, et qu'il ait appris de lui même les concepts ?
Bon ça fait longtemps aussi que les chats sont nourris à bases de croquettes et qu'ils n'ont plus besoin de chasser pour se nourrir ! Je crois que l'article que j'avais lu ( une brève dans un sciences humaines ) parlait surtout de la chasse comme "jeu" pour le chat, et non pas comme nécessité vitale ( effectivement ça change les critères ... )
Le jeu peut très bien être vu comme un moyen d'apprendre justement :) Le jeune chat s'entraîne, instinctivement, pour quand il devra trouver sa bouffe tout seul et pour régler les paramètres de l'équation.
Héhé, l'information est complète, ça n'empêche pas qu'on a une capacité limitée à "dérouler" le jeu, due au très très grand nombre de combinaisons possible et qu'on ne sait pas ce que l'adversaire va jouer.
Donc effectivement c'est beaucoup de pratique, du par cœur au début ou à la fin quand la combinatoire est "calme" et de "feeling" (quoi que ça puisse vouloir dire) pour pas te mettre dans des situations ou d'expérience tu te mets en danger et mettre l'adversaire en danger, de prévisions sur ce que va jouer l'adversaire, de dosage du risque, ...
Du coup, comme disais mon prof d'IA, il y a deux façon de faire de l'IA, grossièrement:
* Mettre l'intelligence et la connaissance humaine sur le problème dans l'algorithme,
* Ou pondre un algo qui va prendre les décisions toutes seules sans qu'on lui tienne forcément la main.
Il y a aussi le bourrinage que permet la machine, bien sûr quand c'est possible, mais je suis pas sûr qu'en soit ça mérite le qualificatif "d'intelligence artificielle" :)
Pour rebondir avec un de mes autres commentaire, les algorithmes "à apprentissage", en quelques sorte, se construisent une connaissance, un genre de modèle, différent selon les algos, à partir de ce qu'on leur a donné et de ce qu'ils ont pu déduire. Les réseaux de neurones servent surtout à faire de la classification, c'est à dire de mettre une étiquette sur un objet, genre "ce truc est un A" si tu fais de la reconnaissance de caractère.
Ça les rends plus souple et plus adaptables, même ça marche pas bien dans tous les cas. un des problèmes des metaheuristiques, d'autres algo à apprentissage ou plus ou moins, par exemple, c'est qu'ils sont adaptables certes, mais qu'il est parfois difficile de les "tuner" pour obtenir le résultat souhaité.
Si la probabilité de se faire remarquer >= la probabilité d'attraper sa proie
Attaquer();
J'en doute: t'as au moins d'autres paramètres. Genre "si j'ai très très faim" et si "j'ai pas vu un oiseau depuis des siècles" alors "seuil de risque" très très haut :)
Son expérience de la chasse aussi j'imagine, genre le chat inexpérimenté va plus facilement se faire remarquer, il va mal évaluer la probabilité de se faire remarquer, voir ne pas du tout avoir conscience qu'il peut se faire remarquer.
L'homme n'est ni libre ni rationnel, et nos décisions ne sont jamais justes car nous n'avons jamais une information complète et objective.
C'est aussi une question de temps: nous disposons d'un temps limité pour prendre nos décisions. C'est même pire que ça, notre esprit nous "pousse" à prendre des décisions rapide (ennui, lassitude) si nous stagnons, amha.
Et si tu regardes théories des jeux, il existe des jeux à information complète, genre le solitaire pas exemple. Les échecs aussi même, nous avons toutes les informations sur le jeu, pas de hasard. Certe nous ne savons pas ce que va jouer l'adversaire, on peut seulement l'imaginer.
En gros, un bête algorithme n'est pas "intelligent" en soi.
Genre un algo de plus court chemin, exécuté par une machine, en entré il a un graphe, en sortie il a un chemin, et c'est tout, c'est une coquille vide.
Quand tu étales une carte devant toi, tu as un but, tu veux à priori aller quelque part, par envie, par obligation, que sais-je. Après, sur cette carte, tu vois des traits, qui représentent des routes, des autoroutes, des chemins: tout ça fait sens.
Sans but, sans motivation, sans représentation, sans envie, sans besoin, sans conscience d'un monde extérieur à soi, un graphe n'est rien. Pour toi, (sans d'ailleurs que tu en ai conscience, tu fais pas des maths pour aller chez un amis) ce n'est pas un graphe, c'est la représentation de quelque chose.
Pour moi c'est ce qui fait la différence entre une coquille qui calcule et quelque chose d'intelligent. Et c'est le sens des recherches dans ce genre d'équipe: http://www.aiboteamhumboldt.com/projekte.php?lang=en ( http://www.martin-loetzsch.de/ par exemple) en robotique. Les robots ont besoin de concevoir le monde, et de le représenter de manière interne pour ne pas raisonner que sur un modèle, mais pour agir dessus.
L'intelligence, dans ce cas, serait un comportement émergent. Je sais que d'autres existe, je sais qu'un monde existe, je sais que je peux agir dessus, je sais que quand j'agis, je fais plaisir (ou pas) à des gens, a moi. Je ne calcule pas le plus court chemin dans un graphe.
Pas faux, c'est déja pas mal d'avoir précisé que c'était une IA de jeu qui était voulue ;)
Parce qu'effectivement, l'IA c'est vaste.
Le truc le plus "ambitieux" que j'ai vu de ce côté là, pour la partie raisonnement pur, c'est le projet CHERCHEUR, de Jacques_Pitrat, qui vise grossièrement à construire un programme informatique qui raisonne comme un humain qui résoudra un problème.
Grossièrement toujours, l'approche est la suivante:
-> tu décris un problème dans un langage formel (problème SEND+MORE=MONEY, Sudoku ou ce genre de problème, mais pas seulement) relativement expressif
-> le programme analyse et génère un programme spécifique en C, qui va raisonner d'abord sur le problème pour faire des déductions utiles à la résolution (il possède déja une base de donnée de règles à appliquer)
-> appliquer une phase de combinatoire pour tester des hypothèses (genre S=4) quand on a "suffisamment" raisonnés sur le problème, relancer une phase de raisonnement en tenant compte de cette hypothèse, et recommencer
Je crois qu'il y a aussi une phase d'apprentissage, ou si le programme C a pas l'air d'être efficace, il va essayer d'en tenir compte pour être plus efficace après, essayer de n'utiliser que les règles les plus efficaces, etc.
L'objectif ultime du projet est de faire en sorte que le programme devienne autonome en apprenant de lui même comment raisonner sur le problème original. Dans son cas c'est apprendre les règles de raisonnement.
En gros ce qu'il fait avec c'est modéliser un problème, le filer à son programme, attendre le résultat et regarder la démonstration, et s'extasier genre "ah ouais ça j'y aurai jamais pensé"
Pour la partie raisonnement sur le problème (partie "meta") il s'est amusé à faire faire le raisonnement automatiquement par son programme lui même (faire le choix des règles à appliquer en gros) et à coder un choix de règles lui même et à constater que son choix de règle marchait moins bien. (Pas compris comment ça marchait, il a pas beaucoup détaillé)
[^] # Re: Rien à voir..
Posté par thoasm . En réponse au journal La fièvre humanitaire de Bill et Melinda Gate. Évalué à 7.
Or ils se trouve que les compagnies pétrolière, en sachant à quel point nos sociétés sont dépendantes du pétroles, sont curieusement extrêmement rentables ...
Ne pas chercher le diable quand il y a une explication rationnelle qui marche super bien par ailleurs ...
[^] # Re: Morale flexible
Posté par thoasm . En réponse au journal La fièvre humanitaire de Bill et Melinda Gate. Évalué à 4.
Réponse facile: il paierait plus en impots que ce qu'il donne en humanitaire ?
redorer son image
Parce qu'il est si impopulaire que ça ? Il me semblait qu'à part chez les libristes il avait pas une si mauvaise image.
Cet article de Wikipedia rappelle entre autres l'histoire du Delta du Niger : la fondation B&M G lutte contre la polio et la rougeole, mais les habitants du coin sont aussi confrontés à des maladies respiratoires, dues à la pollution des industries pétrolières, lesquelles sont bien présentes dans le portefeuille d'actions de la fondation ! On pourra rétorquer que ce n'est qu'un investissement parmi tant d'autres (même pas un demi-milliard de $, une paille !)
Prendre les problèmes les uns après les autres et pas tout attaquer en même temps, c'est pas forcément une mauvaise stratégie. Il vaut mieux juste avoir de problèmes respiratoires dans un premier temps que d'avoir des problèmes respiratoires ET la polio, je dirai.
Après effectivement ça n'empêche pas une certaine éthique des industriels et une vigilance dans les investissement. Mais si il ne faisait rien, ça ne rendrait pas la situation meilleure pour autant. Il aurait seulement son argent placé. Est-ce mieux ?
[^] # Re: Des hordes
Posté par thoasm . En réponse au journal La fièvre humanitaire de Bill et Melinda Gate. Évalué à 2.
Bref, si t'es déjà méfiant vis à vis de ce genre de "médias"*, il faut faire un effort pour ne pas fuir et aller au bout de l'article ... (enfin, ce n'est que mon sentiment)
* Pour ceux qui n'aimeraient pas les guillemets, je ne fais qu'utiliser un des artifices vu récemment sur Rue89, juste retour de bâton.
# mplayerplug-in
Posté par thoasm . En réponse au journal Les (més) aventures d'un web spectateur sur France 5. Évalué à 4.
[^] # Re: D'un autre côté...
Posté par thoasm . En réponse au journal Attention aux fausses offres "+XX gratuit" chez Auchan. Évalué à 3.
Pas la peine de prendre la mouche cela dit, critiquer une marque de produit n'est pas critiquer un mode de vie ...
Éventuellement, l'article de 60 millions de consommateur est accessible contre 2€, et j'ai pas envie de dépenser 2€ juste pour troller, et il n'y a pas des masses de ressources un peu critiques sur la question, juste des sites tellement élogieux que ça ressemble à de la pub surfant sur la vague écolo à premiere vue.
Bref ce que j'aimerai savoir c'est:
* si c'est plus efficace que de l'eau et une éponge
* jusqu'à quel point c'est équologique
[^] # Re: D'un autre côté...
Posté par thoasm . En réponse au journal Attention aux fausses offres "+XX gratuit" chez Auchan. Évalué à 2.
[^] # Re: Attention
Posté par thoasm . En réponse au journal Attention aux fausses offres "+XX gratuit" chez Auchan. Évalué à 2.
Ouais alors tu me trouveras beaucoup d'épiceries du coin qui ont ouvert par le passé jusqu'à 23h ... à Paris peut être, je suis pas sûr que ça date de très très longtemps.
[^] # Re: Vendre, encaisser, etc
Posté par thoasm . En réponse au journal Attention aux fausses offres "+XX gratuit" chez Auchan. Évalué à 1.
[^] # Re: Attention
Posté par thoasm . En réponse au journal Attention aux fausses offres "+XX gratuit" chez Auchan. Évalué à 6.
Source ? Et d'un point de vue plus "global", ça n'aurait pas d'autres effets de bords, genre les gens économisent des sous qu'ils peuvent réinvestir ailleurs, en créant d'autres types d'emplois ?
[^] # Re: Haiku pour Mme Michu
Posté par thoasm . En réponse à la dépêche Et de 7 pour Haiku. Évalué à 3.
D'ailleurs en cherchant un peu elle est sur wp: Homme_de_la_rue
[^] # Re: Pas tout le corps
Posté par thoasm . En réponse au journal Emily, la fille du futur. Évalué à 4.
[^] # Re: Bien
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 4.
Régler les poids à la mano, c'est pas du tout de l'apprentissage, c'est une sorte de tuning manuel. L'apprentissage ça doit être automatique.
Apprendre à partir d'exemples, c'est ce qu'on appelle l'apprentissage supervisé, par opposition à apprentissage non supervisé.
L'apprentissage non supervisé, grosso modo, c'est apprendre quand on a pas d'information préalable sur les données qu'on va traîter.
Si on prends l'exemple de la reconnaissance d'écriture par exemple, l'apprentissage supervisé ce serait:
J'ai une base de donnée de dessin de "R", je les donne à manger à l'algo d'apprentissage en lui disant qu'il doit les classer comme des "R", je recommence avec des "A", ...
Ensuite tu lui file un dessin, et il doit trouver quelle lettre ton dessin représente.
L'apprentissage non supervisé, il ne connait pas les classes au préalable, et il doit trouver tout seul que deux "R" sont dans la même classe, que les "A" se ressemblent tous mais qu'ils sont différents des "R", donc créer deux classes "A" et "R".
Pour finir, j'y connais pas grand chose en réseau de neurone, mais utiliser des algo génétiques pour fixer les poids d'un réseau neuronal, ça a l'air plutôt avancé et de ma petite fenêtre j'ai pas vu ça dans les algo "classique" d'apprentissage pour un réseau de neurone ...
[^] # Re: Quel troll en moins?
Posté par thoasm . En réponse au journal Un troll en moins. Évalué à 5.
[^] # Re: bon ben c' est simple....
Posté par thoasm . En réponse au journal G'MIC : Un nouvel outil libre de manipulation d'images. Évalué à 2.
À priori, histoire d'être cohérent, autant tout faire en template non ?
[^] # Re: Trop vague
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 7.
[^] # Re: Re:
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 3.
Merde, alors ma grand mère aurait aurait pu demontrer le théorème de Fermat si j'avais essayé de lui expliquer ? Dommage que je l'aie pas fait :)
[^] # Re: Trop vague
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 4.
Bon évidemment, dans mon cas, c'est naturel, donc c'est un peu de la triche.
(je fais semblant d'être sérieux, enfin, j'essaye. Ça y est, je pouffe. J'éclate de rire, ça suffit les conneries)
[^] # Re: Unités
Posté par thoasm . En réponse au journal Manchot solaire. Évalué à 3.
[^] # Re: Il n'y a pas que des algos !
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 2.
Oui mais non, dans le cas de la classification, il y a une sorte de représentation d'un ensemble de visages, genre il n'a pas vu toutes les photos possibles du visage, mais grâce à sa structure il va pouvoir classer le visage. Il encode d'une certaine manière une représentation possible d'un ensemble de visages connus.
Après, effectivement, le réseau de neurone n'a aucune idée de ce qu'est un visage ou de ce qu'est une personne. Il n'a aucune notion de sémantique.
Est-ce à dire que les machines ne sont pas capables d'intelligence ? Ce n'est pas forcément mon avis. Ça veut simplement dire que le réseau de neurone en lui même n'est pas un être intelligent. Par contre il peut faire parti d'un être plus vaste qui lui, sera peut être intelligent. L'intelligence émergerait alors de cet ensemble plus vaste, d'un être qui serait capable de comprendre et d'agir sur le monde. Voir de se concevoir lui même.
Pour l'exemple du ski: le bot, dans ce cas, n'est pas personnellement impliqué dans l'affaire, il donne juste la sensation de l'intelligence. Serait-ce différent pour un robot suffisament élaboré ayant découvert et appris le ski alors qu'il n'en avait aucune connaissance avant, et qu'il ait appris de lui même les concepts ?
[^] # Re: Écrit comment TU joues !!
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 2.
Le jeu peut très bien être vu comme un moyen d'apprendre justement :) Le jeune chat s'entraîne, instinctivement, pour quand il devra trouver sa bouffe tout seul et pour régler les paramètres de l'équation.
Héhé, l'information est complète, ça n'empêche pas qu'on a une capacité limitée à "dérouler" le jeu, due au très très grand nombre de combinaisons possible et qu'on ne sait pas ce que l'adversaire va jouer.
Donc effectivement c'est beaucoup de pratique, du par cœur au début ou à la fin quand la combinatoire est "calme" et de "feeling" (quoi que ça puisse vouloir dire) pour pas te mettre dans des situations ou d'expérience tu te mets en danger et mettre l'adversaire en danger, de prévisions sur ce que va jouer l'adversaire, de dosage du risque, ...
Du coup, comme disais mon prof d'IA, il y a deux façon de faire de l'IA, grossièrement:
* Mettre l'intelligence et la connaissance humaine sur le problème dans l'algorithme,
* Ou pondre un algo qui va prendre les décisions toutes seules sans qu'on lui tienne forcément la main.
Il y a aussi le bourrinage que permet la machine, bien sûr quand c'est possible, mais je suis pas sûr qu'en soit ça mérite le qualificatif "d'intelligence artificielle" :)
[^] # Re: Il n'y a pas que des algos !
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 3.
Ça les rends plus souple et plus adaptables, même ça marche pas bien dans tous les cas. un des problèmes des metaheuristiques, d'autres algo à apprentissage ou plus ou moins, par exemple, c'est qu'ils sont adaptables certes, mais qu'il est parfois difficile de les "tuner" pour obtenir le résultat souhaité.
[^] # Re: Écrit comment TU joues !!
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 2.
Attaquer();
J'en doute: t'as au moins d'autres paramètres. Genre "si j'ai très très faim" et si "j'ai pas vu un oiseau depuis des siècles" alors "seuil de risque" très très haut :)
Son expérience de la chasse aussi j'imagine, genre le chat inexpérimenté va plus facilement se faire remarquer, il va mal évaluer la probabilité de se faire remarquer, voir ne pas du tout avoir conscience qu'il peut se faire remarquer.
L'homme n'est ni libre ni rationnel, et nos décisions ne sont jamais justes car nous n'avons jamais une information complète et objective.
C'est aussi une question de temps: nous disposons d'un temps limité pour prendre nos décisions. C'est même pire que ça, notre esprit nous "pousse" à prendre des décisions rapide (ennui, lassitude) si nous stagnons, amha.
Et si tu regardes théories des jeux, il existe des jeux à information complète, genre le solitaire pas exemple. Les échecs aussi même, nous avons toutes les informations sur le jeu, pas de hasard. Certe nous ne savons pas ce que va jouer l'adversaire, on peut seulement l'imaginer.
À part ça, quelques algos "de bases" en algo de jeux : en:Negamax en:Alpha-beta_pruning, etc.
[^] # Re: Trop vague
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 10.
Mon avis est assez proche de Chambre_chinoise.
En gros, un bête algorithme n'est pas "intelligent" en soi.
Genre un algo de plus court chemin, exécuté par une machine, en entré il a un graphe, en sortie il a un chemin, et c'est tout, c'est une coquille vide.
Quand tu étales une carte devant toi, tu as un but, tu veux à priori aller quelque part, par envie, par obligation, que sais-je. Après, sur cette carte, tu vois des traits, qui représentent des routes, des autoroutes, des chemins: tout ça fait sens.
Sans but, sans motivation, sans représentation, sans envie, sans besoin, sans conscience d'un monde extérieur à soi, un graphe n'est rien. Pour toi, (sans d'ailleurs que tu en ai conscience, tu fais pas des maths pour aller chez un amis) ce n'est pas un graphe, c'est la représentation de quelque chose.
Pour moi c'est ce qui fait la différence entre une coquille qui calcule et quelque chose d'intelligent. Et c'est le sens des recherches dans ce genre d'équipe: http://www.aiboteamhumboldt.com/projekte.php?lang=en ( http://www.martin-loetzsch.de/ par exemple) en robotique. Les robots ont besoin de concevoir le monde, et de le représenter de manière interne pour ne pas raisonner que sur un modèle, mais pour agir dessus.
L'intelligence, dans ce cas, serait un comportement émergent. Je sais que d'autres existe, je sais qu'un monde existe, je sais que je peux agir dessus, je sais que quand j'agis, je fais plaisir (ou pas) à des gens, a moi. Je ne calcule pas le plus court chemin dans un graphe.
[^] # Re: Trop vague
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 4.
Parce qu'effectivement, l'IA c'est vaste.
Le truc le plus "ambitieux" que j'ai vu de ce côté là, pour la partie raisonnement pur, c'est le projet CHERCHEUR, de Jacques_Pitrat, qui vise grossièrement à construire un programme informatique qui raisonne comme un humain qui résoudra un problème.
Grossièrement toujours, l'approche est la suivante:
-> tu décris un problème dans un langage formel (problème SEND+MORE=MONEY, Sudoku ou ce genre de problème, mais pas seulement) relativement expressif
-> le programme analyse et génère un programme spécifique en C, qui va raisonner d'abord sur le problème pour faire des déductions utiles à la résolution (il possède déja une base de donnée de règles à appliquer)
-> appliquer une phase de combinatoire pour tester des hypothèses (genre S=4) quand on a "suffisamment" raisonnés sur le problème, relancer une phase de raisonnement en tenant compte de cette hypothèse, et recommencer
Je crois qu'il y a aussi une phase d'apprentissage, ou si le programme C a pas l'air d'être efficace, il va essayer d'en tenir compte pour être plus efficace après, essayer de n'utiliser que les règles les plus efficaces, etc.
L'objectif ultime du projet est de faire en sorte que le programme devienne autonome en apprenant de lui même comment raisonner sur le problème original. Dans son cas c'est apprendre les règles de raisonnement.
En gros ce qu'il fait avec c'est modéliser un problème, le filer à son programme, attendre le résultat et regarder la démonstration, et s'extasier genre "ah ouais ça j'y aurai jamais pensé"
Pour la partie raisonnement sur le problème (partie "meta") il s'est amusé à faire faire le raisonnement automatiquement par son programme lui même (faire le choix des règles à appliquer en gros) et à coder un choix de règles lui même et à constater que son choix de règle marchait moins bien. (Pas compris comment ça marchait, il a pas beaucoup détaillé)
Désolé pour les refs, j'ai ça http://www.lina.sciences.univ-nantes.fr/JFPC08/jfpc08/index.(...) mais c'est pas très parlant pour un néophyte je pense, il y avait aussi des slides mais pas très détaillés.
En dehors de ça il y a la page de Pitrat, ses publis et les thèses de ses thésards, mais le tout n'est pas forcément "à jour" sur ce projet.
Il y a ça aussi : http://www.automatesintelligents.com/interviews/2001/nov/pit(...)
[^] # Re: Auto flagellation
Posté par thoasm . En réponse au journal [humeur] la France des loosers. Évalué à 3.