Je te rejoins, c'est un peu le travers d'agoravox et de rue89 par exemple, ils prennent un ton résolument engagé très visible et très agaçant en général.
Bref, si t'es déjà méfiant vis à vis de ce genre de "médias"*, il faut faire un effort pour ne pas fuir et aller au bout de l'article ... (enfin, ce n'est que mon sentiment)
* Pour ceux qui n'aimeraient pas les guillemets, je ne fais qu'utiliser un des artifices vu récemment sur Rue89, juste retour de bâton.
Mea culpa pour la citation de la marque, mais j'avais pas capté quand tu l'as cité, je connaissais pas et j'ai cru à un produit à base d'étamines de lys.
Pas la peine de prendre la mouche cela dit, critiquer une marque de produit n'est pas critiquer un mode de vie ...
Éventuellement, l'article de 60 millions de consommateur est accessible contre 2€, et j'ai pas envie de dépenser 2€ juste pour troller, et il n'y a pas des masses de ressources un peu critiques sur la question, juste des sites tellement élogieux que ça ressemble à de la pub surfant sur la vague écolo à premiere vue.
Bref ce que j'aimerai savoir c'est:
* si c'est plus efficace que de l'eau et une éponge
* jusqu'à quel point c'est équologique
En même temps si t'étais plus précis et citais des produits référencés quelque part, on pourrait en retrouvant l'étude en question voir si ils sont dedans, ou pas ...
Que ça devient impossible de trouver un produit a 23H le soir vu que l'épicerie du coin a fermé ^^
Ouais alors tu me trouveras beaucoup d'épiceries du coin qui ont ouvert par le passé jusqu'à 23h ... à Paris peut être, je suis pas sûr que ça date de très très longtemps.
Une grande surface qui crée 300 emplois directement en détruit 1500 sur quelques lieux à la ronde, parait-il.
Source ? Et d'un point de vue plus "global", ça n'aurait pas d'autres effets de bords, genre les gens économisent des sous qu'ils peuvent réinvestir ailleurs, en créant d'autres types d'emplois ?
Régler les poids à la mano, c'est pas du tout de l'apprentissage, c'est une sorte de tuning manuel. L'apprentissage ça doit être automatique.
Apprendre à partir d'exemples, c'est ce qu'on appelle l'apprentissage supervisé, par opposition à apprentissage non supervisé.
L'apprentissage non supervisé, grosso modo, c'est apprendre quand on a pas d'information préalable sur les données qu'on va traîter.
Si on prends l'exemple de la reconnaissance d'écriture par exemple, l'apprentissage supervisé ce serait:
J'ai une base de donnée de dessin de "R", je les donne à manger à l'algo d'apprentissage en lui disant qu'il doit les classer comme des "R", je recommence avec des "A", ...
Ensuite tu lui file un dessin, et il doit trouver quelle lettre ton dessin représente.
L'apprentissage non supervisé, il ne connait pas les classes au préalable, et il doit trouver tout seul que deux "R" sont dans la même classe, que les "A" se ressemblent tous mais qu'ils sont différents des "R", donc créer deux classes "A" et "R".
Pour finir, j'y connais pas grand chose en réseau de neurone, mais utiliser des algo génétiques pour fixer les poids d'un réseau neuronal, ça a l'air plutôt avancé et de ma petite fenêtre j'ai pas vu ça dans les algo "classique" d'apprentissage pour un réseau de neurone ...
Il y a aussi une théorie qui dit que les personnes qui ont le plus de chances de trouver certains problèmes réputés très difficiles (comme trouver une vraie IA ou démontrer que P != NP (ou égal)), sont ceux qui sont loin du domaine, car ils pourront penser différemment, sans être influencés.
Merde, alors ma grand mère aurait aurait pu demontrer le théorème de Fermat si j'avais essayé de lui expliquer ? Dommage que je l'aie pas fait :)
Oui mais non, dans le cas de la classification, il y a une sorte de représentation d'un ensemble de visages, genre il n'a pas vu toutes les photos possibles du visage, mais grâce à sa structure il va pouvoir classer le visage. Il encode d'une certaine manière une représentation possible d'un ensemble de visages connus.
Après, effectivement, le réseau de neurone n'a aucune idée de ce qu'est un visage ou de ce qu'est une personne. Il n'a aucune notion de sémantique.
Est-ce à dire que les machines ne sont pas capables d'intelligence ? Ce n'est pas forcément mon avis. Ça veut simplement dire que le réseau de neurone en lui même n'est pas un être intelligent. Par contre il peut faire parti d'un être plus vaste qui lui, sera peut être intelligent. L'intelligence émergerait alors de cet ensemble plus vaste, d'un être qui serait capable de comprendre et d'agir sur le monde. Voir de se concevoir lui même.
Pour l'exemple du ski: le bot, dans ce cas, n'est pas personnellement impliqué dans l'affaire, il donne juste la sensation de l'intelligence. Serait-ce différent pour un robot suffisament élaboré ayant découvert et appris le ski alors qu'il n'en avait aucune connaissance avant, et qu'il ait appris de lui même les concepts ?
Bon ça fait longtemps aussi que les chats sont nourris à bases de croquettes et qu'ils n'ont plus besoin de chasser pour se nourrir ! Je crois que l'article que j'avais lu ( une brève dans un sciences humaines ) parlait surtout de la chasse comme "jeu" pour le chat, et non pas comme nécessité vitale ( effectivement ça change les critères ... )
Le jeu peut très bien être vu comme un moyen d'apprendre justement :) Le jeune chat s'entraîne, instinctivement, pour quand il devra trouver sa bouffe tout seul et pour régler les paramètres de l'équation.
Héhé, l'information est complète, ça n'empêche pas qu'on a une capacité limitée à "dérouler" le jeu, due au très très grand nombre de combinaisons possible et qu'on ne sait pas ce que l'adversaire va jouer.
Donc effectivement c'est beaucoup de pratique, du par cœur au début ou à la fin quand la combinatoire est "calme" et de "feeling" (quoi que ça puisse vouloir dire) pour pas te mettre dans des situations ou d'expérience tu te mets en danger et mettre l'adversaire en danger, de prévisions sur ce que va jouer l'adversaire, de dosage du risque, ...
Du coup, comme disais mon prof d'IA, il y a deux façon de faire de l'IA, grossièrement:
* Mettre l'intelligence et la connaissance humaine sur le problème dans l'algorithme,
* Ou pondre un algo qui va prendre les décisions toutes seules sans qu'on lui tienne forcément la main.
Il y a aussi le bourrinage que permet la machine, bien sûr quand c'est possible, mais je suis pas sûr qu'en soit ça mérite le qualificatif "d'intelligence artificielle" :)
Pour rebondir avec un de mes autres commentaire, les algorithmes "à apprentissage", en quelques sorte, se construisent une connaissance, un genre de modèle, différent selon les algos, à partir de ce qu'on leur a donné et de ce qu'ils ont pu déduire. Les réseaux de neurones servent surtout à faire de la classification, c'est à dire de mettre une étiquette sur un objet, genre "ce truc est un A" si tu fais de la reconnaissance de caractère.
Ça les rends plus souple et plus adaptables, même ça marche pas bien dans tous les cas. un des problèmes des metaheuristiques, d'autres algo à apprentissage ou plus ou moins, par exemple, c'est qu'ils sont adaptables certes, mais qu'il est parfois difficile de les "tuner" pour obtenir le résultat souhaité.
Si la probabilité de se faire remarquer >= la probabilité d'attraper sa proie
Attaquer();
J'en doute: t'as au moins d'autres paramètres. Genre "si j'ai très très faim" et si "j'ai pas vu un oiseau depuis des siècles" alors "seuil de risque" très très haut :)
Son expérience de la chasse aussi j'imagine, genre le chat inexpérimenté va plus facilement se faire remarquer, il va mal évaluer la probabilité de se faire remarquer, voir ne pas du tout avoir conscience qu'il peut se faire remarquer.
L'homme n'est ni libre ni rationnel, et nos décisions ne sont jamais justes car nous n'avons jamais une information complète et objective.
C'est aussi une question de temps: nous disposons d'un temps limité pour prendre nos décisions. C'est même pire que ça, notre esprit nous "pousse" à prendre des décisions rapide (ennui, lassitude) si nous stagnons, amha.
Et si tu regardes théories des jeux, il existe des jeux à information complète, genre le solitaire pas exemple. Les échecs aussi même, nous avons toutes les informations sur le jeu, pas de hasard. Certe nous ne savons pas ce que va jouer l'adversaire, on peut seulement l'imaginer.
En gros, un bête algorithme n'est pas "intelligent" en soi.
Genre un algo de plus court chemin, exécuté par une machine, en entré il a un graphe, en sortie il a un chemin, et c'est tout, c'est une coquille vide.
Quand tu étales une carte devant toi, tu as un but, tu veux à priori aller quelque part, par envie, par obligation, que sais-je. Après, sur cette carte, tu vois des traits, qui représentent des routes, des autoroutes, des chemins: tout ça fait sens.
Sans but, sans motivation, sans représentation, sans envie, sans besoin, sans conscience d'un monde extérieur à soi, un graphe n'est rien. Pour toi, (sans d'ailleurs que tu en ai conscience, tu fais pas des maths pour aller chez un amis) ce n'est pas un graphe, c'est la représentation de quelque chose.
Pour moi c'est ce qui fait la différence entre une coquille qui calcule et quelque chose d'intelligent. Et c'est le sens des recherches dans ce genre d'équipe: http://www.aiboteamhumboldt.com/projekte.php?lang=en ( http://www.martin-loetzsch.de/ par exemple) en robotique. Les robots ont besoin de concevoir le monde, et de le représenter de manière interne pour ne pas raisonner que sur un modèle, mais pour agir dessus.
L'intelligence, dans ce cas, serait un comportement émergent. Je sais que d'autres existe, je sais qu'un monde existe, je sais que je peux agir dessus, je sais que quand j'agis, je fais plaisir (ou pas) à des gens, a moi. Je ne calcule pas le plus court chemin dans un graphe.
Pas faux, c'est déja pas mal d'avoir précisé que c'était une IA de jeu qui était voulue ;)
Parce qu'effectivement, l'IA c'est vaste.
Le truc le plus "ambitieux" que j'ai vu de ce côté là, pour la partie raisonnement pur, c'est le projet CHERCHEUR, de Jacques_Pitrat, qui vise grossièrement à construire un programme informatique qui raisonne comme un humain qui résoudra un problème.
Grossièrement toujours, l'approche est la suivante:
-> tu décris un problème dans un langage formel (problème SEND+MORE=MONEY, Sudoku ou ce genre de problème, mais pas seulement) relativement expressif
-> le programme analyse et génère un programme spécifique en C, qui va raisonner d'abord sur le problème pour faire des déductions utiles à la résolution (il possède déja une base de donnée de règles à appliquer)
-> appliquer une phase de combinatoire pour tester des hypothèses (genre S=4) quand on a "suffisamment" raisonnés sur le problème, relancer une phase de raisonnement en tenant compte de cette hypothèse, et recommencer
Je crois qu'il y a aussi une phase d'apprentissage, ou si le programme C a pas l'air d'être efficace, il va essayer d'en tenir compte pour être plus efficace après, essayer de n'utiliser que les règles les plus efficaces, etc.
L'objectif ultime du projet est de faire en sorte que le programme devienne autonome en apprenant de lui même comment raisonner sur le problème original. Dans son cas c'est apprendre les règles de raisonnement.
En gros ce qu'il fait avec c'est modéliser un problème, le filer à son programme, attendre le résultat et regarder la démonstration, et s'extasier genre "ah ouais ça j'y aurai jamais pensé"
Pour la partie raisonnement sur le problème (partie "meta") il s'est amusé à faire faire le raisonnement automatiquement par son programme lui même (faire le choix des règles à appliquer en gros) et à coder un choix de règles lui même et à constater que son choix de règle marchait moins bien. (Pas compris comment ça marchait, il a pas beaucoup détaillé)
Et oui, le reproche fait à Canonical est de respecter les règles
Pas vraiment, de ce que je peux voir, personne ne reproche à Canonical de respecter les règles au sens légal du terme.
Ce qui est reproché à Canonical, c'est de ne pas repecter un certain nombre de règles, pas forcément formelles ou écrites, qui relèvent plus du savoir vivre ou du jouer le jeu du ll, si on peut dire.
Genre, en particulier, il lui est reproché de ne pas contribuer tant que ça upstream pour une distribution de cette envergure, de ne pas releaser le code de launchpad, ...
[^] # Re: Des hordes
Posté par thoasm . En réponse au journal La fièvre humanitaire de Bill et Melinda Gate. Évalué à 2.
Bref, si t'es déjà méfiant vis à vis de ce genre de "médias"*, il faut faire un effort pour ne pas fuir et aller au bout de l'article ... (enfin, ce n'est que mon sentiment)
* Pour ceux qui n'aimeraient pas les guillemets, je ne fais qu'utiliser un des artifices vu récemment sur Rue89, juste retour de bâton.
# mplayerplug-in
Posté par thoasm . En réponse au journal Les (més) aventures d'un web spectateur sur France 5. Évalué à 4.
[^] # Re: D'un autre côté...
Posté par thoasm . En réponse au journal Attention aux fausses offres "+XX gratuit" chez Auchan. Évalué à 3.
Pas la peine de prendre la mouche cela dit, critiquer une marque de produit n'est pas critiquer un mode de vie ...
Éventuellement, l'article de 60 millions de consommateur est accessible contre 2€, et j'ai pas envie de dépenser 2€ juste pour troller, et il n'y a pas des masses de ressources un peu critiques sur la question, juste des sites tellement élogieux que ça ressemble à de la pub surfant sur la vague écolo à premiere vue.
Bref ce que j'aimerai savoir c'est:
* si c'est plus efficace que de l'eau et une éponge
* jusqu'à quel point c'est équologique
[^] # Re: D'un autre côté...
Posté par thoasm . En réponse au journal Attention aux fausses offres "+XX gratuit" chez Auchan. Évalué à 2.
[^] # Re: Attention
Posté par thoasm . En réponse au journal Attention aux fausses offres "+XX gratuit" chez Auchan. Évalué à 2.
Ouais alors tu me trouveras beaucoup d'épiceries du coin qui ont ouvert par le passé jusqu'à 23h ... à Paris peut être, je suis pas sûr que ça date de très très longtemps.
[^] # Re: Vendre, encaisser, etc
Posté par thoasm . En réponse au journal Attention aux fausses offres "+XX gratuit" chez Auchan. Évalué à 1.
[^] # Re: Attention
Posté par thoasm . En réponse au journal Attention aux fausses offres "+XX gratuit" chez Auchan. Évalué à 6.
Source ? Et d'un point de vue plus "global", ça n'aurait pas d'autres effets de bords, genre les gens économisent des sous qu'ils peuvent réinvestir ailleurs, en créant d'autres types d'emplois ?
[^] # Re: Haiku pour Mme Michu
Posté par thoasm . En réponse à la dépêche Et de 7 pour Haiku. Évalué à 3.
D'ailleurs en cherchant un peu elle est sur wp: Homme_de_la_rue
[^] # Re: Pas tout le corps
Posté par thoasm . En réponse au journal Emily, la fille du futur. Évalué à 4.
[^] # Re: Bien
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 4.
Régler les poids à la mano, c'est pas du tout de l'apprentissage, c'est une sorte de tuning manuel. L'apprentissage ça doit être automatique.
Apprendre à partir d'exemples, c'est ce qu'on appelle l'apprentissage supervisé, par opposition à apprentissage non supervisé.
L'apprentissage non supervisé, grosso modo, c'est apprendre quand on a pas d'information préalable sur les données qu'on va traîter.
Si on prends l'exemple de la reconnaissance d'écriture par exemple, l'apprentissage supervisé ce serait:
J'ai une base de donnée de dessin de "R", je les donne à manger à l'algo d'apprentissage en lui disant qu'il doit les classer comme des "R", je recommence avec des "A", ...
Ensuite tu lui file un dessin, et il doit trouver quelle lettre ton dessin représente.
L'apprentissage non supervisé, il ne connait pas les classes au préalable, et il doit trouver tout seul que deux "R" sont dans la même classe, que les "A" se ressemblent tous mais qu'ils sont différents des "R", donc créer deux classes "A" et "R".
Pour finir, j'y connais pas grand chose en réseau de neurone, mais utiliser des algo génétiques pour fixer les poids d'un réseau neuronal, ça a l'air plutôt avancé et de ma petite fenêtre j'ai pas vu ça dans les algo "classique" d'apprentissage pour un réseau de neurone ...
[^] # Re: Quel troll en moins?
Posté par thoasm . En réponse au journal Un troll en moins. Évalué à 5.
[^] # Re: bon ben c' est simple....
Posté par thoasm . En réponse au journal G'MIC : Un nouvel outil libre de manipulation d'images. Évalué à 2.
À priori, histoire d'être cohérent, autant tout faire en template non ?
[^] # Re: Trop vague
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 7.
[^] # Re: Re:
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 3.
Merde, alors ma grand mère aurait aurait pu demontrer le théorème de Fermat si j'avais essayé de lui expliquer ? Dommage que je l'aie pas fait :)
[^] # Re: Trop vague
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 4.
Bon évidemment, dans mon cas, c'est naturel, donc c'est un peu de la triche.
(je fais semblant d'être sérieux, enfin, j'essaye. Ça y est, je pouffe. J'éclate de rire, ça suffit les conneries)
[^] # Re: Unités
Posté par thoasm . En réponse au journal Manchot solaire. Évalué à 3.
[^] # Re: Il n'y a pas que des algos !
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 2.
Oui mais non, dans le cas de la classification, il y a une sorte de représentation d'un ensemble de visages, genre il n'a pas vu toutes les photos possibles du visage, mais grâce à sa structure il va pouvoir classer le visage. Il encode d'une certaine manière une représentation possible d'un ensemble de visages connus.
Après, effectivement, le réseau de neurone n'a aucune idée de ce qu'est un visage ou de ce qu'est une personne. Il n'a aucune notion de sémantique.
Est-ce à dire que les machines ne sont pas capables d'intelligence ? Ce n'est pas forcément mon avis. Ça veut simplement dire que le réseau de neurone en lui même n'est pas un être intelligent. Par contre il peut faire parti d'un être plus vaste qui lui, sera peut être intelligent. L'intelligence émergerait alors de cet ensemble plus vaste, d'un être qui serait capable de comprendre et d'agir sur le monde. Voir de se concevoir lui même.
Pour l'exemple du ski: le bot, dans ce cas, n'est pas personnellement impliqué dans l'affaire, il donne juste la sensation de l'intelligence. Serait-ce différent pour un robot suffisament élaboré ayant découvert et appris le ski alors qu'il n'en avait aucune connaissance avant, et qu'il ait appris de lui même les concepts ?
[^] # Re: Écrit comment TU joues !!
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 2.
Le jeu peut très bien être vu comme un moyen d'apprendre justement :) Le jeune chat s'entraîne, instinctivement, pour quand il devra trouver sa bouffe tout seul et pour régler les paramètres de l'équation.
Héhé, l'information est complète, ça n'empêche pas qu'on a une capacité limitée à "dérouler" le jeu, due au très très grand nombre de combinaisons possible et qu'on ne sait pas ce que l'adversaire va jouer.
Donc effectivement c'est beaucoup de pratique, du par cœur au début ou à la fin quand la combinatoire est "calme" et de "feeling" (quoi que ça puisse vouloir dire) pour pas te mettre dans des situations ou d'expérience tu te mets en danger et mettre l'adversaire en danger, de prévisions sur ce que va jouer l'adversaire, de dosage du risque, ...
Du coup, comme disais mon prof d'IA, il y a deux façon de faire de l'IA, grossièrement:
* Mettre l'intelligence et la connaissance humaine sur le problème dans l'algorithme,
* Ou pondre un algo qui va prendre les décisions toutes seules sans qu'on lui tienne forcément la main.
Il y a aussi le bourrinage que permet la machine, bien sûr quand c'est possible, mais je suis pas sûr qu'en soit ça mérite le qualificatif "d'intelligence artificielle" :)
[^] # Re: Il n'y a pas que des algos !
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 3.
Ça les rends plus souple et plus adaptables, même ça marche pas bien dans tous les cas. un des problèmes des metaheuristiques, d'autres algo à apprentissage ou plus ou moins, par exemple, c'est qu'ils sont adaptables certes, mais qu'il est parfois difficile de les "tuner" pour obtenir le résultat souhaité.
[^] # Re: Écrit comment TU joues !!
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 2.
Attaquer();
J'en doute: t'as au moins d'autres paramètres. Genre "si j'ai très très faim" et si "j'ai pas vu un oiseau depuis des siècles" alors "seuil de risque" très très haut :)
Son expérience de la chasse aussi j'imagine, genre le chat inexpérimenté va plus facilement se faire remarquer, il va mal évaluer la probabilité de se faire remarquer, voir ne pas du tout avoir conscience qu'il peut se faire remarquer.
L'homme n'est ni libre ni rationnel, et nos décisions ne sont jamais justes car nous n'avons jamais une information complète et objective.
C'est aussi une question de temps: nous disposons d'un temps limité pour prendre nos décisions. C'est même pire que ça, notre esprit nous "pousse" à prendre des décisions rapide (ennui, lassitude) si nous stagnons, amha.
Et si tu regardes théories des jeux, il existe des jeux à information complète, genre le solitaire pas exemple. Les échecs aussi même, nous avons toutes les informations sur le jeu, pas de hasard. Certe nous ne savons pas ce que va jouer l'adversaire, on peut seulement l'imaginer.
À part ça, quelques algos "de bases" en algo de jeux : en:Negamax en:Alpha-beta_pruning, etc.
[^] # Re: Trop vague
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 10.
Mon avis est assez proche de Chambre_chinoise.
En gros, un bête algorithme n'est pas "intelligent" en soi.
Genre un algo de plus court chemin, exécuté par une machine, en entré il a un graphe, en sortie il a un chemin, et c'est tout, c'est une coquille vide.
Quand tu étales une carte devant toi, tu as un but, tu veux à priori aller quelque part, par envie, par obligation, que sais-je. Après, sur cette carte, tu vois des traits, qui représentent des routes, des autoroutes, des chemins: tout ça fait sens.
Sans but, sans motivation, sans représentation, sans envie, sans besoin, sans conscience d'un monde extérieur à soi, un graphe n'est rien. Pour toi, (sans d'ailleurs que tu en ai conscience, tu fais pas des maths pour aller chez un amis) ce n'est pas un graphe, c'est la représentation de quelque chose.
Pour moi c'est ce qui fait la différence entre une coquille qui calcule et quelque chose d'intelligent. Et c'est le sens des recherches dans ce genre d'équipe: http://www.aiboteamhumboldt.com/projekte.php?lang=en ( http://www.martin-loetzsch.de/ par exemple) en robotique. Les robots ont besoin de concevoir le monde, et de le représenter de manière interne pour ne pas raisonner que sur un modèle, mais pour agir dessus.
L'intelligence, dans ce cas, serait un comportement émergent. Je sais que d'autres existe, je sais qu'un monde existe, je sais que je peux agir dessus, je sais que quand j'agis, je fais plaisir (ou pas) à des gens, a moi. Je ne calcule pas le plus court chemin dans un graphe.
[^] # Re: Trop vague
Posté par thoasm . En réponse au journal Des ordinateurs qui pensent.... Évalué à 4.
Parce qu'effectivement, l'IA c'est vaste.
Le truc le plus "ambitieux" que j'ai vu de ce côté là, pour la partie raisonnement pur, c'est le projet CHERCHEUR, de Jacques_Pitrat, qui vise grossièrement à construire un programme informatique qui raisonne comme un humain qui résoudra un problème.
Grossièrement toujours, l'approche est la suivante:
-> tu décris un problème dans un langage formel (problème SEND+MORE=MONEY, Sudoku ou ce genre de problème, mais pas seulement) relativement expressif
-> le programme analyse et génère un programme spécifique en C, qui va raisonner d'abord sur le problème pour faire des déductions utiles à la résolution (il possède déja une base de donnée de règles à appliquer)
-> appliquer une phase de combinatoire pour tester des hypothèses (genre S=4) quand on a "suffisamment" raisonnés sur le problème, relancer une phase de raisonnement en tenant compte de cette hypothèse, et recommencer
Je crois qu'il y a aussi une phase d'apprentissage, ou si le programme C a pas l'air d'être efficace, il va essayer d'en tenir compte pour être plus efficace après, essayer de n'utiliser que les règles les plus efficaces, etc.
L'objectif ultime du projet est de faire en sorte que le programme devienne autonome en apprenant de lui même comment raisonner sur le problème original. Dans son cas c'est apprendre les règles de raisonnement.
En gros ce qu'il fait avec c'est modéliser un problème, le filer à son programme, attendre le résultat et regarder la démonstration, et s'extasier genre "ah ouais ça j'y aurai jamais pensé"
Pour la partie raisonnement sur le problème (partie "meta") il s'est amusé à faire faire le raisonnement automatiquement par son programme lui même (faire le choix des règles à appliquer en gros) et à coder un choix de règles lui même et à constater que son choix de règle marchait moins bien. (Pas compris comment ça marchait, il a pas beaucoup détaillé)
Désolé pour les refs, j'ai ça http://www.lina.sciences.univ-nantes.fr/JFPC08/jfpc08/index.(...) mais c'est pas très parlant pour un néophyte je pense, il y avait aussi des slides mais pas très détaillés.
En dehors de ça il y a la page de Pitrat, ses publis et les thèses de ses thésards, mais le tout n'est pas forcément "à jour" sur ce projet.
Il y a ça aussi : http://www.automatesintelligents.com/interviews/2001/nov/pit(...)
[^] # Re: Auto flagellation
Posté par thoasm . En réponse au journal [humeur] la France des loosers. Évalué à 3.
[^] # Re: Unités
Posté par thoasm . En réponse au journal Manchot solaire. Évalué à 5.
[^] # Re: Pourquoi un coup de gueule?
Posté par thoasm . En réponse au journal Coup de gueule contre Canonical. Évalué à 10.
Pas vraiment, de ce que je peux voir, personne ne reproche à Canonical de respecter les règles au sens légal du terme.
Ce qui est reproché à Canonical, c'est de ne pas repecter un certain nombre de règles, pas forcément formelles ou écrites, qui relèvent plus du savoir vivre ou du jouer le jeu du ll, si on peut dire.
Genre, en particulier, il lui est reproché de ne pas contribuer tant que ça upstream pour une distribution de cette envergure, de ne pas releaser le code de launchpad, ...