En lisant rapidement le papier s'interroge sur la faisabilité du problème de l'apprentissage par l'exemple, en prenant l'angle de la complexité algorithmique.
L'apprentissage automatique "IA" est défini comme "à partir d'un certain nombre d'exemples de comportements humains (tiré dans un ensemble plus grand de comportements observés), apprendre un modèle ou un algorithme (d'une certaine taille) qui permette de prédire le comportement/décision humain avec une bonne probabilité"
Le raisonnement est de partir d'un problème algorithmique (perfect versus chance).
On dispose d'un certain nombre de données d'une certaine taille (un nombre de bits donnés), à chacun est associé pile ou face. On dispose d'un moyen d'en choisir au hasard
Le problème est de savoir si il existe un algorithme suffisamment "petit" (avec un certain nombre d'instruction, de taille au max k) qui puisse prédire si une donnée de notre jeu de donnée est pile ou face.
Il y a deux cas possible, soit il existe un tel algorithme de taille au max k, soit aucun des algorithmes possibles ne fait mieux que le hasard. Le problème consiste à savoir dans quel cas on est ! (on peut y voir des similarité avec la notion de complexité de kolmogorov, qui consiste à trouver le plus petit programme possible qui reproduit des données, la meilleure manière possible de compresser des données, mais en plus simple, trouver la complexité de Kolmogorov est un problème indécidable)
Il se trouve que résoudre un tel problème est NP-difficile, c'est à dire que la quantité de calcul augmente en général très rapidement avec la taille des données.
Le papier argumente que si il existait une procédure d'apprentissage automatique qui soit aussi capable de simuler un comportement humain, on pourrait l'appliquer sur un tel jeu de donnée pour voir s'il est "apprenable" avec une telle taille de modèle (cas 1), ou pas (cas 2). En lançant la procédure d'apprentissage efficace "de puissance IA" sur plusieurs jeux d'exemple du jeu de données, les auteurs argumentent qu'on pourrait en choisissant le meilleur d'entre eux décider si on est dans le cas 1 ou 2 et donc résoudre le problème "perfect by chance".
Les conséquences seraient que, comme la procédure d'apprentissage "IA" est supposée efficace et que le problème est lui impossible à résoudre efficacement, une IA est condamnée à ne jamais avoir assez d'exemple en pratique et que le nombre d'erreur doit augmenter exponentiellement. Notamment parce que prédire un comportement humain nécessite d'avoir en entrée beaucoup de données, donc le problème est algorithmiquement très gros et un algorithme exponentiel sur ce type de données c'est condamné à l'échec, donc que les modèles appris en pratique sont condamnés à être lacunaires.
Les auteurs clament avoir été charitables en hypothèses sur la procédure d'apprentissage en prenant le meilleur cas, pour trouver une borne inférieure.
Je ne suis pas certain que ce soit le cas, parce que le problème de départ sur lequel ils s'appuient pour la "réduction" est quand même très peu structuré, et que la classe de modèle sur lesquels ils s'appuient est complètement générique. Or on sait que si on restreint la classe de modèle à des modèles plus spécialisés/appropriés dans certaines taches ça change beaucoup de chose, et que les données sont probablement plus structurées que leur problème aléatoire qui ne fait aucune hypothèse sur la structure des données. Il parait évident de dire que le problème est plus simple sur des distributions avec beaucoup de structures que sur des distributions dont on ne sait rien, et que l'humain non plus ne sait rien faire avec des données aléatoires ou bien bruitées imprédictibles, donc c'est pas sympa. Est-ce bien une borne inférieure, si on rajoute des hypothèses sur la structure en entrée on doit pouvoir trouver de meilleures bornes inférieures.
Ils indiquent ensuite que diviser le problème de l'IA général en sous problèmes et en recombinant ces résultats dans un système plus gros ne change pas grand chose à leur argument, je sais pas trop ce que j'en pense pour l'instant. Et ils partent sur des considérations sur le rapport entre la cognition et l'étude de l'intelligence humaine et l'IA.
Je suis pas certain que ça joue dans leurs hypothèses, tout est caché dans "un moyen de choisir un échantillon dans la distribution", qui n'est absolument pas spécifié. Donc si je me trompe pas ça offre la possibilité de faire de l'apprentissage par renforcement, c'est à dire de choisir un peu les exemples en fonction de ses prédictions passées.
Mais je peux me tromper, ce qu'ils entendent par "un moyen" est assez flou, si ils le font pas c'est peut être justement comme ils le clament pour laisser vraiment les hypothèses les plus favorables. Mais je suis pas certain sur ce point et faudrait que je relise.
Posté par caouis .
Évalué à 7 (+6/-0).
Dernière modification le 02 octobre 2024 à 07:28.
En lisant cette description on se demande un peu par quel miracle les humains sont capables de développer un comportement humain…
Ça semble un peu être une confusion entre simuler parfaitement un individu particulier et développer une réponse intelligente de type humain (beaucoup plus floue). Autant sur le premier ça semble compliqué d'y arriver parfaitement, autant sur le second cas je suis très dubitatif sur une preuve d'impossibilité.
Après tout on y arrive bien avec notre organe de 1,5 kg. Ça fait un peu penser au vitalisme et à l'époque où la chimie du biologique etait pensée comme fondamentalement différente de la chimie minérale.
j'espère qu'ils ne se trompent pas, parce que la direction que prend l'IA (proprio) semble devenir de plus en plus cauchemardesque, néanmoins n'oublions pas cet article du New York Times qui clamait en 1903 que ça prendrait "10 millions d'années" pour arriver à voler :
Bien que l'article clame faire très peu d'hypothèses il me semble qu'il fait implicitement des hypothèses très fortes.
En lisant bien l'article, je comprend que l'intelligence de niveau humain est définie comme une intelligence capable de faire toujours mieux que le hasard pour décrire un comportement non-aléatoire. Elle est certainement meilleure que le hasard dans de nombreux cas, mais toujours ? L'article ne précise pas sur quoi cette hypothèse est fondée. Et même pour des données suffisamment complexes, peut-on dire que les humains sont meilleurs que le hasard s'ils abandonnent par épuisement de ressources avant de réussir à fournir une ébauche de description ?
Il me semble plus raisonnable de supposer que l'intelligence humaine fait mieux que le hasard dans la plupart les problèmes qu'elle accepte de traiter, et que parmi les problèmes qu'elle refuse, elle ne ferait pas mieux que le hasard dans un certain nombre de cas. Par exemple, pour prédire le nombre suivant d'une suite déterministe pseudo-aléatoire.
Les auteurs montrent ensuite qu'un algorithme ne peut pas faire le travail d'une intelligence humaine en un temps raisonnable. Ils en concluent qu'un tel algorithme ne peut fonctionner que pour des problèmes assez triviaux. Ce raisonnement n'est pas réaliste. En termes un peu plus formels, un algorithme s'exécute en un temps raisonnable si son temps d'exécution t augmente polynomialement avec la taille n de la donnée. Par exemple, (j'évite la notation en O pour rester accessible au plus grand nombre). Par opposition, il ne s'exécute pas en un temps raisonnable si ce temps d'exécution augmente exponentiellement, par exemple . Cela est lié à la croissance très rapide des fonctions exponentielles. Mais en pratique, cela ne dit rien car, bien souvent, des algorithmes à complexité exponentielle sont bien plus rapides que des algorithmes à complexité polynomiale sur la plupart les problèmes de taille usuelle. Par exemple, on préférera souvent exécuter un programme ayant un temps d'exécution à un autre programme pour lequel .
Dans le même ordre d'idée, quand on s'intéresse à la complexité algorithmique, on parle en général de la complexité dans le pire des cas. C'est à dire, parmi toutes les données de taille n, le temps d'exécution pour la donnée la plus "réfractaire" au calcul. C'est souvent de peu d'utilité car en général, on va s'intéresser à la complexité dans les cas "utiles", ou bien à la complexité en moyenne. Or, de nombreux algorithmes s'exécutant en un temps non raisonnable dans le pire des cas ont un temps d'exécution raisonnable en moyenne ou dans les cas utiles.
L'article prend une distance avec l'idée selon laquelle l'intelligence humaine serait une sorte d'algorithme. La mise en exergue des risques conceptuels liés à ce réductionnisme est intéressante. Mais la conclusion implicite du papier est que l'intelligence humaine ne peut pas être une sorte d'algorithme, puisqu'aucun algorithme ne peut avoir les performances de l'intelligence humaine.
En toute transparence, je suis très à l'aise avec l'idée que notre intelligence est une sorte d'algorithme. Beaucoup d'entre nous pensons de manière algorithmique des dizaines de fois par jour, pour ne pas dire à longueur de journée. D'ailleurs, un certain nombre de ces algorithmes cognitifs ont une complexité exponentielle… Le substrat de notre pensée, atomes, molécules et champs électriques, sont très propices à l'émergence de phénomènes algorithmiques, et 4,5 milliards d'années de sélection naturelles justifient pour moi très bien la complexité de tels algorithmes "naturels".
A l'inverse, je suis très gêné par les vertus quasi-magiques que l'on ne manque pas de prêter à notre intelligence. Je nous trouve éminemment biaisés pour en juger. On n'a pas non plus forcément les outils pour en juger avec suffisamment de recul. Il est facile et tentant de se juger plus intelligent qu'on ne l'est, d'autant plus que l'intelligence humaine est bourrée de biais. Pour moi, ce papier illustre très bien ce travers, en donnant une définition extrêmement ambitieuse de ce que serait l'intelligence humaine.
Non, l'intelligence humaine fait souvent moins bien que le hasard puisqu'elle agit selon son raisonnement et que son raisonnement est souvent biaisé. Citons les superstition.
Par exemple elle continue de polluer la planète car beaucoup d'humain ne croit pas au changement climatique.
Bref l'intelligence humaine ne se compare pas avec le hasard. Et d'ailleurs si c'était l'intelligence tout programme informatique le serait puisqu'il est programmé pour être "intelligent".
L'intelligence c'est une capacité d'adaptation à un environnement grâce à une capacité de compréhension partielle… et ça l'IA en est capable… mais peut être pas demain et elle a besoin d'une interaction avec le monde. La robotique l'aidera.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
Oui, l'objection n'est pas si nouvelle, en terme d'apprentissage ca me semble être très proche si pas identique au "malédiction de la dimension" (ou fléau de la dimension).
Donc le résultat n'est pas surprenant voire déja bien connu, on a des bornes pour estimer le nombre d'échantillons nécessaires en fonction du nombre de paramètres (voir les cours de Stéphane Malat au collège de France). En fait c'est le problème avec lequel tout le domaine de bat, manifestement avec un certain succès depuis 2010 un peu à la surprise de beaucoup.
Du coup s'interroger sur leurs définitions semble être important, et simuler un être humain particulier sans erreurs me semble être restrictif en plus d'être inévaluable (si on te connait parfaitement prendrais-tu les mêmes décisions que ton double?). Je suis d'accord avec cette observation, je me suis fais la même en y repensant. On peut difficilement faire mieux que "c'est un truc plausible qu'un humain pourrait faire". On peut du coup s'interroger sur une forme de cohérence, est-ce qu'il donne un coup une décision qui serait prise par quelqu'un et un autre il adopte une toute autre personnalité incompatible, si on part sur le côté "simulation humaine". Cela dit c'est des problèmes intéressants pour les sciences cognitives, l'étude du cerveau et du rapport avec la personnalité / comportement, mais ça dépasse le cadre de l'intelligence.
C'est effectivement une question qui ne me semble pas pouvoir être enfermée dans un argument théorique aussi simple et faible, pas si original.
J'ai regardé récemment des conférences de Douglas Engelbart (inventeur de la souris et des interfaces graphiques pour les ordinateurs). Son approche était de maximiser l'efficacité de l'interface entre l'humain et l'ordinateur, afin que chacune des deux parties du système (l'humain d'un côté, l'ordinateur de l'autre) puisse contribuer le mieux possible au fonctionnement global.
Alors, je ne me sens pas prêt pour les implants neuronaux et les cyborgs, qui seraient peut-être une version poussée à l'extrême de cette idée. Mais je crois que les approches opposées (où on essaie d'éliminer, au choix, les humains ou les ordinateurs) ne valent pas beaucoup mieux.
Je ne sais pas trop où se situe les intelligences artificielles à la mode ces derniers temps. S'agit-il d'éliminer l'humain en le remplaçant par une simulation? S'agit-il d'un moyen de rendre la communication entre humains et ordinateurs plus efficace en adaptant les ordinateurs à la façon dont les humains travaillent? Dans ce cas, est-ce que c'est la bonne approche? Ce n'est en tout cas pas celle de Douglas Engelbart. Il emploie dans une de ses conférences l'image d'un cycliste. Apprendre à faire du vélo, c'est un peu compliqué au début et ça demande des efforts. Mais, en tant qu'humain, on peut s'y adapter et le système humain + vélo est incroyablement plus efficace pour se déplacer que l'humain tout seul, ou que le vélo tout seul, ou même que humain + tricycle. L'intelligence artificielle est-elle un tricycle?
Rien d'aussi abstrait, je pense, en guise d'approche. Le milieux et certains afficionados fantasme un peu sur une superintelligence, une "agi" capable de résoudre un peu tous les problèmes.
La réalité de la recherche et de l'ingénierie autour, c'est surtout semble-t-il d'essayer de faire des modèles plus performants en utilisants les approches d'hier, d'hybrider les LLM avec des techniques plus classiques de recherche d'information ou de résolution de problème, ou de les utiliser dans le cadre de la planification pour la robotique (semble intéresser Yann le Cun chez facebook dans ses communications sur X) — de ce que j'ai pu voir de ça c'est pour qu'un robot puisse évoluer dans le monde et effectuer des tache il a besoin d'établir un plan d'action, et pour ça il s'aide d'un LLM et de ses connaissance générale comme heuristique pour choisir des étapes (genre trouver un couteau c'est dans un tiroir de la cuisine, il y a de bonne chance, un LLM peut aider pour ce genre de trucs) dans le cadre d'un algorithme de planification plus classique. Ça reste de la recherche.
Le problème actuel semble être essayer de mitiger les hallucinations, en croisant les données avec une vraie base de donnée ou des techniques de recherches d'information plus maîtrisable (retrieval augmented generation), il me semble que microsoft vient de sortir un truc ou tu fournis un corpus de documents jugés fiables pour aider l'ia à croiser l'info de ce qu'il vient de générer, une approche pourrait être de croiser les infos factuelles avec des bases de données d'informations fiabilisées.
Pour le reste le fantasme de superintelligence ça reste du marketting et de la hype, j'ai l'impression.
Amha comme pour tout problème de nature complexe, il faut le casser en sous problème plus simples pour avancer. L'« intelligence artificielle » ne désigne pas un bloc homogène de réalités (ni de désirs), et ne peut que difficilement se laisser qualifier globalement.
Depuis très longtemps des systèmes d'apprentissage ont fait leurs preuves dans des domaines précis, comme par exemple détecter des adresses postales ou pointer à des experts des particularités dans l'analyses d'images médicales. C'est un domaine lié au traitement du signal et depuis quelques années on voit de la traduction automatisée, de la transcription automatisée, etc qui progresse plutôt bien et dont on peut trouver de nombreux exemples qu'on peut aisément juger utiles, même sans être techno-béat.
En revanche les LLM c'est marrant au début mais pour le moment la chose dans laquelle ça excelle c'est surtout de servir des discours trumpistes.
Donc bref tout ça pour dire que ça peut recouvrir des domaines très variés.
PS: homme + vélo ça ne vaut pas grand chose sans infrastructure (roulable/cyclable). Idem probablement pour traiter des grosses bases de données.
En revanche les LLM c'est marrant au début mais pour le moment la chose dans laquelle ça excelle c'est surtout de servir des discours trumpistes.
J'ai écrit "intelligence artificielle" mais en effet je pensais surtout aux LLM comme moyen d'interagir avec un ordinateur (ou un moteur de recherche ou autre outil pour lequel on avait auparavant plutôt des langages de requête plus ou moins complexes).
J'imagine qu'on va voir apparaître des outils "no-code" dopés au LLM ou on pourra demander "donne moi la liste de tous les clients habitant Toulouse qui ont acheté une voiture bleue" au lieu d'écrire ça en SQL? Mais est-ce que ça peut vraiment marcher et pas retourner des données fantaisistes? Et est ce que ce sera plus efficace qu'une interface d'un autre type? Ça va bien pour une requête simple, mais si on veut faire un truc un peu plus compliqué, on fait peut-être mieux d'avoir du SQL ou un formulaire de requête avec quelques menus déroulants?
PS: homme + vélo ça ne vaut pas grand chose sans infrastructure (roulable/cyclable). Idem probablement pour traiter des grosses bases de données.
C'est vrai, c'est une métaphore qui tombe au premier caillou sur la route…
Mais est-ce que ça peut vraiment marcher et pas retourner des données fantaisistes?
Je crois que la preuve n'en est pas faite à ce jour. :) Donc ça va marcher dans certains cas et retourner des données fantaisistes dans d'autres.
Amha, en temps que donneur d'ordre, la maîtrise qui te permettra de faire la différence entre une bonne et une mauvaise réponse est aussi celle qui te permettra de donner la bonne réponse sans souffrir. Dit autrement, un tel outil n'aidera pas les gens en situation de produire du bon code (compétents, et placés et dans un environnement propice à ça), mais aidera grandement les gens en situation de faire des usines à bugs, sans même s'en rendre compte, et se croyant plus performant.
PS: le paragraphe qui précède me semble transposable à la question du discourt sur un sujet arbitraire. Le LLM ne va pas grandement aider l'auteur consciencieux de tout vérifier et capable en fait de faire sans le LLM. Par contre l'incompétent inconscient peut se sentir pousser des ailes à son usage. (Toute ressemblance avec des faits contemporains en période de fascisation de la vie publique ne serait que pure tragédie.)
Un ordinateur ne pourra jamais battre un humain au jeu d'échec!!
Le jour ou un ordinateur sera capable de battre le champion du monde, ce sera la fin de l'humanité les robots prendront le pouvoir.
Bon, ok, kasparov s'est fait battre par deepBlue, mais en vrai ça veut pas dire grand chose, hein. On peut surentrainer un ordinateur pour jouer aux échecs, ça veut pas dire qu'il est intelligent. Et puis regardez, le jeu de Go, ça, jamais au grand jamais un ordinateur battra le meilleur joueur du monde. La complexité algorithmique est insoluble, même avec des ordinateurs massivement superscalaires!!
Bon, ok alpha Zero a gagné, mais en vrai ça veut pas dire grand chose. On peut surentrainer un ordinateur pour jouer au Go, ça veut pas dire qu'il est intelligent. Et puis regardez, le langage naturel, ça, jamais au grand jamais un ordinateur sera capable de tenir une conversation naturelle avec un humain. La difficulté de comprendre toutes les nuances de langage est mathématiquement impossible et non modélisable.
Bon, ok chatGPT parle plutôt bien, mais en vrai ça veut pas dire grand chose. On peut surentrainer un ordinateur pour faire des phrases qui font du sens, mais ça veut pas dire qu'il est intelligent…
Cela dit, j'attends de voir un ordinateur sans assistance humaine battre le champion du monde d'échecs. Deep Blue c'était surtout une équipe de programmeurs assistée d'un supercalculateur.
Moi ce que j'aimerais voir c'est un robot jouer aux échecs : pas de liaison internet, pas d'alimentation électrique illimitée et on déplace ses pièces soi-même. Et on fait ça avec un volume « cérébral » de 1,7 litre maximum. Parce que l'intelligence du joueur, ce n'est pas seulement bien placer ses pièces, c'est aussi, sinon d'abord, gérer sa dépense d'énergie pour tenir la distance et se débrouiller avec les données qu'il a été capable d'emmagasiner dans sa mémoire.
N'est-il pas un peu réducteur et anthropocentriste d'exiger de l'ordinateur qu'il occupe un volume et qu'il ait une efficacité énergétique équivalente à un cerveau humain?
Si je disais aucun humain ne peut battre le plus basique des joueurs d'échec informatique? Les conditions sont l'absence d'approvisionnement en eau et toute forme de matière organique pendant une semaine, pour démontrer une capacité à économiser les ressources.
N'est-il pas un peu réducteur et anthropocentriste d'exiger de l'ordinateur qu'il occupe un volume et qu'il ait une efficacité énergétique équivalente à un cerveau humain?
Les échecs sont un jeu humain, basé sur les compétences, capacités et limitations physiques attendues d'un humain. Donc c'est anthropocentriste par définition.
Si je disais aucun humain ne peut battre le plus basique des joueurs d'échec informatique? Les conditions sont l'absence d'approvisionnement en eau et toute forme de matière organique pendant une semaine, pour démontrer une capacité à économiser les ressources.
Je ne sais pas, tu devrais interroger la Fédération Internationale des Joueurs d'Échecs Informatiques pour savoir ce qu'ils en pensent. Mais bon ton exemple est mal choisi : ne pas avoir besoin de certaines ressources ce n'est pas les économiser, c'est juste que ce ne sont pas des ressources pour soi.
Cela dit j'imagine que tu penses aussi qu'il faut autoriser le dopage technologique et, par exemple, qu'on aurait dû permettre à Pistorius de concourir (et gagner) face à des "valides" ?
Posté par Thomas Douillard .
Évalué à 2 (+0/-1).
Dernière modification le 02 octobre 2024 à 21:30.
Ça n'a pas trop de sens, on faisait pas des programmes d'échec pour les inscrire au championnat du monde. On le faisait/fait parce que c'est un cas ou c'est encore relativement maîtrisé avec des règles claires, sur un "petit monde", avec un résultat clair (victoire/défaite). C'était un cas idéal pour l'informatique, avec les humains comme étalon.
Aujourd'hui le but s'est déplacé ailleurs, et ces programmes servent surtout à entraîner les humains et/ou trouver de nouvelles façons de jouer. On peut tenter d'optimiser à mort leurs performance et minimiser leurs consommation énergétique. C'est un vrai enjeu pour les LLMs d'ailleurs, mais d'une toute autre ampleur puisqu'on veut rouvrir des centrales nucléaires rien que pour leurs beaux yeux (ou beaux dollars).
Les échecs sont un jeu humain, basé sur les compétences, capacités et limitations physiques attendues d'un humain. Donc c'est anthropocentriste par définition.
Si tu refuses simplement de faire jouer des humains contre des machines, aucun souci. Moi j'ai plus un problème quand on rajoute des contraintes artificielles à la machine pour qu'elle perde. Je ne vois pas bien le but: se rassurer?
Je ne sais pas, tu devrais interroger la Fédération Internationale des Joueurs d'Échecs Informatiques pour savoir ce qu'ils en pensent.
Ils ont une règle sur le volume de l'unité de calcul et la consommation électrique?
Mais bon ton exemple est mal choisi : ne pas avoir besoin de certaines ressources ce n'est pas les économiser, c'est juste que ce ne sont pas des ressources pour soi.
Et la différence avec l'électricité, c'est quoi? Là aussi, tu mets des règles artificielles pour faire gagner les humains.
Cela dit j'imagine que tu penses aussi qu'il faut autoriser le dopage technologique et, par exemple, qu'on aurait dû permettre à Pistorius de concourir (et gagner) face à des "valides" ?
Non, mais je n'imaginerais pas non plus, le jour où un robot humanoïde gagne une course à pied contre le champion du monde de sprint, commencer à dire que ça ne compte pas si le robot est plus lourd qu'un humain, ou à batterie ou n'a pas une température interne de 37C. Ce sont des questions hors-sujet.
Si tu refuses simplement de faire jouer des humains contre des machines, aucun souci. Moi j'ai plus un problème quand on rajoute des contraintes artificielles à la machine pour qu'elle perde.
Dans le cas des échecs, c'est un peu le principe d'avoir une règle du jeu arbitraire. Si on peut juste déplacer les pions n'importe comment et dire "j'ai gagné", ça rend le jeu quand même beaucoup moins intéressant.
Si ton ordinateur a le droit à des ressources (alimentation électrique, mémoire de stockage, etc) illimitées, est-ce que l'humain qui joue en face a aussi le droit à consulter des archives de parties d'échec, appeler un ami pour demander de l'aide, demander à faire une pause pour aller dormir ou manger?
C'est un peu le principe d'un jeu et d'une compétition, il y a des règles arbitraires et le but est de gagner en respectant ces règles. Et les règles peuvent évoluer en fonction des évolutions de la technologie autour, ou tout simplement si tous les joueurs se mettent d'accord pour modifier quelque chose. Par exemple, en 2014, les règles ont été mises à jour pour interdire "tout appareil capable de suggérer des coups", alors qu'auparavant, seuls les moyens de communication et les téléphones mobiles étaient interdits (https://www.france-echecs.com/article.php?art=20140917131326993). Bien sûr l'interdiction des téléphones mobiles a du être ajoutée dans les 15 années précédentes, elle ne date pas de l'origine du jeu d'échec ni même des premières compétitions.
Je n'ai aucun problème à interdire toute forme d'assistance aux joueurs, tout comme interdire le dopage ou les moteurs sur les vélos.
Ma réaction initiale concernait une affirmation que les machines qui battent les humains sont volumineuses et consomment beaucoup d'énergie, ce qui invaliderait l'idée que les machines sont maintenant meilleures aux échecs que les humains.
Je n'y vois qu'un moyen de se rassurer ou d'ajouter des règles dont le seul but est de faire gagner l'humain.
Les machines ont battu les humains aux échecs. C'est factuel. Ça n'enlèvera jamais le mérite des joueurs humains, mais il faut faire le deuil du jeu encore trop complexe pour les machines.
Vouloir trifouiller des règles dans le but de les empêcher de fonctionner, c'est du déni.
C'est donc même une bonne chose qu'on interdise l'assistance électronique dans les compétitions, sinon on va juste faire des compétitions de qui a la meilleure machine. Ça pourrait être intéressant aussi, mais c'est une toute autre discipline.
Surtout que, hors tournoi, le but des échecs est de gagner la partie, sans forcément une contrainte de temps. Tu peux jouer en ligne à distance un coup par semaine… il y a aussi la légende (?) des maitres de go avec une partie étalée sur des années. Bref l'humain pourrait battre la machine à l'obsolescence matérielle… Il suffirait de changer les critères pour choisir le gagnant.
J'imagine qu'on s'accordera pour dire qu'un ordinateur calcule mieux et plus vite qu'un humain, qu'il bat les humains en calcul : pourtant les premiers étaient bien plus gros que les humains, plus énergivores, moins génériques, limités en taille des nombres, etc. Depuis ils ont bien progressé et aucun humain ne manipule des entiers ou des flottants chaque nanoseconde. Mais on n'a pas attendu les microprocesseurs en GHz pour dire que l'informatique calcule plus vite qu'un humain. Et ce n'est pas une domination absolue des maths non plus : l'ordi n'écrit pas le Frido seul et ne produit pas des théorèmes et des unifications de théorie (pour l'instant).
Bref on sait faire des machines qui battent les humains aux échecs, au go, en calcul, en plongée, en vol, en vitesse dans tous les milieux, dans plein de jeux vidéo, en génération de conneries, etc. Ce qui n'empêche pas l'être humain d'être (pour l'instant) incomparablement plus générique et énergétiquement efficace.
Un jour sûrement, mais l'ia n'a pas besoin d'internet et on sait aujourd'hui faire des processeurs/ia qui tournent sur un pc portable (avec l'autonomie de sa batterie) et battent n'importe quel humain aux échecs.
Mais je propose l'inverse. On donne internet aux humains et autant d'humain qui le veulent pour battre un super ordinateur sur un jeu d'échec, de Go, une discutions ou même une simulation ou un calcul pour casser des cryptographie… sans calculette.
Tu comprends que ce que tu demande n'a pas de sens.
L'IA progresse et dépasse dore et déjà l'humain sur certains domaines… mais elle n'est pas encore une AGI… elle progresse et la supériorité humaine est destinée à se réduire toujours plus.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
AGI c'est Intelligence artificielle générale. C'est un peu le graal ultime de l'intelligence qui comprends tout le monde qui l'entoure et cappable de s'adapter à tout. L'humain super-intelligent (Sans problème psycho). On mettra peut-être encore un siècle à l'avoir.
"la supériorité humaine est destinée à se réduire toujours plus"
Je m'explique. Quasiment jusqu'au moyen-âge, il n'y avait rien de plus fort que l'homme pour 99% des tâches. Seul existaient les animaux de traits et les moulins qui sont plus fort physiquement que l'homme pour accomplir ces tâches… encore ont'ils besoin d'être piloté par l'humain. Mais techniquement un homme avec ses outils (sans moteur) ne peut rivaliser avec une charrue tiré par un seul homme avec ses boeufs. Mais dans la majorité des tâches l'homme était toujours le plus fort dans la forge ou pour abattre un arbre.
Ensuite est venue la machine à vapeur, puis le moteur à explosion et petit à petit la machine est devenue la plus rapide dans quasiment tous les domaines physiques. La machine reste tout de même hyper spécialisée.
L'homme restait le plus fort dans le domaine intellectuel… jusqu'à l'arrivé de la calculette et les robots capable de prendre des décisions (toujours hyper-spécialisées) dans les usines. Mais l'intelligence artificielle n'avait rien de bien intéressant jusqu'en 2000 presque 2010 alors on pensait que l'homme resterait indispensable.
Les progrès de l'intelligence artificielles ont changé la donne. Il reste encore d'énorme progrès à faire dans la robotique pour remplacer ne serais-ce qu'un technicien de nettoyage mais nul doute que là aussi cela progresse.
L'histoire nous enseigne donc que prétendre prouver par A + B que c'est impossible que l'intelligence artificielle nous dépasse est totalement stupide.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
# (tentative de) résumé du papier
Posté par Thomas Douillard . Évalué à 10 (+11/-1).
En lisant rapidement le papier s'interroge sur la faisabilité du problème de l'apprentissage par l'exemple, en prenant l'angle de la complexité algorithmique.
L'apprentissage automatique "IA" est défini comme "à partir d'un certain nombre d'exemples de comportements humains (tiré dans un ensemble plus grand de comportements observés), apprendre un modèle ou un algorithme (d'une certaine taille) qui permette de prédire le comportement/décision humain avec une bonne probabilité"
Le raisonnement est de partir d'un problème algorithmique (perfect versus chance).
On dispose d'un certain nombre de données d'une certaine taille (un nombre de bits donnés), à chacun est associé pile ou face. On dispose d'un moyen d'en choisir au hasard
Le problème est de savoir si il existe un algorithme suffisamment "petit" (avec un certain nombre d'instruction, de taille au max k) qui puisse prédire si une donnée de notre jeu de donnée est pile ou face.
Il y a deux cas possible, soit il existe un tel algorithme de taille au max k, soit aucun des algorithmes possibles ne fait mieux que le hasard. Le problème consiste à savoir dans quel cas on est ! (on peut y voir des similarité avec la notion de complexité de kolmogorov, qui consiste à trouver le plus petit programme possible qui reproduit des données, la meilleure manière possible de compresser des données, mais en plus simple, trouver la complexité de Kolmogorov est un problème indécidable)
Il se trouve que résoudre un tel problème est NP-difficile, c'est à dire que la quantité de calcul augmente en général très rapidement avec la taille des données.
Le papier argumente que si il existait une procédure d'apprentissage automatique qui soit aussi capable de simuler un comportement humain, on pourrait l'appliquer sur un tel jeu de donnée pour voir s'il est "apprenable" avec une telle taille de modèle (cas 1), ou pas (cas 2). En lançant la procédure d'apprentissage efficace "de puissance IA" sur plusieurs jeux d'exemple du jeu de données, les auteurs argumentent qu'on pourrait en choisissant le meilleur d'entre eux décider si on est dans le cas 1 ou 2 et donc résoudre le problème "perfect by chance".
Les conséquences seraient que, comme la procédure d'apprentissage "IA" est supposée efficace et que le problème est lui impossible à résoudre efficacement, une IA est condamnée à ne jamais avoir assez d'exemple en pratique et que le nombre d'erreur doit augmenter exponentiellement. Notamment parce que prédire un comportement humain nécessite d'avoir en entrée beaucoup de données, donc le problème est algorithmiquement très gros et un algorithme exponentiel sur ce type de données c'est condamné à l'échec, donc que les modèles appris en pratique sont condamnés à être lacunaires.
Les auteurs clament avoir été charitables en hypothèses sur la procédure d'apprentissage en prenant le meilleur cas, pour trouver une borne inférieure.
Je ne suis pas certain que ce soit le cas, parce que le problème de départ sur lequel ils s'appuient pour la "réduction" est quand même très peu structuré, et que la classe de modèle sur lesquels ils s'appuient est complètement générique. Or on sait que si on restreint la classe de modèle à des modèles plus spécialisés/appropriés dans certaines taches ça change beaucoup de chose, et que les données sont probablement plus structurées que leur problème aléatoire qui ne fait aucune hypothèse sur la structure des données. Il parait évident de dire que le problème est plus simple sur des distributions avec beaucoup de structures que sur des distributions dont on ne sait rien, et que l'humain non plus ne sait rien faire avec des données aléatoires ou bien bruitées imprédictibles, donc c'est pas sympa. Est-ce bien une borne inférieure, si on rajoute des hypothèses sur la structure en entrée on doit pouvoir trouver de meilleures bornes inférieures.
Ils indiquent ensuite que diviser le problème de l'IA général en sous problèmes et en recombinant ces résultats dans un système plus gros ne change pas grand chose à leur argument, je sais pas trop ce que j'en pense pour l'instant. Et ils partent sur des considérations sur le rapport entre la cognition et l'étude de l'intelligence humaine et l'IA.
[^] # Re: (tentative de) résumé du papier
Posté par Nicolas Boulay (site web personnel) . Évalué à 2 (+1/-2).
Leurs prémisses sont faux : l'ia peut aussi apprendre seul (renforcement learning comme alpha go zero)
"La première sécurité est la liberté"
[^] # Re: (tentative de) résumé du papier
Posté par Thomas Douillard . Évalué à 3 (+1/-1).
Je suis pas certain que ça joue dans leurs hypothèses, tout est caché dans "un moyen de choisir un échantillon dans la distribution", qui n'est absolument pas spécifié. Donc si je me trompe pas ça offre la possibilité de faire de l'apprentissage par renforcement, c'est à dire de choisir un peu les exemples en fonction de ses prédictions passées.
Mais je peux me tromper, ce qu'ils entendent par "un moyen" est assez flou, si ils le font pas c'est peut être justement comme ils le clament pour laisser vraiment les hypothèses les plus favorables. Mais je suis pas certain sur ce point et faudrait que je relise.
[^] # Re: (tentative de) résumé du papier
Posté par caouis . Évalué à 7 (+6/-0). Dernière modification le 02 octobre 2024 à 07:28.
En lisant cette description on se demande un peu par quel miracle les humains sont capables de développer un comportement humain…
Ça semble un peu être une confusion entre simuler parfaitement un individu particulier et développer une réponse intelligente de type humain (beaucoup plus floue). Autant sur le premier ça semble compliqué d'y arriver parfaitement, autant sur le second cas je suis très dubitatif sur une preuve d'impossibilité.
Après tout on y arrive bien avec notre organe de 1,5 kg. Ça fait un peu penser au vitalisme et à l'époque où la chimie du biologique etait pensée comme fondamentalement différente de la chimie minérale.
# on n'arrivera jamais à voler non plus...
Posté par zurvan . Évalué à 5 (+4/-1).
j'espère qu'ils ne se trompent pas, parce que la direction que prend l'IA (proprio) semble devenir de plus en plus cauchemardesque, néanmoins n'oublions pas cet article du New York Times qui clamait en 1903 que ça prendrait "10 millions d'années" pour arriver à voler :
https://en.wikipedia.org/wiki/Flying_Machines_Which_Do_Not_Fly
Quelques mois après, le premier avion décollait pour de bon…
« Le pouvoir des Tripodes dépendait de la résignation des hommes à l'esclavage. » -- John Christopher
# Critique du papier
Posté par sobriquet . Évalué à 10 (+12/-0).
Bien que l'article clame faire très peu d'hypothèses il me semble qu'il fait implicitement des hypothèses très fortes.
En lisant bien l'article, je comprend que l'intelligence de niveau humain est définie comme une intelligence capable de faire toujours mieux que le hasard pour décrire un comportement non-aléatoire. Elle est certainement meilleure que le hasard dans de nombreux cas, mais toujours ? L'article ne précise pas sur quoi cette hypothèse est fondée. Et même pour des données suffisamment complexes, peut-on dire que les humains sont meilleurs que le hasard s'ils abandonnent par épuisement de ressources avant de réussir à fournir une ébauche de description ?
Il me semble plus raisonnable de supposer que l'intelligence humaine fait mieux que le hasard dans la plupart les problèmes qu'elle accepte de traiter, et que parmi les problèmes qu'elle refuse, elle ne ferait pas mieux que le hasard dans un certain nombre de cas. Par exemple, pour prédire le nombre suivant d'une suite déterministe pseudo-aléatoire.
Les auteurs montrent ensuite qu'un algorithme ne peut pas faire le travail d'une intelligence humaine en un temps raisonnable. Ils en concluent qu'un tel algorithme ne peut fonctionner que pour des problèmes assez triviaux. Ce raisonnement n'est pas réaliste. En termes un peu plus formels, un algorithme s'exécute en un temps raisonnable si son temps d'exécution t augmente polynomialement avec la taille n de la donnée. Par exemple, (j'évite la notation en O pour rester accessible au plus grand nombre). Par opposition, il ne s'exécute pas en un temps raisonnable si ce temps d'exécution augmente exponentiellement, par exemple . Cela est lié à la croissance très rapide des fonctions exponentielles. Mais en pratique, cela ne dit rien car, bien souvent, des algorithmes à complexité exponentielle sont bien plus rapides que des algorithmes à complexité polynomiale sur la plupart les problèmes de taille usuelle. Par exemple, on préférera souvent exécuter un programme ayant un temps d'exécution à un autre programme pour lequel .
Dans le même ordre d'idée, quand on s'intéresse à la complexité algorithmique, on parle en général de la complexité dans le pire des cas. C'est à dire, parmi toutes les données de taille n, le temps d'exécution pour la donnée la plus "réfractaire" au calcul. C'est souvent de peu d'utilité car en général, on va s'intéresser à la complexité dans les cas "utiles", ou bien à la complexité en moyenne. Or, de nombreux algorithmes s'exécutant en un temps non raisonnable dans le pire des cas ont un temps d'exécution raisonnable en moyenne ou dans les cas utiles.
L'article prend une distance avec l'idée selon laquelle l'intelligence humaine serait une sorte d'algorithme. La mise en exergue des risques conceptuels liés à ce réductionnisme est intéressante. Mais la conclusion implicite du papier est que l'intelligence humaine ne peut pas être une sorte d'algorithme, puisqu'aucun algorithme ne peut avoir les performances de l'intelligence humaine.
En toute transparence, je suis très à l'aise avec l'idée que notre intelligence est une sorte d'algorithme. Beaucoup d'entre nous pensons de manière algorithmique des dizaines de fois par jour, pour ne pas dire à longueur de journée. D'ailleurs, un certain nombre de ces algorithmes cognitifs ont une complexité exponentielle… Le substrat de notre pensée, atomes, molécules et champs électriques, sont très propices à l'émergence de phénomènes algorithmiques, et 4,5 milliards d'années de sélection naturelles justifient pour moi très bien la complexité de tels algorithmes "naturels".
A l'inverse, je suis très gêné par les vertus quasi-magiques que l'on ne manque pas de prêter à notre intelligence. Je nous trouve éminemment biaisés pour en juger. On n'a pas non plus forcément les outils pour en juger avec suffisamment de recul. Il est facile et tentant de se juger plus intelligent qu'on ne l'est, d'autant plus que l'intelligence humaine est bourrée de biais. Pour moi, ce papier illustre très bien ce travers, en donnant une définition extrêmement ambitieuse de ce que serait l'intelligence humaine.
[^] # Re: Critique du papier
Posté par abriotde (site web personnel, Mastodon) . Évalué à 1 (+2/-2).
Non, l'intelligence humaine fait souvent moins bien que le hasard puisqu'elle agit selon son raisonnement et que son raisonnement est souvent biaisé. Citons les superstition.
Par exemple elle continue de polluer la planète car beaucoup d'humain ne croit pas au changement climatique.
Bref l'intelligence humaine ne se compare pas avec le hasard. Et d'ailleurs si c'était l'intelligence tout programme informatique le serait puisqu'il est programmé pour être "intelligent".
L'intelligence c'est une capacité d'adaptation à un environnement grâce à une capacité de compréhension partielle… et ça l'IA en est capable… mais peut être pas demain et elle a besoin d'une interaction avec le monde. La robotique l'aidera.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
[^] # Re: Critique du papier
Posté par Tanouky . Évalué à 3 (+2/-0).
Pire ; avec 150 de QI, j'ai appris à me foutre complètement de l'écologie en sachant pertinemment que je peux agir et que la fin est proche.
Pas très utilitariste tout ça.
[^] # Re: Critique du papier
Posté par Thomas Douillard . Évalué à 5 (+3/-1).
Ça dépend, il fait quoi le hasard, par hasard ?
[^] # Re: Critique du papier
Posté par Thomas Douillard . Évalué à 3 (+1/-1).
Oui, l'objection n'est pas si nouvelle, en terme d'apprentissage ca me semble être très proche si pas identique au "malédiction de la dimension" (ou fléau de la dimension).
Donc le résultat n'est pas surprenant voire déja bien connu, on a des bornes pour estimer le nombre d'échantillons nécessaires en fonction du nombre de paramètres (voir les cours de Stéphane Malat au collège de France). En fait c'est le problème avec lequel tout le domaine de bat, manifestement avec un certain succès depuis 2010 un peu à la surprise de beaucoup.
Du coup s'interroger sur leurs définitions semble être important, et simuler un être humain particulier sans erreurs me semble être restrictif en plus d'être inévaluable (si on te connait parfaitement prendrais-tu les mêmes décisions que ton double?). Je suis d'accord avec cette observation, je me suis fais la même en y repensant. On peut difficilement faire mieux que "c'est un truc plausible qu'un humain pourrait faire". On peut du coup s'interroger sur une forme de cohérence, est-ce qu'il donne un coup une décision qui serait prise par quelqu'un et un autre il adopte une toute autre personnalité incompatible, si on part sur le côté "simulation humaine". Cela dit c'est des problèmes intéressants pour les sciences cognitives, l'étude du cerveau et du rapport avec la personnalité / comportement, mais ça dépasse le cadre de l'intelligence.
C'est effectivement une question qui ne me semble pas pouvoir être enfermée dans un argument théorique aussi simple et faible, pas si original.
[^] # Re: Critique du papier
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 2 (+0/-0).
J'ai regardé récemment des conférences de Douglas Engelbart (inventeur de la souris et des interfaces graphiques pour les ordinateurs). Son approche était de maximiser l'efficacité de l'interface entre l'humain et l'ordinateur, afin que chacune des deux parties du système (l'humain d'un côté, l'ordinateur de l'autre) puisse contribuer le mieux possible au fonctionnement global.
Alors, je ne me sens pas prêt pour les implants neuronaux et les cyborgs, qui seraient peut-être une version poussée à l'extrême de cette idée. Mais je crois que les approches opposées (où on essaie d'éliminer, au choix, les humains ou les ordinateurs) ne valent pas beaucoup mieux.
Je ne sais pas trop où se situe les intelligences artificielles à la mode ces derniers temps. S'agit-il d'éliminer l'humain en le remplaçant par une simulation? S'agit-il d'un moyen de rendre la communication entre humains et ordinateurs plus efficace en adaptant les ordinateurs à la façon dont les humains travaillent? Dans ce cas, est-ce que c'est la bonne approche? Ce n'est en tout cas pas celle de Douglas Engelbart. Il emploie dans une de ses conférences l'image d'un cycliste. Apprendre à faire du vélo, c'est un peu compliqué au début et ça demande des efforts. Mais, en tant qu'humain, on peut s'y adapter et le système humain + vélo est incroyablement plus efficace pour se déplacer que l'humain tout seul, ou que le vélo tout seul, ou même que humain + tricycle. L'intelligence artificielle est-elle un tricycle?
[^] # Re: Critique du papier
Posté par Thomas Douillard . Évalué à 2 (+0/-1).
Rien d'aussi abstrait, je pense, en guise d'approche. Le milieux et certains afficionados fantasme un peu sur une superintelligence, une "agi" capable de résoudre un peu tous les problèmes.
La réalité de la recherche et de l'ingénierie autour, c'est surtout semble-t-il d'essayer de faire des modèles plus performants en utilisants les approches d'hier, d'hybrider les LLM avec des techniques plus classiques de recherche d'information ou de résolution de problème, ou de les utiliser dans le cadre de la planification pour la robotique (semble intéresser Yann le Cun chez facebook dans ses communications sur X) — de ce que j'ai pu voir de ça c'est pour qu'un robot puisse évoluer dans le monde et effectuer des tache il a besoin d'établir un plan d'action, et pour ça il s'aide d'un LLM et de ses connaissance générale comme heuristique pour choisir des étapes (genre trouver un couteau c'est dans un tiroir de la cuisine, il y a de bonne chance, un LLM peut aider pour ce genre de trucs) dans le cadre d'un algorithme de planification plus classique. Ça reste de la recherche.
Le problème actuel semble être essayer de mitiger les hallucinations, en croisant les données avec une vraie base de donnée ou des techniques de recherches d'information plus maîtrisable (retrieval augmented generation), il me semble que microsoft vient de sortir un truc ou tu fournis un corpus de documents jugés fiables pour aider l'ia à croiser l'info de ce qu'il vient de générer, une approche pourrait être de croiser les infos factuelles avec des bases de données d'informations fiabilisées.
Pour le reste le fantasme de superintelligence ça reste du marketting et de la hype, j'ai l'impression.
[^] # Re: Critique du papier
Posté par Pol' uX (site web personnel) . Évalué à 4 (+2/-0).
Amha comme pour tout problème de nature complexe, il faut le casser en sous problème plus simples pour avancer. L'« intelligence artificielle » ne désigne pas un bloc homogène de réalités (ni de désirs), et ne peut que difficilement se laisser qualifier globalement.
Depuis très longtemps des systèmes d'apprentissage ont fait leurs preuves dans des domaines précis, comme par exemple détecter des adresses postales ou pointer à des experts des particularités dans l'analyses d'images médicales. C'est un domaine lié au traitement du signal et depuis quelques années on voit de la traduction automatisée, de la transcription automatisée, etc qui progresse plutôt bien et dont on peut trouver de nombreux exemples qu'on peut aisément juger utiles, même sans être techno-béat.
En revanche les LLM c'est marrant au début mais pour le moment la chose dans laquelle ça excelle c'est surtout de servir des discours trumpistes.
Donc bref tout ça pour dire que ça peut recouvrir des domaines très variés.
PS: homme + vélo ça ne vaut pas grand chose sans infrastructure (roulable/cyclable). Idem probablement pour traiter des grosses bases de données.
Adhérer à l'April, ça vous tente ?
[^] # Re: Critique du papier
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 2 (+0/-0).
J'ai écrit "intelligence artificielle" mais en effet je pensais surtout aux LLM comme moyen d'interagir avec un ordinateur (ou un moteur de recherche ou autre outil pour lequel on avait auparavant plutôt des langages de requête plus ou moins complexes).
J'imagine qu'on va voir apparaître des outils "no-code" dopés au LLM ou on pourra demander "donne moi la liste de tous les clients habitant Toulouse qui ont acheté une voiture bleue" au lieu d'écrire ça en SQL? Mais est-ce que ça peut vraiment marcher et pas retourner des données fantaisistes? Et est ce que ce sera plus efficace qu'une interface d'un autre type? Ça va bien pour une requête simple, mais si on veut faire un truc un peu plus compliqué, on fait peut-être mieux d'avoir du SQL ou un formulaire de requête avec quelques menus déroulants?
C'est vrai, c'est une métaphore qui tombe au premier caillou sur la route…
[^] # Re: Critique du papier
Posté par Pol' uX (site web personnel) . Évalué à 2 (+0/-0).
Je crois que la preuve n'en est pas faite à ce jour. :) Donc ça va marcher dans certains cas et retourner des données fantaisistes dans d'autres.
Amha, en temps que donneur d'ordre, la maîtrise qui te permettra de faire la différence entre une bonne et une mauvaise réponse est aussi celle qui te permettra de donner la bonne réponse sans souffrir. Dit autrement, un tel outil n'aidera pas les gens en situation de produire du bon code (compétents, et placés et dans un environnement propice à ça), mais aidera grandement les gens en situation de faire des usines à bugs, sans même s'en rendre compte, et se croyant plus performant.
PS: le paragraphe qui précède me semble transposable à la question du discourt sur un sujet arbitraire. Le LLM ne va pas grandement aider l'auteur consciencieux de tout vérifier et capable en fait de faire sans le LLM. Par contre l'incompétent inconscient peut se sentir pousser des ailes à son usage. (Toute ressemblance avec des faits contemporains en période de fascisation de la vie publique ne serait que pure tragédie.)
Adhérer à l'April, ça vous tente ?
# un ordinateur ne pourra jamais battre un champion d'échec!
Posté par octane . Évalué à 7 (+5/-0).
Un ordinateur ne pourra jamais battre un humain au jeu d'échec!!
Le jour ou un ordinateur sera capable de battre le champion du monde, ce sera la fin de l'humanité les robots prendront le pouvoir.
Bon, ok, kasparov s'est fait battre par deepBlue, mais en vrai ça veut pas dire grand chose, hein. On peut surentrainer un ordinateur pour jouer aux échecs, ça veut pas dire qu'il est intelligent. Et puis regardez, le jeu de Go, ça, jamais au grand jamais un ordinateur battra le meilleur joueur du monde. La complexité algorithmique est insoluble, même avec des ordinateurs massivement superscalaires!!
Bon, ok alpha Zero a gagné, mais en vrai ça veut pas dire grand chose. On peut surentrainer un ordinateur pour jouer au Go, ça veut pas dire qu'il est intelligent. Et puis regardez, le langage naturel, ça, jamais au grand jamais un ordinateur sera capable de tenir une conversation naturelle avec un humain. La difficulté de comprendre toutes les nuances de langage est mathématiquement impossible et non modélisable.
Bon, ok chatGPT parle plutôt bien, mais en vrai ça veut pas dire grand chose. On peut surentrainer un ordinateur pour faire des phrases qui font du sens, mais ça veut pas dire qu'il est intelligent…
Je continue, ou vous avez compris l'idée?
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par BAud (site web personnel) . Évalué à 3 (+1/-0).
j'ai rien compris, je prends tout au 1er degré et tu dis tout et son contraire, je ne serai jamais intelligent !?
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par octane . Évalué à 2 (+0/-0).
Non, c'est moi qui suis idiot ☹️
Je m'exprime mal et je m'en excuse
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par BAud (site web personnel) . Évalué à 2 (+0/-0). Dernière modification le 05 octobre 2024 à 10:16.
ah, en fait tu ne comprends pas le 2ème degré :/ (humour, 'cule un mouton toussa…)
t'as pas de rolex, t'as loupé ta vie /o\
tu n'as aucune excuse :p (vu que tu utilises la mauvaise forme)
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par Jean-Baptiste Faure . Évalué à 3 (+1/-0).
En résumé : il ne faut jamais dire jamais.
Cela dit, j'attends de voir un ordinateur sans assistance humaine battre le champion du monde d'échecs. Deep Blue c'était surtout une équipe de programmeurs assistée d'un supercalculateur.
Moi ce que j'aimerais voir c'est un robot jouer aux échecs : pas de liaison internet, pas d'alimentation électrique illimitée et on déplace ses pièces soi-même. Et on fait ça avec un volume « cérébral » de 1,7 litre maximum. Parce que l'intelligence du joueur, ce n'est pas seulement bien placer ses pièces, c'est aussi, sinon d'abord, gérer sa dépense d'énergie pour tenir la distance et se débrouiller avec les données qu'il a été capable d'emmagasiner dans sa mémoire.
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par Maclag . Évalué à 4 (+1/-0).
N'est-il pas un peu réducteur et anthropocentriste d'exiger de l'ordinateur qu'il occupe un volume et qu'il ait une efficacité énergétique équivalente à un cerveau humain?
Si je disais aucun humain ne peut battre le plus basique des joueurs d'échec informatique? Les conditions sont l'absence d'approvisionnement en eau et toute forme de matière organique pendant une semaine, pour démontrer une capacité à économiser les ressources.
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par Jean-Baptiste Faure . Évalué à 2 (+0/-0).
Les échecs sont un jeu humain, basé sur les compétences, capacités et limitations physiques attendues d'un humain. Donc c'est anthropocentriste par définition.
Je ne sais pas, tu devrais interroger la Fédération Internationale des Joueurs d'Échecs Informatiques pour savoir ce qu'ils en pensent. Mais bon ton exemple est mal choisi : ne pas avoir besoin de certaines ressources ce n'est pas les économiser, c'est juste que ce ne sont pas des ressources pour soi.
Cela dit j'imagine que tu penses aussi qu'il faut autoriser le dopage technologique et, par exemple, qu'on aurait dû permettre à Pistorius de concourir (et gagner) face à des "valides" ?
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par Thomas Douillard . Évalué à 2 (+0/-1). Dernière modification le 02 octobre 2024 à 21:30.
Ça n'a pas trop de sens, on faisait pas des programmes d'échec pour les inscrire au championnat du monde. On le faisait/fait parce que c'est un cas ou c'est encore relativement maîtrisé avec des règles claires, sur un "petit monde", avec un résultat clair (victoire/défaite). C'était un cas idéal pour l'informatique, avec les humains comme étalon.
Aujourd'hui le but s'est déplacé ailleurs, et ces programmes servent surtout à entraîner les humains et/ou trouver de nouvelles façons de jouer. On peut tenter d'optimiser à mort leurs performance et minimiser leurs consommation énergétique. C'est un vrai enjeu pour les LLMs d'ailleurs, mais d'une toute autre ampleur puisqu'on veut rouvrir des centrales nucléaires rien que pour leurs beaux yeux (ou beaux dollars).
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par Maclag . Évalué à 3 (+0/-0).
Si tu refuses simplement de faire jouer des humains contre des machines, aucun souci. Moi j'ai plus un problème quand on rajoute des contraintes artificielles à la machine pour qu'elle perde. Je ne vois pas bien le but: se rassurer?
Ils ont une règle sur le volume de l'unité de calcul et la consommation électrique?
Et la différence avec l'électricité, c'est quoi? Là aussi, tu mets des règles artificielles pour faire gagner les humains.
Non, mais je n'imaginerais pas non plus, le jour où un robot humanoïde gagne une course à pied contre le champion du monde de sprint, commencer à dire que ça ne compte pas si le robot est plus lourd qu'un humain, ou à batterie ou n'a pas une température interne de 37C. Ce sont des questions hors-sujet.
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par pulkomandy (site web personnel, Mastodon) . Évalué à 2 (+0/-0).
Dans le cas des échecs, c'est un peu le principe d'avoir une règle du jeu arbitraire. Si on peut juste déplacer les pions n'importe comment et dire "j'ai gagné", ça rend le jeu quand même beaucoup moins intéressant.
Si ton ordinateur a le droit à des ressources (alimentation électrique, mémoire de stockage, etc) illimitées, est-ce que l'humain qui joue en face a aussi le droit à consulter des archives de parties d'échec, appeler un ami pour demander de l'aide, demander à faire une pause pour aller dormir ou manger?
C'est un peu le principe d'un jeu et d'une compétition, il y a des règles arbitraires et le but est de gagner en respectant ces règles. Et les règles peuvent évoluer en fonction des évolutions de la technologie autour, ou tout simplement si tous les joueurs se mettent d'accord pour modifier quelque chose. Par exemple, en 2014, les règles ont été mises à jour pour interdire "tout appareil capable de suggérer des coups", alors qu'auparavant, seuls les moyens de communication et les téléphones mobiles étaient interdits (https://www.france-echecs.com/article.php?art=20140917131326993). Bien sûr l'interdiction des téléphones mobiles a du être ajoutée dans les 15 années précédentes, elle ne date pas de l'origine du jeu d'échec ni même des premières compétitions.
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par Maclag . Évalué à 4 (+1/-0).
Je n'ai aucun problème à interdire toute forme d'assistance aux joueurs, tout comme interdire le dopage ou les moteurs sur les vélos.
Ma réaction initiale concernait une affirmation que les machines qui battent les humains sont volumineuses et consomment beaucoup d'énergie, ce qui invaliderait l'idée que les machines sont maintenant meilleures aux échecs que les humains.
Je n'y vois qu'un moyen de se rassurer ou d'ajouter des règles dont le seul but est de faire gagner l'humain.
Les machines ont battu les humains aux échecs. C'est factuel. Ça n'enlèvera jamais le mérite des joueurs humains, mais il faut faire le deuil du jeu encore trop complexe pour les machines.
Vouloir trifouiller des règles dans le but de les empêcher de fonctionner, c'est du déni.
C'est donc même une bonne chose qu'on interdise l'assistance électronique dans les compétitions, sinon on va juste faire des compétitions de qui a la meilleure machine. Ça pourrait être intéressant aussi, mais c'est une toute autre discipline.
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par Benoît Sibaud (site web personnel) . Évalué à 4 (+1/-0).
Surtout que, hors tournoi, le but des échecs est de gagner la partie, sans forcément une contrainte de temps. Tu peux jouer en ligne à distance un coup par semaine… il y a aussi la légende (?) des maitres de go avec une partie étalée sur des années. Bref l'humain pourrait battre la machine à l'obsolescence matérielle… Il suffirait de changer les critères pour choisir le gagnant.
J'imagine qu'on s'accordera pour dire qu'un ordinateur calcule mieux et plus vite qu'un humain, qu'il bat les humains en calcul : pourtant les premiers étaient bien plus gros que les humains, plus énergivores, moins génériques, limités en taille des nombres, etc. Depuis ils ont bien progressé et aucun humain ne manipule des entiers ou des flottants chaque nanoseconde. Mais on n'a pas attendu les microprocesseurs en GHz pour dire que l'informatique calcule plus vite qu'un humain. Et ce n'est pas une domination absolue des maths non plus : l'ordi n'écrit pas le Frido seul et ne produit pas des théorèmes et des unifications de théorie (pour l'instant).
Bref on sait faire des machines qui battent les humains aux échecs, au go, en calcul, en plongée, en vol, en vitesse dans tous les milieux, dans plein de jeux vidéo, en génération de conneries, etc. Ce qui n'empêche pas l'être humain d'être (pour l'instant) incomparablement plus générique et énergétiquement efficace.
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par abriotde (site web personnel, Mastodon) . Évalué à 0 (+0/-1).
Un jour sûrement, mais l'ia n'a pas besoin d'internet et on sait aujourd'hui faire des processeurs/ia qui tournent sur un pc portable (avec l'autonomie de sa batterie) et battent n'importe quel humain aux échecs.
Mais je propose l'inverse. On donne internet aux humains et autant d'humain qui le veulent pour battre un super ordinateur sur un jeu d'échec, de Go, une discutions ou même une simulation ou un calcul pour casser des cryptographie… sans calculette.
Tu comprends que ce que tu demande n'a pas de sens.
L'IA progresse et dépasse dore et déjà l'humain sur certains domaines… mais elle n'est pas encore une AGI… elle progresse et la supériorité humaine est destinée à se réduire toujours plus.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par BAud (site web personnel) . Évalué à 1 (+0/-1).
skoi une AGI : assemblée générale inordinaire ? (je ne sais pas, je propose…)
t'es aryen ?! c'est à dire pas grand chose ?! pfff ya des guerres qui se sont déclenchées pour moins que ça :/
[^] # Re: un ordinateur ne pourra jamais battre un champion d'échec!
Posté par abriotde (site web personnel, Mastodon) . Évalué à 1 (+1/-1). Dernière modification le 12 octobre 2024 à 11:53.
AGI c'est Intelligence artificielle générale. C'est un peu le graal ultime de l'intelligence qui comprends tout le monde qui l'entoure et cappable de s'adapter à tout. L'humain super-intelligent (Sans problème psycho). On mettra peut-être encore un siècle à l'avoir.
Je m'explique. Quasiment jusqu'au moyen-âge, il n'y avait rien de plus fort que l'homme pour 99% des tâches. Seul existaient les animaux de traits et les moulins qui sont plus fort physiquement que l'homme pour accomplir ces tâches… encore ont'ils besoin d'être piloté par l'humain. Mais techniquement un homme avec ses outils (sans moteur) ne peut rivaliser avec une charrue tiré par un seul homme avec ses boeufs. Mais dans la majorité des tâches l'homme était toujours le plus fort dans la forge ou pour abattre un arbre.
Ensuite est venue la machine à vapeur, puis le moteur à explosion et petit à petit la machine est devenue la plus rapide dans quasiment tous les domaines physiques. La machine reste tout de même hyper spécialisée.
L'homme restait le plus fort dans le domaine intellectuel… jusqu'à l'arrivé de la calculette et les robots capable de prendre des décisions (toujours hyper-spécialisées) dans les usines. Mais l'intelligence artificielle n'avait rien de bien intéressant jusqu'en 2000 presque 2010 alors on pensait que l'homme resterait indispensable.
Les progrès de l'intelligence artificielles ont changé la donne. Il reste encore d'énorme progrès à faire dans la robotique pour remplacer ne serais-ce qu'un technicien de nettoyage mais nul doute que là aussi cela progresse.
L'histoire nous enseigne donc que prétendre prouver par A + B que c'est impossible que l'intelligence artificielle nous dépasse est totalement stupide.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.