• # Excellent, merci.

    Posté par  (site web personnel, Mastodon) . Évalué à 5 (+3/-0).

    En lien avec le journal IA : Imitation Artificielle.

    • [^] # Re: Excellent, merci.

      Posté par  . Évalué à 4 (+2/-0).

      Très bien exprimé:

      "Lorsqu'on parle à ce type de machines, "on parle à quelque chose de vide qui se contente de reproduire des choses et, lorsqu'une machine ne trouve pas dans sa base de données la chose à reproduire, elle va halluciner, c'est-à-dire, suivant cette métaphore, qu'elle va trouver ce qui est le plus proche pour en sortir quelque chose d'inédit qui peut nous sembler intéressant ou, au contraire, ne représenter qu'une vaste erreur"
      (…)
      "En somme, une machine "ne comprend pas ce qu'elle dit, n'a pas d'intention, et n'est qu'un pur perroquet stochastique."

      • [^] # Re: Excellent, merci.

        Posté par  . Évalué à 4 (+4/-3). Dernière modification le 10 avril 2025 à 14:52.

        C'est pas vrai, mais c'est pas grave pour l'argument, puisque l'objectif de certains est de se convaincre que ces algorithmes ne sont pas capables de faire ce qu'ils peuvent pourtant objectivement faire de manière reproductible.

        Tout revient à si on accepte ou non d'adopter une posture fonctionnaliste. Si on accepte le fonctionnalisme, on accepte qu'il puisse exister des intelligences autres qu'humaines ou biologiques. Par conséquent, le seul moyen de définir l'intelligence est d'évaluer son comportement, et pas d'étudier son fonctionnement interne, qui est par essence différent du fonctionnement du cerveau. Une machine qui réagit comme si elle était intelligente est donc par définition intelligente, de la même manière qu'on peut conclure qu'un voisin est un être intelligent sans avoir étudié le fonctionnement de son cerveau.

        Si on n'accepte pas la position fonctionnaliste, on restreint l'intelligence à un support biologique (le cerveau humain). Par conséquent, il n'y a rien à discuter, aucune machine ne peut être intelligente puisqu'une machine ne peut pas avoir de conscience, d'intention, etc.

        Ici, ce bout de texte est une diatribe anti-fonctionaliste : une machine est une coquille vide par essence, donc il n'y a rien à attendre d'une machine en terme d'intelligence. Ce n'est pas que les IA actuelles sont intelligentes ou non, c'est juste qu'il est impossible qu'une machine puisse être autre chose qu'un perroquet stochastique.

        Il ne vous aura pas échappé que je trouve cet argument assez débile (au sens étymologique), puisqu'il ne répond pas à la question, il affirme de manière péremptoire qu'il n'y a pas de question. En plus, dans cette déclinaison là, il y a un argument particulièrement faible, celui de la base de données et de l'entrainement, puisqu'il me semble assez difficile de nier que l'intelligence ne peut pas exister sans la culture que l'humain a acquise au cours de sa vie.

        Ça me rappelle un documentaire animalier où on voyait des chimpanzés conduire des voiturettes de golf et allumer des barbecues avec des briquets. Et là, un pseudo-journaliste en costume colonial venait affirmer "On pourrait en effet penser que ces comportements reflètent une forme d'intelligence, mais ça serait se mentir, puisque les singes ont appris à utiliser ces outils en regardant des humains s'en servir". Bah oui ducon, parce que c'est toi qui a inventé le feu peut-être? Qualifier une autre espèce ou un algorithme de "non-intelligent" parce qu'il a besoin d'exemples pour apprendre me semble totalement absurde, puisque c'est exactement de cette manière que nous sommes capables d'exprimer la notre.

        • [^] # Re: Excellent, merci.

          Posté par  . Évalué à 4 (+3/-0).

          Hors de la discussion "fonctionnalisme oui/non": l'idée (exposée par le neurologue de l'émission) que l’apprentissage par un modèle de basse enrichit par l'imitation n'est complet (dans le cas de l'être humain ou de tout autre être vivant) que par l'apport des sens physiques et des affects liés à eux; est pour moi, primordiale.

          On peut donner à une machine des tas de capteurs, mais les capteurs comme les apports de données seront conditionnés par les êtres humains qui lui fournissent.

          L'IA est un joli perroquet stochastique qui existe (elle n'est pas vide car nous sommes dedans) et possède l'intelligence qu'on lui offre dans un environnement qu'on lui prépare; cela donne de très bons résultats fonctionnels.

          Et pour les animaux, toutes les observations fonctionnalistes hérité du behaviourisme (qu'on applique aussi aux IA) ont depuis longtemps montré leurs limites.

          L'idéal serait serait de lancer une machine dans la nature avec un modèle de de cerveau reptilien lié à ses capteurs sensoriels et attendre quelques million d'années pour voir comment elle évolue … pas trop loin de sa prise de courant, évidemment.

          Moi je suis pas pressé.

          • [^] # Re: Excellent, merci.

            Posté par  . Évalué à 2 (+0/-0).

            Il y a un quiproquo qui est apparu dès la création de l'IA: certains ont tenté de faire croire que l'IA, "Intelligence Artificielle", puisse devenir l'équivalence, version machine, de l'intelligence humaine. Le seul dénominateur commun est le mot "intelligence", mot utilisé surtout à des fins de marketing. En fait, il y a désormais deux types d'intelligence: l'intelligence animale, dont la nôtre, humains et "l'intelligence artificielle", créée par l'intelligence humaine et au service des humains. Deux intelligences bien distinctes, qui n'ont rien à voir l'une avec l'autre. Sans les humains, l'IA ne pourrait exister ni survivre, ce qui montre que l'IA est bien une "boite-machine" que les humains remplissent, vident, dirigent, au gré de leurs modes et et humeurs pour lui faire effectuer des tâches.

            • [^] # Re: Excellent, merci.

              Posté par  (site web personnel, Mastodon) . Évalué à 2 (+0/-0). Dernière modification le 11 avril 2025 à 19:41.

              Il n’y avait pas de quiproquo en soi quand l’expression a été proposé. Mais le choix des mots pour sa force marketing a dépassé les frontières en tombant dans le domaine public où l’on n’est pas aussi regardant sur les définitions puis que l’on fini par aboutir à des fantasmes et des contre-sens. Si on revient aux sources, le mot « intelligence » fut choisi pour indiquer à la fois que l’on va produire des résultats (on est donc dans du fonctionnel) similaires ou identiques à ce que peut produire l’esprit humain et à la fois pour dire qu’il s’agit de procédés calculatoires (aspect que j’avais déjà pointé…) Nous autres francophones avons tendance à passer à côté de ces deux dimensions, d’où certaines comparaisons malheureuses (comme tu dis, il s’agit d’intelligences distinctes qui n’ont rien à voir les unes avec les autres.)

              “It is seldom that liberty of any kind is lost all at once.” ― David Hume

          • [^] # Re: Excellent, merci.

            Posté par  . Évalué à 4 (+2/-1).

            l’apprentissage par un modèle de basse enrichit par l'imitation n'est complet (dans le cas de l'être humain ou de tout autre être vivant) que par l'apport des sens physiques et des affects liés à eux; est pour moi, primordiale.

            C'est donc un refus du concept d'intelligence artificielle. Toute intelligence doit se baser sur des sens physiques, une machine ne peut pas avoir de sens physiques, donc l'intelligence artificielle ne peut pas exister.

            L'IA est un joli perroquet stochastique

            Répéter ce genre de trucs ne le rendra pas vrai. C'est plus facile d'avoir une position dogmatique quand on refuse de voir ce dont ces algos sont réellement capables.

            • [^] # Re: Excellent, merci.

              Posté par  . Évalué à 3 (+2/-0).

              Comme le précise Maderios dans son commentaire, ces termes d'intelligence sont distincts. Pour l’IA on peut même parler d'intelligences au pluriel, différentes suivant les tâches qu'on lui assigne.

              Et fonctionnellement, ça marche. Les résultats sont là … pour les tâches données et grâce à l'orientation et les corrections apportées.

              J'emploie le mot "tâche" car il est au centre du concept, et il est là pour valider la sortie fonctionnaliste qui conditionne sa réussite.

              La validation par réussite s'applique très bien aux machines, pour comprendre l’intelligence du vivant; il faut partir sur d'autres bases (c'est juste une partie de la discussion porté par l'émission de RF).

              Pointer de façon critique les limites d'un concept ce n'est pas le refuser.
              Taxer cette critique de "dogmatisme", par contre, relève d'un terme que je te laisse nommer, parce que je suis poli.

              • [^] # Re: Excellent, merci.

                Posté par  . Évalué à 5 (+2/-0). Dernière modification le 11 avril 2025 à 11:27.

                Je peux être d'accord sur l'idée que "dogmatique" n'est pas le bon terme (parce que j'ai du mal à identifier le dogme sous-jacent), mais je ne pense pas que c'est trop fort. Je déteste cette position parce que je la trouve sans aucun intérêt : on définit "intelligence" comme "relatif à l'intelligence humaine", et paf, du coup, ahah, l'intelligence artificielle n'existe pas. À part essayer de se rassurer face à l'angoisse de se faire dépasser un jour par les machines, ça apporte quoi?

                Donc voila, si on exclut les gens qui ne peuvent pas concevoir que l'IA existe parce que l'idée leur fait peur, il reste plusieurs options.

                Soit tu définis l'intelligence artificielle par les résultats. L'expérience de pensée que j'aime bien, c'est le contact avec une civilisation extraterrestre à distance. On échange des messages radio avec cette civilisation, et sur cette base, on essaye de déterminer si elle est intelligente. Bon bah là il n'y a pas photo, c'est une sorte de test de Turing, et les LLMs les défoncent. Donc avec ce critère, les IA actuelles sont pleinement intelligentes.

                Tu peux aussi définir l'intelligence par l'émergence. Une espèce intelligente peut produire des objets intelligents, mais l'intelligence n'a pas émergé chez ces objets. Auquel cas, l'IA ne pourra jamais être qualifiée d'intelligente, même si elle outrepasse par des ordres de grandeur nos capacités de raisonnement. Du coup, le test des extraterrestres n'est pas concluant, puisqu'on est peut-être en train de discuter avec des objets intelligents, mais pas avec l'intelligence qui les a créés. Entre nous, ça me semble exactement correspondre à la définition d'intelligence "artificielle", puisque par définition il existe une intelligence "non-artificielle".

                Une définition plus stricte pourrait ne pas être fonctionnaliste : pour être intelligent, il faut un esprit, avec une conscience, une volonté, etc. Il faudrait donc que les objets artificielles aient l'équivalent d'une conscience, l'équivalent d'une volonté, etc. Du coup, l'intelligence n'est pas quelque chose qui s'estime par les interactions avec l'extérieur, mais pas l'état interne. Ça me parait une piste très difficile, parce que 1) il y a plein de choses à définir formellement pour lesquelles nous n'avons pas de définition, 2) ça consiste à coller des concepts binaires sur des choses très quantitatives (puisqu'un lapin a une forme de conscience et de volonté, et peut-être même une mouche, mais c'est juste que les degrés sont différents), 3) ce point de vue me semble écrasé par l'expérience de pensée du "zombie philosophique" (quelle est la preuve que les autres êtres humains ont une conscience, on est peut-être le seul à en avoir une) et la possibilité de l'illusionisme (la conscience pourrait être une illusion, et il y a des expériences en neurosciences qui montreraient que notre cerveau prendrait en effet des décisions bien avant que nous n'en ayons conscience, et que l'impression d'être aux commandes ne correspond pas à la réalité).

                En tout cas, bref, j'ai de plus en plus de mal à supporter l'argument de la cible mouvante pour l'IA. Depuis des siècles, on redéfinit l'intelligence dès qu'on crée une machine capable de faire une tâche qu'on pensait définir l'intelligence (calculatrice, ordinateur qui joue aux échecs, traduction, test de Turing, etc). Jusqu'à arriver à n'importe quoi, du genre "avoir des sens", "ressentir des choses", qui n'ont jamais fait partie d'aucune définition historique de l'intelligence. Quand les modèles agent vont commencer à se généraliser, on va avoir à notre disposition des algorithmes qui vont pouvoir apprendre par eux-mêmes à peu près n'importe quoi (coder un driver à partir des specs, servir d'adversaire à n'importe quel jeu vidéo, faire les emplois du temps d'un lycée, …). En parallèle, on va aussi commencer à être confrontés à des modèles "super-intelligents", dont les conclusions sont issues d'un raisonnement trop complexe pour qu'on puisse le suivre. Je ne vois pas en quoi se barricader dans le déni va servir à quoi que ce soit.

                • [^] # Re: Excellent, merci.

                  Posté par  (site web personnel) . Évalué à 5 (+2/-0).

                  En tout cas, bref, j'ai de plus en plus de mal à supporter l'argument de la cible mouvante pour l'IA. Depuis des siècles, on redéfinit l'intelligence dès qu'on crée une machine capable de faire une tâche qu'on pensait définir l'intelligence (calculatrice, ordinateur qui joue aux échecs, traduction, test de Turing, etc).

                  Ou alors c'est juste que les jalons posés avant n'ont aucun sens et que de "reculer" a de fait du sens car on doit préciser ce qu'on attend de cette notion ? Il faut dire que jusqu'à très récemment c'était assez facile de ne pas se poser la question.

                  Le sujet est difficile et personnellement je suis peu convaincu par l'approche purement comportementale car il y a de nombreuses limites mais c'est malheureusement le mieux que ce qu'on a aujourd'hui. Même si je ne crois pas non plus que la simple propriété "organique" soit nécessaire pour atteindre ce stade.

                  Je ne vois pas en quoi se barricader dans le déni va servir à quoi que ce soit.

                  Je pense qu'il faut faire attention avant de proclamer trop vite que "l'IA" est intelligente car si on pousse le raisonnement on devrait rapidement conclure des choses qui ont des implications profondes. Bien définir me semble donc indispensable. Et donc il faut être prudent.

                  Admettons que l'IA est intelligente, quoique cela veut dire, alors la question suivante est de savoir ce qu'on fait de cette notion et de se poser des questions connexes.

                  L'IA a t elle conscience d'elle même ? Ressent-elle des choses ? A-t-elle des sentiments ?

                  Si elle est intelligente, elle devrait rapidement avoir une personnalité juridique à définir. Car cela signifie qu'elle peut faire des actions qui ont des conséquences et qu'elle en a à priori conscience car l'entité est intelligente. Elle devrait donc être responsable notamment devant la loi.

                  Mais cela est vrai dans l'autre sens. Est-ce que éteindre le conteneur qui exécute le code de l'IA cela revient à la tuer ou à l'endormir ? Serait-ce donc criminel d'interagir avec elle de certaines façons ? Ou de frapper un robot qu'on a acheté dotée d'une telle IA ? Est-ce que manipuler l'IA en code, en entrainement ou interagir avec de certaines façons ne violeraient pas de nombreuses lois qu'on applique aujourd'hui aux humains et que par conséquent on devrait éteindre cela à ces sujets ? Pourquoi on ferait la différence entre humains et IA dans le fond ?

                  Alors bien sûr on n'est pas obligé de conclure tout cela et de dire "c'est intelligent" et on ne se pose pas plus de questions. Mais cela me paraît naïf et assez peu éthique car on essaye pas de prendre la mesure de ce que cela implique alors qu'on a "potentiellement" devant nous des entités intelligentes qui pourraient être dotées d'une conscience de manière émergente.

                  • [^] # Re: Excellent, merci.

                    Posté par  . Évalué à 5 (+3/-0).

                    Je pense qu'il faut faire attention avant de proclamer trop vite que "l'IA" est intelligente

                    Les interlocuteurs n'ayant pas la même définition de "l'intelligence" en tête, cette discussion ne peut être qu'un dialogue de sourds.

                    • [^] # Re: Excellent, merci.

                      Posté par  (site web personnel) . Évalué à 5 (+2/-0).

                      Je ne pense pas que mon commentaire soit radicalement différent selon la définition adoptée.

                      Disons que par exemple quelqu'un qui qualifie les IA actuelles comme intelligentes devraient être capables d'expliciter si :

                      • L'IA est consciente d'elle même ;
                      • L'IA ressent des sentiments d'une façon ou d'une autre ;
                      • En conséquence, est-ce que l'IA doit avoir un cadre juridique propre similaire à celui des animaux ou des humains avec tout ce que cela implique ?

                      Ce sont des notions connexes, c'est à mon sens bizarre de les considérer intelligentes et de ne pas réfléchir sur ces points. Et si on répond positivement aux deux premiers points, c'est assez intenable de ne pas le faire sur le 3e.

                      Et si on se base sur une approche comportementale pour définir l'intelligence, on devrait faire de même pour ces points là, donc en théorie arnaudus devrait par exemple admettre ces trois points. Ou alors trouver une bonne raison pour accorder l'intelligence mais ne pas le faire pour ces éléments là mais ça me semble compliqué si on utilise les mêmes méthodes à mon sens.

                      • [^] # Re: Excellent, merci.

                        Posté par  . Évalué à 4 (+1/-0).

                        c'est à mon sens bizarre de les considérer intelligentes et de ne pas réfléchir sur ces points

                        On peut probablement y réfléchir, mais je ne suis pas sûr dans quelle mesure c'est lié au problème de définition. On a l'intuition que chez les animaux, la conscience et l'intelligence sont liés, mais il n'y a pas tellement de raison que ça soit le cas pour une machine. Je peux parfaitement concevoir une IA qui pourrait dire "J'ai parcouru toute la littérature en physique et j'ai mis au point une nouvelle théorie de l'espace-temps qui résoud tous les problèmes que vous avez avec le paradigme actuel" sans pour autant avoir de conscience ou de sentiments.

                        Et si on se base sur une approche comportementale pour définir l'intelligence, on devrait faire de même pour ces points là, donc en théorie arnaudus devrait par exemple admettre ces trois points.

                        Je suis plus pragmatique que ça : selon ma définition, une machine ne peut pas feindre l'intelligence. C'est factuel, on lui file des séries de problèmes compliqués qui nécessitent une compréhension profonde pour les résoudre, si elle les résoud elle est intelligente. Par contre, on peut feindre la conscience ou les sentiments, donc il n'est pas possible de définir ces notions par rapport au comportement. C'est l'argument du "zombie philosophique", imagine quelqu'un qui n'a aucun sentiment ni conscience, mais qui se comporte comme s'il en avait, comment ferais-tu pour le savoir? Bah tu ne peux pas, sauf peut-être à lui faire des IRM, et encore. Le mieux que tu puisses faire, c'est d'évaluer la conscience par un argument par parcimonie; tu sais que tu es conscient, et tu sais que cette conscience est liée à ton cerveau d'Homo sapiens, or ton voisin se comporte comme s'il était conscient et c'est un Homo sapiens, donc il est plus parcimonieux de conclure qu'il est conscient. Mais si c'est un robot par exemple, tu ne peux pas savoir, la question est assez indécidable.

                        C'est peut-être un détail, mais de ce que je conçois du fonctionnement des LLMs par exemple, c'est qu'ils ne sont actifs que sur requête. Tu lui poses un problème et il fait tourner son algo, mais si personne ne lui demande rien il ne se passe rien du tout. Il ne "pense" pas par lui-même, il ne pense que lorsqu'il doit fournir une réponse. J'imagine qu'il ne dois pas être très difficile d'imaginer des algorithmes qui utilisent les CPU idle pour "penser", par exemple pour réorganiser des informations, oublier des choses, renforcer certaines connexions, optimiser certains sous-réseaux, etc. Auquel cas on se rapprocherait probablement plus des définitions usuelles de la "conscience".

                        • [^] # Re: Excellent, merci.

                          Posté par  (site web personnel) . Évalué à 5 (+2/-0).

                          Je peux parfaitement concevoir une IA qui pourrait dire "J'ai parcouru toute la littérature en physique et j'ai mis au point une nouvelle théorie de l'espace-temps qui résoud tous les problèmes que vous avez avec le paradigme actuel" sans pour autant avoir de conscience ou de sentiments.

                          C'est pour moi une drôle de posture pour quelqu'un qui défend la thèse fonctionnaliste et qui pense que l'intelligence peut être une propriété qui émerge peu importe que le support soit organique ou minéral.

                          On n'a pas de raisons de penser fondamentalement que cela soit différent pour ces autres notions.

                          Tout revient à si on accepte ou non d'adopter une posture fonctionnaliste. Si on accepte le fonctionnalisme, on accepte qu'il puisse exister des intelligences autres qu'humaines ou biologiques. Par conséquent, le seul moyen de définir l'intelligence est d'évaluer son comportement, et pas d'étudier son fonctionnement interne, qui est par essence différent du fonctionnement du cerveau. Une machine qui réagit comme si elle était intelligente est donc par définition intelligente, de la même manière qu'on peut conclure qu'un voisin est un être intelligent sans avoir étudié le fonctionnement de son cerveau.

                          Si on n'accepte pas la position fonctionnaliste, on restreint l'intelligence à un support biologique (le cerveau humain). Par conséquent, il n'y a rien à discuter, aucune machine ne peut être intelligente puisqu'une machine ne peut pas avoir de conscience, d'intention, etc.

                          Je suis plus pragmatique que ça : selon ma définition, une machine ne peut pas feindre l'intelligence.

                          Comme je l'ai expliqué et tenté de le montrer avec le cas des échecs plus bas, on pourrait feindre l'intelligence. Ce n'est pas parce que le résultat est bon que sa mise en oeuvre revêt d'une forme d'intelligence.

                          Même les humains savent feindre l'intelligence, quand tu triches ou copie ton voisin à un examen par exemple, tu feins aux yeux du professeur ton intelligence et tes connaissances et tes compétences vis à vis de ce sujet.

                          D'autant que même si les LLM savent faire des choses très bien, il y a des résultats quand même bizarres. Leur sensibilité à certaines conditions, malgré la littérature gigantesque qu'ils ont ingurgité (plus que tout être humain peut envisager ne serait-ce lister) et un processus poussé de développement ils font des erreurs assez élémentaires dont de raisonnement. Cela peut pointer des faiblesses et qu'il y a peut être quelque chose qu'il manque malgré des résultats spectaculaires par ailleurs.

                          Par contre, on peut feindre la conscience ou les sentiments, donc il n'est pas possible de définir ces notions par rapport au comportement. C'est l'argument du "zombie philosophique", imagine quelqu'un qui n'a aucun sentiment ni conscience, mais qui se comporte comme s'il en avait, comment ferais-tu pour le savoir? Bah tu ne peux pas, sauf peut-être à lui faire des IRM, et encore. Le mieux que tu puisses faire, c'est d'évaluer la conscience par un argument par parcimonie; tu sais que tu es conscient, et tu sais que cette conscience est liée à ton cerveau d'Homo sapiens, or ton voisin se comporte comme s'il était conscient et c'est un Homo sapiens, donc il est plus parcimonieux de conclure qu'il est conscient. Mais si c'est un robot par exemple, tu ne peux pas savoir, la question est assez indécidable.

                          Ah mais je sais bien que la question est difficile. Justement. :)

                          Mais devant cette indécidabilité, un peu comme pour l'intelligence par ailleurs, adopter le fonctionnalisme d'un côté et l'indécidabilité "absolue" de l'autre ne me semble pas être une position très cohérente alors que les processus en oeuvres derrière ont probablement des origines communes.

                          Et imaginons que l'IA ressent vraiment des choses et a conscience d'elle même, faute d'avoir décidé de la question on crée de la souffrance pour… rien. Et on le ferait pour toujours car "on ne peut pas le savoir" ? Alors que tu as été prompt à leur reconnaître une forme d'intelligence.

                          Je trouve cela bizarre oui.

                • [^] # Re: Excellent, merci.

                  Posté par  . Évalué à 1 (+0/-0).

                  (parce que j'ai du mal à identifier le dogme sous-jacent)

                  Tout simplement car il n'y a pas de dogme.

                  Je n'ai jamais dit qu'on pouvait définir "l'intelligence" comme "relative à l'intelligence humaine".

                  Le problème c'est qu'en temps qu'humain, imaginer une autre forme d'intelligence est très compliqué.
                  Juste que dans le cas de l'IA on connait la forme d'intelligence qui a conçut leurs modèles.
                  Je suis plus intéressé par l'intelligence animale, mais c'est un choix.

                  Je n'ai aucune angoisse de me faire dépasser par une machine, car c'est déjà le cas.

                  J'ai l'impression que tu me porte des propos que je n'ai pas, ou que tu as mal lu ce que j'ai écrit.

                  En tout cas, bref, j'ai de plus en plus de mal à supporter l'argument de la cible mouvante pour l'IA.

                  C'est parce que la cible de l'intelligence bouge constamment au fil de nos découvertes, ce qui est une bonne chose.

                  • [^] # Re: Excellent, merci.

                    Posté par  . Évalué à 4 (+1/-0). Dernière modification le 11 avril 2025 à 16:54.

                    Je n'ai jamais dit qu'on pouvait définir "l'intelligence" comme "relative à l'intelligence humaine".

                    Pas textuellement, mais tu écris cela:

                    l’apprentissage par un modèle de basse enrichit par l'imitation n'est complet (dans le cas de l'être humain ou de tout autre être vivant) que par l'apport des sens physiques et des affects liés à eux; est pour moi, primordiale.

                    Ça me semble donc revenir exactement au même. Tu écris qu'avoir des "sens" c'est différent d'avoir des capteurs, et que l'intelligence ne peut pas être complète s'il n'y a pas de sens. Je ne vois pas comment l'interpréter différemment d'une impossibilité logique pour une machine de développer une intelligence selon ta définition.

                    Le problème c'est qu'en temps qu'humain, imaginer une autre forme d'intelligence est très compliqué.

                    Mais non. 3 étapes, moins d'une minute:
                    1. Tu ouvres ChatGPT
                    2. Tu poses une question un peu créative non-triviale (du genre où chaque humain répondrait quelque chose de différent)
                    3. Tu lis.

                    Et voila, il n'y a rien à imaginer, tu peux constater que tu as eu une réponse intelligente. Une réponse issue d'une intelligence artificielle, avec ses qualités et ses défauts (style ampoulé, absence de faute d'orthographe, et probablement assez conformiste);

                    Si tu veux comparer, tu tapes la même question dans un terminal Linux, tu auras "command not found". Là, c'est pas intelligent, le terminal n'a pas compris que tu lui posais une question. Tu poses la même question à une poule, elle va répondre "cooot cot". Elle n'a pas compris la question, elle n'est pas intelligente. ChatGPT il a compris ta question en langage naturel et t'as apporté une réponse cohérente, alors qu'il est probable qu'il n'a jamais été entrainé à répondre à cette question. Ça coche toutes les cases de ce qu'on attend d'une "autre forme d'intelligence", et ne pas le reconnaitre c'est parce que tu bouges la cible tout le temps.

                    C'est parce que la cible de l'intelligence bouge constamment au fil de nos découvertes, ce qui est une bonne chose.

                    Bah je trouve que c'est n'importe quoi. Tu peux définir des niveaux à l'intelligence, par exemple tu dis que 1 c'est un ver de terre, 20 c'est un chimpanzé, 100 c'est un humain, et tu places les llm par rapport à ton échelle; ils seront peut-être à 70 ou 80 en fonction des questions, peut-être même que certains dépasseront 100 si 100 est le niveau moyen d'un humain, et voila. Tu dis "à partir de 80, ou de 100, ou de 120, alors j'appelle ça "intelligence". Mais quel est l'intérêt de jouer au jeu du "non, pas assez intelligent pour accepter de l'appeller intelligent" éternellement? Ça revient à dire "à 50 c'est intelligent", et quand une machine atteint 50, tu dis "ah non, c'est 70", puis dès que tu es à 70, c'est "ah non c'est 120", etc. Ça n'est pas l'intelligence qui est sans arrêt redéfinie, c'est les exigeances à partir desquelles certains accepteraient d'utiliser le terme "intelligent". Quitte à demander des sens physiques et pas des capteurs, comme ça tu es tranquille pour quelques années. S'il y a un intérêt autre que de jouer à "bof, c'est juste du buzz", j'aimerais bien le comprendre.

                    L'exemple que je prends toujours, c'est celui du jeu d'échecs. Au début du XXe siècle, jouer aux échecs était considéré comme une des activités d'abstraction les plus "nobles", une manière de prouver son intelligence pure (avec d'ailleurs des enjeux considérables pour les matches entre l'URSS et les USA lors de la guerre froide, chacun voulant prouver son "intelligence" supérieure). L'idée d'une machine capable de jouer aux échecs était alors une sorte d'idéal d'intelligence artificielle. Et paf, dans les années 1990, les machines capables de battre les meilleurs humains arrivent. Alors sans trembler des genoux, on balance l'argument de "ah c'est que du calcul en fait, ces machines ne sont pas intelligentes, on l'a d'ailleurs toujours dit", etc. Mais c'est faux, on ne l'a jamais dit avant, on a juste bougé la cible parce que pour une raison que je ne comprends pas, on ne veut pas admettre avoir franchi une étape dans le développement de l'IA. Mais en fait, la moindre machine capable d'exercer un travail intellectuel est par définition une sorte d'IA, donc je ne comprends pas où ça mène de le nier. Personne n'a jamais prétendu qu'un logiciel d'échecs réfléchissait comme un humain, ou qu'il était capable de composer un poème, mais personne n'a non plus jamais prétendu qu'une IA devait savoir tout faire (comme si un humain savait tout faire, d'ailleurs).

                    • [^] # Re: Excellent, merci.

                      Posté par  . Évalué à 3 (+2/-0).

                      A lire tes réponses vis-à-vis de mes commentaires, je pense vraiment que tu ne les lis pas; tu semble partir dans des diatribes de justifications qui tiennent plus du prêche que d'autre chose.

                      Comme quoi le dogme se trouve là où tu ne l'attendais pas.

                      Sur-ce c'est l'heure de l'apéro, et je pense qu'une bière et des chips seront plus nutritifs pour mon intelligence que cette "conversation".

                    • [^] # Re: Excellent, merci.

                      Posté par  (site web personnel) . Évalué à 3 (+0/-0).

                      Bah je trouve que c'est n'importe quoi.

                      Pourtant des notions complexes comme le temps, la gravitation, les forces, la matière, etc. ont eu des définitions qui ont bougé au corps du temps en fonction des découvertes et du progrès scientifique. Pourquoi l'intelligence ne pourrait pas évoluer aussi ?

                      L'exemple que je prends toujours, c'est celui du jeu d'échecs. Au début du XXe siècle, jouer aux échecs était considéré comme une des activités d'abstraction les plus "nobles", une manière de prouver son intelligence pure (avec d'ailleurs des enjeux considérables pour les matches entre l'URSS et les USA lors de la guerre froide, chacun voulant prouver son "intelligence" supérieure). L'idée d'une machine capable de jouer aux échecs était alors une sorte d'idéal d'intelligence artificielle. Et paf, dans les années 1990, les machines capables de battre les meilleurs humains arrivent. Alors sans trembler des genoux, on balance l'argument de "ah c'est que du calcul en fait, ces machines ne sont pas intelligentes, on l'a d'ailleurs toujours dit", etc. Mais c'est faux, on ne l'a jamais dit avant

                      Ou alors c'est juste que les gens qui ont affirmé ça ont été présomptueux et se sont plantés ? Comme tant d'autres choses en science comme les fameux deux petits nuages noirs de la physique à résoudre qui donneront naissance à la mécanique quantique et relativité. Bref, cet exemple ne prouve rien.

                      Mais reprenons les échecs, pour montrer une limite du comportementalisme.
                      Admettons qu'il soit possible de calculer en temps raisonnable toute partie d'échecs d'un certain nombre de coups, ou de les avoir dans une mémoire physique. Et l'ordinateur à chaque coup ne fait que de parcourir cet arbre de possibilités pour ne sélectionner qu'un coup menant de proche en proche à la victoire ou à un match nul. Le résultat peut être bluffant, mais est-ce vraiment "intelligent" ? C'est pourtant un algorithme naïf et peu évolué dont l'efficacité repose uniquement sur la puissance brute. Si tu considères cela comme intelligent, tout algorithme l'est et ton lave linge l'est aussi. Je ne trouve pas que ce soit très intéressant d'aller dans ce terrain là.

                      On n'a pas mieux que le comportementalisme à ce jour je suis d'accord, mais ça me semble difficile de considérer que cela soit un critère suffisant tout de même.

                      • [^] # Re: Excellent, merci.

                        Posté par  . Évalué à 2 (+0/-1).

                        Pour ce qui est de l'IA en tant que "résolution de problèmes bien formulés", genre avec une spécification mathématique du problème, avec un algorithme qui joue aux échecs on reste dans un une classe de problème assez limitée, en terme de richesse d'expression algorithmique, en tout cas. Et on a probablement toujours eu tendance en informatique théorique à faire la dichotomie "algorithme bête" genre brute-force ou il n'y a pas besoin de se casser la tête, et algorithme "intelligent" qui nécessite de mettre des techniques plus complexes en place pour résoudre le problème, et en tout cas là où les techniques bêtes étaient vouées à l'échec.

                        Là où ça devient intéressant c'est que les algorithmes "polyvalents" vont être ceux qui vont mettre en œuvre des techniques de représentation du problème pour s'adapter à ses nécessités propres (l'apprentissage de clauses dans SAT par exemple) qui leur fournissent un espace de travail évolutif en fonction du problème. De ce point de vue un solveur SAT ou SMT ont une richesse de représentation d'une très large classe de problèmes mathématiques. Les LLM ont leur espace neuronal qui peut être structuré de manière complexe, et aussi leur contexte de générations antérieur. Pour des résultats pas toujours top sur des chaînes de raisonnement complexes, a l'heure actuelle. Les LLMs ne sont pas nécessairement très intelligents dans le sens "résolution d'une vaste classe de problèmes mathématiquement définis complexes" qui est un des sens d'IA qui preexistait, donc. (Contrairement aux solveurs say, leur "recherche arborescente" qui permet d'être exhaustif est pauvre ou inexistante).

                        Et là on voit

                    • [^] # Re: Excellent, merci.

                      Posté par  (site web personnel, Mastodon) . Évalué à 3 (+1/-0).

                      Tu poses la même question à une poule, elle va répondre "cooot cot". Elle n'a pas compris la question, elle n'est pas intelligente. ChatGPT il a compris ta question en langage naturel et t'as apporté une réponse cohérente,

                      Euh… Il n’est pas dit que l’aborigène du bushmen comprenne plus ta question que la poule. Idem pour les extraterrestres le jour où ils-ou-elles nous envahiront.
                      (Bien sûr, tu vas nous répondre qu’il faut traduire dans la langue de l’autre qui ne cause pas français… Et c’est justement ma remarque : on pourrait traduire en langue de poule avant de conclure doctement.)

                      alors qu'il est probable qu'il n'a jamais été entrainé à répondre à cette question.

                      On est entrainé d’une façon ou d’une autre à répondre à toutes les questions auxquelles l’on répond ; c’était le drame de Tarzan et c’est celui des platistes.

                      “It is seldom that liberty of any kind is lost all at once.” ― David Hume

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.