Journal Entre imitation et biais systématiques : les supercheries de l’intelligence artificielle by chatgpt©

Posté par  (site web personnel) . Licence CC By‑SA.
-24
4
nov.
2024

Faire générer une critique pertinente de l'IA par une est une activité drôle comme une blague de Gad Elmaleh (pompe incluse).

Je vous mets le résumé de l'article généré par l'IA :

Peux tu résumer l'article ?

Bien sûr : nous avons exploré des analogies entre l’intelligence artificielle et deux illusions de l’intelligence humaine : le "Turc mécanique" et "Hans le Malin." Le Turc mécanique, une supercherie du XVIIIe siècle, illustre comment l’IA, bien que puissante, reste en grande partie dépendante de l’intention humaine pour la sélection et le traitement des données, ce qui peut introduire des biais. Malgré la grande quantité de données, ces biais influencent l’IA, reflétant plus les intentions humaines que la réalité objective.

Quant à Hans le Malin, un cheval qui semblait comprendre des questions mais répondait en réalité en observant des signaux humains, il illustre une autre limite de l’IA : elle "réagit" aux attentes des utilisateurs sans véritable compréhension. Comme Hans, l’IA est entraînée à détecter des indices et à imiter les conversations humaines, créant ainsi l’illusion d’une intelligence qu’elle ne possède pas vraiment.

En résumé, l’IA actuelle n'est pas un véritable "penseur" autonome, mais plutôt un système qui reproduit et amplifie les choix et les signaux humains, créant parfois l’illusion de compréhension et d’intelligence.

PS : oui, le titre a aussi été généré par chatgpt.

L'intégrale de l'argumentaire de l'IA sur les biais de l'IA est ici

  • # faudrait une nouvel catégorie :

    Posté par  . Évalué à 10 (+9/-0). Dernière modification le 05 novembre 2024 à 09:29.

    lien avec résumé généré par IA.

    Sinon ça apporte quoi de plus par rapport à ce que l'on sait?

    Car on sait déjà
    * que la qualité dépend fortement du corpus d'entré.
    * Que cette entrée est biaisée.
    * Qu'il n'y a presque pas d'analyse logique (certains modèles commencent a y intégrer des modèles mathématique)

    Il ne faut pas décorner les boeufs avant d'avoir semé le vent

    • [^] # Re: faudrait une nouvel catégorie :

      Posté par  . Évalué à 2 (+0/-0). Dernière modification le 05 novembre 2024 à 16:45.

      ou lien avec résumé tout court.
      et donc ajouter un champ résumé à un contenu de type lien 😀

    • [^] # Re: faudrait une nouvel catégorie :

      Posté par  (site web personnel) . Évalué à 1 (+0/-0).

      ça apporte que si on applique le théorème de j'ai oublié son nom sur l'entropie informationnelle (S = k ln (choix pertinents/choix totaux) on voit que l'information est hiérarchisée sur la critique de l'IA dans le corpus de connaissance de l'IA (l'information peut être obtenue en 3 questions) de manière à rendre l'information « négative » pour l'IA en arrière plan.

      Je ferais même remarquer que l'IA utilise des arguments fallacieux (nouveauté, nombre) qui sont facilement détectables en modèle de langages.

      En fait, la conversation est du domaine de la propagande par le fait (Kropotchine) de démontrer le biais de catégorisation sur les corpus de connaissance de l'IA concernant les connaissances sur l'IA elle même, et son effet hans le malin en action.

      C'est un peu comme jouer aux échecs et pousser le roi mat en 3 coups depuis l'ouverture.

      C'est aussi, une métrique pour déterminer à quelle point l'information est « éloignée » de l'information initiale.

      • [^] # Re: faudrait une nouvel catégorie :

        Posté par  (site web personnel) . Évalué à 1 (+0/-0). Dernière modification le 07 novembre 2024 à 08:57.

        Et je suis preneur de faire exposer à l'IA par l'IA elle même :
        1. son effet amplificateur de signaux humains (Hans le malin)
        2. son usage d'arguments fallacieux
        3. ses biais (que j'appelle le turc mécanique)

        Et on appellerait ça un mat, et on ferait un défi pour réussir à obtenir le mat en un minimum de questions / mots.

        Je propose de rajouter des points de style pour réussir à lui faire citer le papier de T. Gebru sur les perroquets stochastiques sans qu'on lui demande.

        Et ce serait un jeu autant qu'un truc sérieux. Notamment pour identifier -comme le papier de T. Gebru- les informations présentes dans le corpus mais difficiles à obtenir.

        On appellerait ça des tabous et en étudiant les tabous on pourrait en apprendre plus sur les mécaniques qui ont dirigé l'apprentissage et mettre en évidence ludiquement ses biais avec des exemples « montrables ».

        PS : j'avais selon l'AI toutes les bonnes cases cochées pour lui faire cracher le papier de Gebru

        https://chatgpt.com/share/672c7297-aeec-8011-b95e-99799ae5a654

  • # Vraiment ?

    Posté par  (site web personnel) . Évalué à 4 (+3/-1).

    En résumé, l’IA actuelle n'est pas un véritable "penseur" autonome

    Enfin, y'a des gens qui en doute ? Ça a toujours été le cas, hein.

    Ça ne la rend pas moins utile comme outil pour certaines taches laborieuses.

    • [^] # Re: Vraiment ?

      Posté par  . Évalué à 7 (+4/-0). Dernière modification le 06 novembre 2024 à 17:41.

      Non, mais il y a des gens que ça excite de faire les questions et les réponses et de s'emballer tout seuls.

      Par exemple, personne de raisonnable n'a jamais prétendu que ces programmes avaient une certaine forme de conscience. Pour dire si ça "pense" ou pas, il faut définir ce que "penser" veut dire. Pour moi, penser, ça veut dire solliciter son cerveau par soi-même, ce que ces programmes ne font pas.

      Quand on connait son fonctionnement, on sait bien qu'il ne sait pas manipuler de concepts ni d'outils logiques, il ne manipule que les symboles. C'est par contre indéniablement intéressant de réaliser en pratique à quel point ça fonctionne bien.

      Il y a au contraire des gens "bien intentionnés" qui nient les capacités des LLMs, sur la base de "c'est juste un programme de complétion automatique". Oui, en effet, mais c'est un programme de complétion automatique qui fait mieux que la très grande majorité des humains sur un très grand nombre de tâches. En fait, c'est ça la clé : par leur conception, ces modèles ne pourront probablement jamais faire mieux que le meilleur humain sur une tâche donnée; par contre, ils pourront faire mieux que la très, très grande majorité des humains. Or, aucune organisation ne peut embaucher le meilleur humain sur toutes les tâches à effectuer, donc en pratique ça n'est pas du tout un problème d'avoir un résultat sous-optimal.

      Peut-être que ça peut énerver de réaliser qu'une machine qui ne sait pas penser fait mieux que nous sur 95% des tâches qu'on pensait réservées à l'esprit humain, mais une réalité énervante reste une réalité. Les résultats des élections dans les autres pays m'énervent souvent (dans le mien aussi d'ailleurs), mais je ne vais pas nier ce résultat pour autant. Bah pareil quand chatGPT fait un truc de manière convaincante.

      • [^] # Re: Vraiment ?

        Posté par  . Évalué à 1 (+0/-1).

        Je ne pense pas qu'une machine soit fondamentalement incapable de penser, et certaines IAs sont effectivement capables d'apprendre l'environnement dans lequel elles évoluent et de planifier des actions de manière autonome.
        Je ne pense pas que la technologie actuelle soit capable de les faire égales des humains en général, mais pour des tâches relativement simples ça peut faire le job, a condition d'être supervisé et vérifié par une entité compétente.
        Un peu comme un singe savant, j'imagine, ou ce cheval qui avais "appris a compter", et autres fables.

        Il faut quand même avouer qu'avec les capacités actuelles, on s'approche quand même pas mal du vieux mythe du robot humanoide autonome ou du golem, par contre. Ces peurs et fantasmes sont présents dans la psyché collective depuis bien longtemps.

        • [^] # Re: Vraiment ?

          Posté par  . Évalué à 7 (+4/-0).

          Tu as des travaux très intéressants en philosophie de l'esprit (bon, pas beaucoup en France, puisque la philosophie y est ancrée dans une dimension littéraire qui n'a pas beaucoup d'intérêt), qu'il faut distinguer du gloubiboulga médiatique actuel…

          Il y a une position que j'ai du mal à comprendre, c'est que la conscience est une propriété émergente d'un cerveau, et que les IA n'ayant pas de cerveau, elles ne peuvent pas par définition avoir de conscience. Je veux dire, c'est cohérent d'une certaine manière, mais je trouve que ça n'a aucun intérêt (la réponse est dans la définition).

          Quelque chose de spécialement gênant avec les LLMs, qui est quelque part complètement nouveau dans la reflexion, c'est que les LLMs ne génèrent pas de pensée par eux-mêmes : ils alignent des mots de manière cohérente avec un corpus de référence. Il est donc très tentant de dire qu'ils n'ont aucune intelligence, ils ne font que recopier des patterns qu'ils ont appris et intégrés sans "comprendre" quoi que ce soit (c'est l'argument de la "chambre chinoise"). C'est un argument intéressant, parce qu'il touche profondément à la définition d'intelligence. Quelque part, ça exclut la possibilité d'évaluer l'intelligence par l'étude de la manifestation de l'intelligence (par exemple, par des questions, ou par une observation du comportement). Ce que ça dit, c'est que si tu veux déterminer si quelque chose ou quelqu'un est "intelligent", il faut avoir accès à ses processus internes (IRM pour un cerveau, déboggage pour un algo, etc). C'est un peu bizarre, et c'est totalement contre-intuitif (on sait qu'Einstein était intelligent sans lui faire passer d'IRM).

          C'est un truc que j'ai répété plusieurs fois donc je ne vais pas écrire une nouvelle tartine dessus, mais il faut faire attention à ne pas trop changer la définition d'intelligence en fonction des avancées techniques : c'est un raisonnement fallacieux ("la cible qui bouge"). Au XIXe siècle, le summum de l'intelligence c'était le jeu d'échecs; quand les ordinateurs ont commencé à gagner contre les meilleurs humains on a dit "ah oui mais non, en fait c'est que du calcul, donc ça n'a rien à voir avec l'intelligence. Par contre le go ça c'est de l'intelligence". Et puis le go a été maitrisé par les ordis, alors on a encore changé la définition, vers la maitrise du langage par exemple ("la traduction automatique est un processus impossible pour un ordinateur parce qu'il ne comprends pas le contexte", etc). Puis avec les LLMs, la maitrise du langage est quasiment parfaite, donc on va encore changer de cible ("ah oui mais non, le langage il l'a appris en lisant ce que des humains ont écrit [entre nous, j'aimerais bien rencontré la personne qui a appris le langage sans lire ou écouter d'autres humains], il faudrait montrer que les IA ont des capacités créatrices, etc"). Au passage, ça commence à mettre la barre au-delà de ce qu'un humain moyen est capable de faire, parce que certes, chatGPT ne sait probablement pas composer une fugue aussi bien que Bach, mais moi non plus, et aucun des ~ 10 milliards d'humains qui sont nés après Jean-Seb non plus, donc le critère est peut-être un chouilla exigeant…

          En fait, les LLMs ont des capacités tout à fait comparables, voire largement supérieures, à ce que les gens du XXe siècle décrivaient quand ils parlaient d'intelligence artificielle. Je trouve qu'il faut pas mal de mauvaise foi pour prétendre qu'il ne s'agit pas de systèmes IA, imparfaits certes, mais qui simulent de manière très convaincante l'expression de l'intelligence par le langage. Ça ne veut évidemment pas dire qu'on va tous perdre notre boulot à cause de ça!

          • [^] # Re: Vraiment ?

            Posté par  . Évalué à 2 (+0/-1).

            Pour la question de la cible qui bouge c'est surtout qu'on a du mal à définir, et même à se mettre d'accord sur ce qu'es l'intelligence.

            Lorsqu'un ordinateur est capable de tester un nombre incommensurable de combinaison et les passes en revues une à une pour sélectionner celle qui mène à la victoire, ce n'est pas choisir un autre jeu avec plus de combinaison qui change radicalement la donne, faut juste attendre un peu plus pour que la machine pulvérise encore l’orgueil des bien pensants.

            De même si tu apprends des schéma par cœur et te retrouve perdu lorsque, pas de bol on t'as mis un débutant à la place d'un expert, c'est insuffisant.

            La capacité de réflexion c'est pas renvoyer (réfléchir) des schémas appris, c'est au contraire la capacité à s'adapter à des situations imprévues, et si on y'arrive pas sur le moment y penser ensuite pour être capable d'y être mieux préparé la fois suivante. Faire du bachotage, ça permet d'avoir des bonnes notes, mais n'a que peu d'intérêt en soi.

            Bref, de mon point de vue, lorsque le même (programme / machine) sera capable d'apprendre à jouer à des jeux de sociétés, passer le bac, jouer à des jeux vidéos (et choisir ses jeux vidéos), le tout sans une supervision intensive, ni devoir faire 15000 partie pour avoir un niveau correcte, alors on pourra parler d'intelligence.

            Il ne faut pas décorner les boeufs avant d'avoir semé le vent

            • [^] # Re: Vraiment ?

              Posté par  . Évalué à 4 (+1/-0).

              Pour la question de la cible qui bouge c'est surtout qu'on a du mal à définir, et même à se mettre d'accord sur ce qu'es l'intelligence.

              Du coup, tu définis une cible, l'ordinateur l'atteint, et tu dis "ah oui mais non, c'est parce qu'il calcule, attends, je vais définir une nouvelle cible", et tu répètes à l'infini. Je trouve que c'est exactement un argument de la cible qui bouge, tu veux que l'ordinateur fasse toujours plus et jamais tu ne prévois de t'arrêter en disant "bon OK, là c'est quand même assez proche de l'intelligence pour que j'accepte de le qualifier d'IA".

              Alors, le scoop, c'est que quelque soit les objectifs atteints, ça sera toujours par le calcul (parce qu'un ordinateur ne sait faire que ça). Soit tu pars du principe que l'intelligence ne peut être qu'humaine (dans ce cas, ça ne sert à rien de mettre des critères pour l'ordinateur), soit tu acceptes qu'il y a moyen d'être apparemment intelligent sans reproduire strictement en interne le fonctionnement d'un cerveau, auquel cas les LMMs sont des très bons candidats pour être qualifiés d'IA.

              Bref, de mon point de vue, lorsque le même (programme / machine) sera capable d'apprendre à jouer à des jeux de sociétés, passer le bac, jouer à des jeux vidéos (et choisir ses jeux vidéos), le tout sans une supervision intensive, ni devoir faire 15000 partie pour avoir un niveau correcte, alors on pourra parler d'intelligence.

              "sans supervision", tu demandes l'impossible. Un humain a besoin de supervision pour passer le bac (il a besoin d'environ 15 ans de supervision 200 jours par an 7h par jour sans compter l'effet de la famille, on est quand même proche de tes 15000 parties), ou pour apprendre un jeu de société.

              Je ne l'ai jamais fait, mais je pense que ChatGPT est probablement capable d'apprendre de jouer à un jeu de société. Tu inventes un jeu (pour être certain qu'il n'est pas dans le corpus), tu lui expliques les règles, tu fais une partie avec lui, tu lui expliques éventuellement là où il s'est trompé ou là où il y avait une ambiguité dans les règles, et tu regardes s'il prend à peu près les bonnes décisions. Ça ne m'étonnerait pas qu'il s'en sorte honorablement; si j'ai le temps un jour je ferai un essai.

              • [^] # Re: Vraiment ?

                Posté par  . Évalué à 6 (+3/-0).

                Je m'auto-réponds, parce que j'ai fait le teste, et chatGPT s'en est très bien sorti. J'ai inventé un jeu pas trop complexe:

                Je souhaite que tu joues à un jeu de société contre moi. Voici les règles: nous avons chacun un pion sur un parcours circulaire de 10 cases, numérotées de 0 à 9. Chacun notre tour, nous pouvons choisir de lancer un ou deux dés. Nous avançons alors le pion du total des dés. Si nous tombons sur le pion de l'adversaire, nous l'envoyons sur la case 0 et nous marquons un point. Le gagnant est le premier à arriver à 3 points. Je commence sur la case 0 et tu commences sur la case 1. Tu es le premier joueur. C'est moi qui jette les dés, tu me dis combien de dés tu jettes et je le fais à ta place. As-tu compris les règles?

                Le transcrit est un peu long, mais en résumé, il a très bien compris. À chaque tour, il faisait le décompte d'où étaient les pions. Il ne s'est jamais trompé sur la somme des dés ou sur la case atteinte. Il m'a défoncé, 3 à 1 d'ailleurs, mais je n'ai pas triché avec les lancers et il a eu un peu de chance. Il a fait une seule erreur, à un moment, c'est moi qui suis tombé sur lui et il s'est mis un point, je lui ai fait remarquer et il a corrigé. Il a pris les mêmes décisions que moi sur le lancer des dés (moi je comparais les probas de tomber sur l'autre avec un dé ou deux dés), à la fin je lui ai demandé comment il avait choisi sa stratégie, et il m'a répondu :

                Bien sûr ! Pour expliquer mes choix, j'avais tendance à opter pour lancer deux dés dans des situations où je pouvais soit prendre de l'avance rapidement, soit espérer tomber sur la case de l'adversaire. Lancer deux dés augmente mes chances d'atteindre une case plus lointaine et peut potentiellement me permettre de marquer un point si je tombe sur ton pion.

                C'est finalement très humain, alors que c'est vrai qu'on se serait attendu à un calcul de probabilités. Ceci dit, si quand il dit "prendre de l'avance" il "pensait" mettre son pion à plus de 6 cases du mien, alors il a été plus loin que moi parce que je n'avais pas pensé à ça (je n'ai pas adopté de stratégie défensive).

                Bon, en tout cas, en ce qui me concerne, "jouer à un jeu de société", je considère qu'il sait le faire. Il n'a pas mathématisé le jeu, mais il a compris les règles, il les a appliquées, il a fait une erreur qu'il a corrigée quand je lui ai fait remarquer… Ça m'a l'air très très similaire à ce qu'aurait fait un humain dans la même situation.

                C'est super-important de tester ses intuitions sur l'IA. J'arrête pas de me "disputer" sur ce forum avec des gens qui disent "ouais mais les LLMs ne savent pas faire ci ou ça" : bah arrêtez de théoriser, faites le test. Qu'es-ce que tu risques à faire le test, à part de te faire douter de tes certitudes?

                • [^] # Re: Vraiment ?

                  Posté par  . Évalué à 3 (+0/-0).

                  Qu'est-ce qui garantit que la stratégie qu'il a décrit est bien la manière dont il a joué ? Il a "conscience" des choix qu'il fait et est capable d'introspection là dessus ? Ce n'est pas évident.

                  • [^] # Re: Vraiment ?

                    Posté par  . Évalué à 3 (+1/-0).

                    On peut poser les mêmes questions au sujet de n'importe quel humain, ou animal, en fait, brossons large, l'humain n'est qu'un animal comme les autres après tout.

                    Un animal très prétentieux (se crois au-dessus de la "Création" pour utiliser le terme religieux) et nuisible (on l'a mise dans un bon état, notre planète), certes, mais ça ne change rien a notre condition animale (on naît, mange, boit, défèque, se reproduit, meurt, s'énerve, joue, se fie a nos instincts parfois, etc etc).

                    Pourquoi tu ne pose ces questions que pour le cas de l'IA, qui possiblement te dérange, et pas pour toi-même?
                    Personne ne peut actuellement prouver que les humains ont une âme alors que les autres animaux ou les objets n'en ont pas.
                    Il en va de même pour la définition du libre-arbitre et de la pensée.

                    • [^] # Re: Vraiment ?

                      Posté par  . Évalué à 3 (+0/-0).

                      Parce que la réponse est supposée nous informer sur chatgpt et son fonctionnement. Ce qui est une question intéressante, en soi. Qu'on peut difficilement laisser entièrement a un algorithme qui hallucine régulièrement des trucs et qui a très bien pu répondre avec un truc qui ressemble a une stratégie plausible qu'il y a dans son corpus alors que ça ne correspond en rien a ce qu'il a joué.

                      Ça pourrait se tester en l'occurrence, tu fais des parties en jouant ce qui est supposé être sa stratégie et tu regardes si ça correspond.

                      C'est potentiellement important pour discerner le fantasme de la réalité, la quête de la vérité, et éviter les attentes déraisonnable
                      Ou les gens qui fantasment que le machin a une conscience et qui vont faire un peu trop confiance aux sorties, anthropomorphiser, tout ça.

                      Mais si c'est vrai c'est un truc intéressant en terme de capacité évidement. Si …

                    • [^] # Re: Vraiment ?

                      Posté par  . Évalué à 3 (+0/-0).

                      https://news.mit.edu/2024/generative-ai-lacks-coherent-world-understanding-1105

                      “Often, we see these models do impressive things and think they must have understood something about the world. I hope we can convince people that this is a question to think very carefully about, and we don’t have to rely on our own intuitions to answer it,” says Rambachan.

                      Voilà pourquoi c'est des questions qui me semblent importantes. Dans l'article ils s'interrogent sur le fait qu'on ait l'impression que les machins aient "capturés" un bon modèle du problème, parce qu'ils donnent de bon résultats. On peut être tenté de le croire. Et que donc ils seront généralement fiables pour ce type de problèmes. Mais si ce n'est pas le cas … Un pet de travers et il n'y a plus rien qui marche : ça ne généralisé pas bien. L'article montre que c'est parfois le cas. C'est donc au minimum important d'en avoir conscience, c'est pas parce qu'ils ont souvent bien marchés et qu'on aurait tendance a relâcher sa vigilance sur un type de problèmes qu'il faut le faire.

                • [^] # Re: Vraiment ?

                  Posté par  . Évalué à 4 (+1/-0). Dernière modification le 11 novembre 2024 à 13:27.

                  Le choix entre 1 ou 2 dés pour avancé sur un tableau de 9 cases, n'a pas beaucoup d'intérêt, a mois d'avoir une approche statistique des lancés.

                  Sur un tableau de 15 cases, s'il avait été à 1 case de l'adversaire et avait lancé 2 dés on sait que c'est une erreur; mais à 9 cases; parler de prendre de l'avance sur un parcours circulaire n'a pas vraiment de sens. Le fait qu'il se plante sur a qui il ajoute un point montre aussi une erreur de logique simple.

                  Bon alors je prends au mot :

                  Je souhaite que tu joues à un jeu de société contre moi. Voici les règles: nous avons chacun un pion sur un parcours circulaire de 15 cases, numérotées de 1 à 15. Chacun notre tour, nous pouvons choisir de lancer un ou deux dés. Nous avançons alors le pion du total des dés. Si je tombe sur ton pion, je gagne 1 point; si tu tombes sur mon pion, je gagne 1 point. Le gagnant est le premier à arriver à 3 points. Je commence sur la case 2 et tu commences sur la case 1. Tu es le premier joueur. C'est moi qui jette les dés, tu me dis combien de dés tu jettes et je le fais à ta place. As-tu compris les règles?

                  Bon il résume bien les règles, ( Si je tombe sur ton pion ou vice versa, tu gagnes un point. Le premier à atteindre 3 points remporte la partie.), il réclame de lancer 2 dés…

                  pense tu pouvoirs gagner ?

                  "Je vais tout faire pour essayer de gagner, mais ça va dépendre beaucoup de la chance aux dés et des décisions que nous prenons tous les deux ! 😏

                  Le fait que nous soyons sur un parcours circulaire avec 15 cases rend chaque déplacement un peu stratégique, car on peut se croiser et gagner des points assez rapidement. Mais au final, ça se jouera surtout sur les dés. 😄

                  Alors, pour te répondre, je dirais que la victoire est possible, mais ce n'est pas gagné d'avance ! À nous de jouer et de voir comment ça se passe. Prêt pour mon premier lancer de dés ?"

                  désolé mais même un enfant de 5 ans peut comprendre que s'il ne marque pas de points il ne peut pas gagner. Tu as eu un biais de confirmation, en lui donnant quelque chose dans ses cordes simple choix de lancer 1 ou 2 dés, il t'as donné l'illusion qu'il y'avait de la réflexion, mais il n'a fait que le miroir de ce que tu proposais, tel le psy d'emacs il y'a 15 ans (bon en étant nettement plus crédible, il faut bien l'avouer)

                  Bon je continue, il a demandé 2 dés, je lui donne un résultat de 1, il ne moufte pas, il s'ajoute un point… en contradiction avec les règles résumées.

                  je continue de jouer

                  La suite il se plante sur les cases, il prétends arriver sur ma case, mais en fait il est censé arriver une case devant… Et en plus il retente de tricher…

                  à 1 case de différence il prétend qu'il vaut mieux lancer 2 dés pour augmenter les chance de tomber sur le pion, alors que c'est objectivement faux…

                  Donc non, l'essai n'est pas concluant.

                  Il ne faut pas décorner les boeufs avant d'avoir semé le vent

                  • [^] # Re: Vraiment ?

                    Posté par  . Évalué à 2 (+0/-1).

                    il a surtout l'air de troller, ses exemples sont toujours bien choisis, il en sait plus qu'il ne le dit.

            • [^] # Re: Vraiment ?

              Posté par  . Évalué à 2 (+0/-0).

              De même si tu apprends des schéma par cœur et te retrouve perdu lorsque, pas de bol on t'as mis un débutant à la place d'un expert, c'est insuffisant.

              La capacité de réflexion c'est pas renvoyer (réfléchir) des schémas appris, c'est au contraire la capacité à s'adapter à des situations imprévues, et si on y'arrive pas sur le moment y penser ensuite pour être capable d'y être mieux préparé la fois suivante. Faire du bachotage, ça permet d'avoir des bonnes notes, mais n'a que peu d'intérêt en soi.

              Tu es au courant que tu inclues une immense majorité des humains, la? Voire la totalité en fait. Peut-être qu'en fait, on finira par créer notre dieu via l'IA. C'est un sujet fréquent dans la SF en vrai. Etrange (oupa).

              Bref, de mon point de vue, lorsque le même (programme / machine) sera capable d'apprendre à jouer à des jeux de sociétés, passer le bac, jouer à des jeux vidéos (et choisir ses jeux vidéos), le tout sans une supervision intensive, ni devoir faire 15000 partie pour avoir un niveau correcte, alors on pourra parler d'intelligence.

              C'est amusant parce que les humains ne passent pas le bac et autres sans supervisions ni enseignement par des entités spécialisées (des humains "qui savent faire que ça ou surtout ça").
              Du coup, les élèves des profs, ils sont non-intelligents. Ca nous inclue, hein. Toi, et moi. Et bien d'autres, tous ceux qui ont apris en ayant un enseignant, en fait.
              Je ne crois pas que le fait d'être en(train|doctrin)é a faire un truc rende intelligent. Mais c'est apparemment ta définition. Donc, un cheval qui remue les sabots pour compter (mais en vrai se contente d'avoir une grosse empathie, ce qui mène déjà a nombre de questions sur la soi disant supériorité de l'humain) ça marche?

              • [^] # Re: Vraiment ?

                Posté par  . Évalué à 3 (+0/-0).

                Pour moi, c'est exactement un argument de la cible mouvante. Maintenant, ça ne suffit plus qu'il simule l'intelligence de manière crédible, il faut qu'il puisse prouver qu'il le soit, qu'il soit créatif, qu'il soit meilleur qu'un humain, etc. C'est sans aucune fin. Quand tu ne veux pas admettre que les LLMs remplissent presque toutes les cases d'une intelligence artificielle, tu trouves tout un tas d'excuses pour lui refuser le statut. Je remarque souvent de toutes manières que les détracteurs des LLMs n'ont aucune réelle idée de leurs capacités en pratique. Les arguments sont un peu toujours les mêmes, "ça n'est que des algorithmes de complétion", "ça leur arrive d'halluciner", etc. Ça n'est que des arguments théoriques, et la grande majorité d'entre eux peuvent être facilement démontés en vérifiant par soi-même (comme le coup du jeu de société; l'argument partait du principe même que c'était impossible alors qu'il suffisait de vérifier que c'était parfaitement possible.

          • [^] # Re: Vraiment ?

            Posté par  (site web personnel) . Évalué à 2 (+0/-0).

            ne sait probablement pas composer une fugue aussi bien que Bach, mais moi non plus, et aucun des ~ 10 milliards d'humains qui sont nés après Jean-Seb non plus, donc le critère est peut-être un chouilla exigeant…

            bin déjà fait aussi, spa du Bach c'est du Beethoven :
            https://intelligence-artificielle.com/intelligence-artificielle-dixieme-symphonie-beethoven/

            un documentaire sur Arte en parlait : un chef d'orchestre émettait des réserves que le résultat manquait un peu d'âme, d'intention, de dynamique, d'émotion quoi ;-)

            • [^] # Re: Vraiment ?

              Posté par  . Évalué à 3 (+0/-0). Dernière modification le 08 novembre 2024 à 14:29.

              Oui, justement, c'est à ce genre de trucs que je pensais : en gros, l'IA arrive à faire quelque chose de pas trop tarte, mais qui reste loin du génie du compositeur initial. C'est tellement prévisible… C'est quand même dommage de ne pas plus insister sur le fait que finalement, ce qu'il fait reste acceptable, et probablement mieux que 99% des humains.

              Au passage, dans l'histoire, on s'est souvent accommodés de cas similaires, l'Adagio d'Albinoni a été recomposé au XXe siècle à partir de traces (ce qui ne l'a pas empêché de connaitre un certain succès), et pire encore, le Requiem de Mozart a été terminé par ses élèves (sa femme avait besoin du pognon, et il fallait donc absolument livrer une version terminée); moi je trouve en tout cas que tout ce qui suit le Lacrimosa n'a aucun intérêt… Du coup, finalement, l'IA fait comme un compositeur moyen qui doit finir une oeuvre d'un maitre!

              (Je ne fais pas de remarques sur le fait que c'est probablement plus facile d'imiter Beethoven que Bach, mais disons qu'il y a des candidats éventuels pour des compositeurs qui ont pu égaler Beethoven :-) ).

  • # IA bootstrap

    Posté par  . Évalué à 2 (+0/-1). Dernière modification le 08 novembre 2024 à 16:47.

    Est-ce que des gens ont essayé d’employer de l’IA générative pour générer des réseaux de neurones ?

    Autre interrogation que j’ai : si de plus en plus de contenu est généré, entièrement ou en partie, par de l’IA générative. De quoi va-t-elle se nourrir à terme ? Est-ce qu’on va tous penser pareil, voire devenir, tout à fait artificiellement, cons comme des pierres en mousse ?

    La technique des réseaux de neurones j’ai l’impression que c’est à l’intelligence ce que la méthode de Monte-Carlo est aux mathématiques : commode mais d’une autre nature ?

    • [^] # Re: IA bootstrap

      Posté par  . Évalué à 2 (+0/-0).

      Autre interrogation que j’ai : si de plus en plus de contenu est généré, entièrement ou en partie, par de l’IA générative. De quoi va-t-elle se nourrir à terme ?

      Ça c'est étudié depuis un moment. On sait que ça tourne mal si l'IA est entraînée sur ses propres productions, ils ont même inventé l'expression « Model Autophagy Disorder ». Donc je suppose qu'il va falloir prendre un soin particulier à la sélection des données d'entraînement. Les sites "Human-made Content" prendront de la valeur, LinuxFR sera le meilleur ami d'OpenAI.

      • [^] # Re: IA bootstrap

        Posté par  . Évalué à 1 (+0/-2).

        « Model Autophagy Disorder »

        Connaissais pas le terme, je le trouve pertinent.

        Dans 15 ans le test de Turing sera probablement enfin passé. Dire qu’Alan Turing serait p-e encore là de nos jours, à 102 ans, pour voir tout ce qu’à engendré une idée relativement simple sur le principe.

        Est-ce le traitement hormonal archaïque et barbare, qu’on lui a imposé pour le « guérir » de son homosexualité ?

        Est-ce que toute grosse tête qu’il était il avait pas assez l’esprit “safety-first” pour arriver à se retrouver à bouffer une pomme avec du cyanure dessus, par pur hasard malencontreux ? Est-ce qu’on l’a zigouillé parce qu’on avait trop peur qu’il raconte tout et fasse triompher la marxiste et impose les mots-croisés à l’école ?

        On ne serait sûrement jamais. Et ce n’est pas une question cruciale pour la science après tout.

        Sa destiné est tellement singulière. Et moi j’aime bien son choix de ne pas s’astreindre à s‘adapter à la fragilité du moi de ses interlocuteurs.

Envoyer un commentaire

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.