arnaudus a écrit 5206 commentaires

  • [^] # Re: Si seulement ?

    Posté par  . En réponse au lien L’IA est-elle en train de tuer le SEO ? [un article SEO de plus sur l’IA]. Évalué à 5.

    Probablement que rien n'empêche d'utiliser des outils comme les SVR ou plus modernes pour créer des catégories d'utilisateurs, de requêtes, de sites, et adapter le classement aux intérêts présumés du requérant.

    Certes, mais du coup c'est pareil que les algos de recommandation des réseaux sociaux (c'est obscur, différents utilisateurs n'ont pas les mêmes réponses, ça classifie les utilisateurs dans des "bulles" de confort, etc).

    Mais je pense que c'est assez insoluble. Les intérêts de l'utilisateur, du concepteur du moteur, des sites visités, et de la société sont incompatibles, donc soit un intérêt est privilégié par rapport aux autres, soit un compromis doit être fait. Quand quelqu'un cherche "soigner le cancer par les huiles essentielles", est-ce vraiment dans son intérêt de répondre à la question demandée? Ou "achat Mein Kampf dédicacé par Hitler"? Et quid de "site de streaming illégal"? "Adresse personnelle du ministre de l'intérieur"? On met la limite où? Les journaux en ligne jurent sur la tête de leurs grands parents que sans les cookies ils vont mourir dans les 2 jours qui viennent, et si c'était partiellement vrai? Du coup on change l'algo pour les refaire monter, parce que "Le Monde" avec cookies ça vaut peut-être "Le Blog de Dédé l'identitaire" sans cookies?

  • [^] # Re: Si seulement ?

    Posté par  . En réponse au lien L’IA est-elle en train de tuer le SEO ? [un article SEO de plus sur l’IA]. Évalué à 6.

    Lire vos commentaires me rappel quelques articles et interventions lues ici sur des tentatives de créer des web alternatifs, moins envahis par la publicité, le JavaScript, etc (je ne sais pas trop si ma description est claire, n’étant pas capable de retrouver une référence précise).

    Le truc, c'est que bien sûr chacun est libre de faire un site avec la technologie qui lui plait. Linuxfr est assez exemplaire, mais même Wikipédia par exemple n'est vraiment pas mal.

    Si tu devais concevoir un moteur de recherche indépendant, tu prendrais certainement en compte une partie de ces critères, notamment la rapidité d'ouverture des pages sur un browser lambda, la taille de code non-HTML, la présence de cookie walls, etc.

    Note que le moteur de Google pénalise les pages bourrées de pub, les popups, etc. Mais depuis un paquet d'années Google n'investit plus vraiment dans la qualité de son moteur (pour plein de raisons, notamment commerciales), et que quand tu as en face de toi des SEO qui brassent des millions, tu risques d'avoir toujours une longueur de retard.

    ils seraient obligés de se concentrer sur du contenu intéressant pour améliorer l’évaluation de leur signature.

    C'est la différence entre le SEO "white hat" et le SEO "black hat", et ça existe depuis longtemps. C'est juste que produire du contenu intéressant n'est pas forcément possible, en fonction de ton business model. Et tu risques, aussi paradoxalement que ça puisse être, de perdre tes lecteurs. Un site de Pr0n qui te propose 75 pages documentées sur l'histoire de la représentation de la sexualité dans l'art, ça n'est probablement pas ce que tes lecteurs cherchent. On part tous du principe qu'on cherche des pages fournies et documentées, alors que ça n'est pas forcément le cas.

  • [^] # Re: Si seulement ?

    Posté par  . En réponse au lien L’IA est-elle en train de tuer le SEO ? [un article SEO de plus sur l’IA]. Évalué à 10.

    En fait, il semble impossible de savoir si l'auteur est sincère (et complètement dans sa bulle), ou si c'est un cynique qui se moque du monde.

    Le principe du SEO est de tromper. Tromper les moteurs de recherche, en exploitant les failles des index de pertinence pour promouvoir du contenu moins pertinent, et bien sûr tromper les utilisateurs des moteurs de recherche, en mettant en avant des résultats différents de ceux qu'ils auraient souhaité. Le SEO oblige les moteurs de recherche à adapter leurs algorithmes régulièrement pour boucher les failles, sans pour autant y réussir parfaitement.

    Et là, ouin ouin, ils semblent avoir trouvé des parasites plus efficaces qu'eux : les pages qui génèrent du contenu par IA et qui, probablement par le volume et la fréquence des mises à jour, attirent les moteurs de recherche mieux que les cercles de faux sites s'auto-indexant, ou autres techniques malhonnêtes destinées à tromper les logiciels d'indexation.

    Finalement, depuis des années, les moteurs de recherche ont abandonné la lutte, en mettant en avant les liens "sponsorisés" et en ne portant qu'un intérêt minimal à la liste des sites qui suivent (et à la limite, moins cette liste est pertinente et plus les sites sponsorisés vont être attractifs). C'est dans cet espèce d'équilibre malsain que les moteurs et les SEO peuvent cohabiter, mais c'est bien entendu au détriment des internautes.

    Existe-t-il des moteurs de recherche qui pénalisent les sites mettant en place des stratégies de SEO habituelles? C'est ce genre de moteurs qui aurait le plus de chances de donner des résultats pertinents.

  • [^] # Re: Wow

    Posté par  . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.

    J'ai noté que tu as parlé de "peur fantasmatique" de perdre son boulot puis que
    "Après, pense que tu es irremplaçable", et là je suis pas sur de voir la cohérence.

    J'avais l'impression que tu partais du principe que les IA/LMM c'était de la bouse et que ça n'était qu'un effet de mode, comme si les versions actuellement disponibles n'étaient capables de rien d'intéressant. C'est ça que je trouve paradoxal : soit c'est de la bouse et il n'y a aucune raison de craindre un effet à long terme sur la société, soit ça marche et ça va marcher de mieux en mieux et que c'est ça qui est "inquiétant". Mais en tout cas, moi ces modèles m'ont fait prendre conscience à quel point les employés du tertiaire étaient en théorie remplaçables, et que l'humain n'était pas si "intelligent" que ça quand on le prenait individuellement. En tout cas, certaines tâches qu'on pensait réservées à des élites intellectuelles (écrire des rapports d'expertise, synthétiser des documents, répondre spécifiquement à des demandes de support…) étaient à la portée de systèmes automatiques. Et pour moi, la raison principale qui expliquerait pourquoi certains nient ça avec insistance et prétendent que les LLM ne font rien d'intéressant, c'est parce qu'ils ont peur de ce qui pourrait advenir d'eux dans quelques années. Justement, parce que l'argument "les LLM ne font rien d'intéressant" ne tient pas quand on essaye de leur faire faire des choses intéressantes (et pas de les piéger pour tenter de démontrer qu'on est plus intelligent qu'eux).

    Mais je me trompe peut-être, tu penses peut-être sincèrement que les LLM ne font rien de spécial, mais dans ce cas je ne suis pas d'accord : les LLM sont capables de trucs extraordinaires; actuellement ils ne sont qu'un outil parce qu'il faut corriger deux ou trois trucs après eux mais il ne s'en faut pas de beaucoup pour avoir quelque chose de prêt à la production directement.

  • [^] # Re: Wow

    Posté par  . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.

    ce que je trouve le plus limitant au final dans les LLM, c'est qu'elles fonctionnent sur des sets d'informations qui peuvent être périmées

    Ça n'est pas juste une limitation imposée par le distributeur du modèle? Rien n'empêche de sortir une version actualisée tous les mois ou tous les ans.

  • [^] # Re: Wow

    Posté par  . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3. Dernière modification le 26 août 2024 à 18:54.

    Rien ne garantit que le message soit compatible avec la morale du XXIe siècle, hein… Moi je comprends que Zeus il est très musclé, il a des grosses balloches pleines de testostérone, et que comme ça Europe elle ne peut pas résister (on comprend comme on veut), et que c'est comme ça que font les Dieux mâles dominants très virils. De toutes manières, après il la refile à un roi pour des raisons politiques, donc il n'était pas non plus très très amoureux.

    Wikipédia ajoute que "À Gortyne, sous un platane qui depuis lors est toujours vert, Europe s'accouple avec Zeus, sous forme humaine cette fois"… soit c'est mal écrit, soit le "cette fois" est un peu inquiétant parce que je n'avais pas compris les détails de l'histoire comme ça.

  • [^] # Re: Wow

    Posté par  . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.

    D'ailleurs si tu lui demandes si la force existe il te dira probablement que la force n'existe pas.

    Probablement, si ton corpus d'apprentissage est à 95% hors de star wars et décrit star wars comme une oeuvre de fiction. Mais tu as plein d'exemples où ça n'est pas forcément le cas. Par exemple, quelle part du corpus décrit la mythologie monothéiste comme une oeuvre de fiction? De facto, une part substantielle des humains ne la considèrent pas comme de la fiction, qu'est-ce qu'une IA devrait répondre là-dessus?

    Et puis ça ne change pas vraiment la logique, juste les lois de la physique en l'occurrence.

    Certes, mais ça n'est quand même pas facile de lui demander d'avoir un sens de la "vérité" quand le corpus contient de gros blocs cohérents dans lesquels les lois de la physique sont fausses. Pour le coup, être capable de classifier un corpus en "fiction" vs "réalité", ça c'est quand même un signe d'intelligence, non? Par exemple, si ton IA lit "L'histoire de Quiddich à travers les âges", jamais le livre ne s'identifie comme une oeuvre de fiction qui fait partir de l'univers de Harry Potter. Nous, on est cablés pour faire très facilement la différence; à 2 ans un gamin fait la différence entre une histoire fictionnelle et une histoire vraie. Mais un LLM doit faire émerger ça à partir de son corpus, ça n'a pas l'air facile. Surtout s'il faut évaluer si la biographie de Trump est une oeuvre de fiction, par exemple.

    "Est-ce qu'il y a besoin de "raisonner" (dans le sens d'encoder des règles de déduction valides) pour bien prédire"

    Les LLM prouvent que non; ils manipulent les syllogismes et se trompent rarement sur les raisonnement piégeux (du style "combien de temps faut-il à 9 femmes pour faire un enfant"). En fait, c'est assez facile de montrer qu'ils ne raisonnement pas; ils arrivent fréquemment à te donner la bonne réponse sans être capables de te donner un raisonnement correct quand tu leur demandes; ça ressemble plus à une intuition très efficace (du fait de la taille du corpus ingurgité), et une sorte de rationalisation a posteriori quand tu lui demandes explicitement.

    Mais encore une fois, est-ce bien grave? Imagine que tu fournisses un service de diagnostic en ligne de pannes de bagnole. Tes experts donnent le bon diagnostic dans 90% des cas, à partir des informations fournies dans un chat. Ils vont raisonner, du style "C'est une 206 de 2010, on sait qu'il y a souvent des pannes dûes aux faisceaux sur ces modèles", etc. À côté, chatGPT ne sait même pas ce qu'est une bagnole, mais donne un résultat probabiliste basé sur autant d'indices qu'il peut percevoir (l'orthographe du client, la rapidité des réponses dans le chat…). S'il est précis à 95%, quel est le problème à lui laisser donner des réponses intuitives? Dans la plupart des applications, ce que tu souhaites, c'est avoir la bonne réponse à ton problème, et pas de t'assurer que cette réponse est construite sur un raisonnement solide.

  • [^] # Re: Wow

    Posté par  . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 4.

    Dans un tel contexte, c'est peut-être plus intéressants de spécialiser des modèles sur telle ou telle tache au lieux d'avoir un gros gloubiboulga générique qui fera jamais mieux que le modèle spécialisé seul.

    Lui faire avaler la littérature scientifique plutôt que les logs de Twitter? Oui, en effet, je pense que ça serait mieux si tu veux lui faire recracher des trucs vrais. Mais je pense que le but c'était de passer le test de Turing, auquel cas mieux vaut sortir les mêmes idioties qu'un humain moyen.

  • [^] # Re: Wow

    Posté par  . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3. Dernière modification le 26 août 2024 à 16:38.

    Ce qui n'est pas surprenant dans un tel cadre c'est qu'il ne soit pas vraiment capable de revenir en arrière et de remettre en cause son "raisonnement" en cas de résultat absurde parce qu'il n'y a pas de notion de "backtracking" dans une telle boucle ou il complète juste ce qui est entamé.

    En général, si tu lui demandes "es-tu sûr de ton raisonnement?", il va se corriger.

    Mais bon, tout ça reste une forme de simulation de raisonnement, et je ne pense pas qu'il puisse réellement raisonner (dans le sens où on le conçoit). D'une manière plus générale, il n'a pas réellement de notion de vérité, puisqu'il ne connait que le corpus d'entrainement, il n'a aucun moyen de comparer ce corpus avec le monde réel.

    Ce qui n'est pas très étonnant d'ailleurs. Si le corpus c'est l'univers de Star Wars, alors pour lui, la Force et les Jedi sont des trucs réels. C'est malvenu de lui reprocher ça, puisqu'un humain serait exactement dans la même situation, d'ailleurs. Comme il n'a pas accès au monde par ses propres sens, il ne peut que "croire" ce qu'on lui raconte.

  • [^] # Re: Wow

    Posté par  . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.

    De toutes manières, essayer de faire "raisonner" un modèle de langage est absurde. Ça démontre en effet pas mal le genre de fantasmes que les gens peuvent avoir, mais on est d'accord que ça n'a aucun intérêt? Au mieux, tu peux espérer avoir une réponse correcte que le problème est suffisamment connu pour qu'il soit largement représenté dans les données d'entrainement.

    Je pense que ça illustre aussi pas mal la mauvaise foi avec la quelle la question est traitée parmi la communauté qui s'intéresse à ces technologies. Les gens qui ont conduit ces études savent pertinemment que rien dans un modèle de langage ne lui permet de suivre un raisonnement mathématique. Tu peux conclure que "ah ah cette AI est stupide", mais celui qui est stupide est celui qui a conçu ce test idiot.

    Pour tester un LLM, fais-lui écrire une lettre, raconter une courte histoire, résumer un texte… Regarde par exemple, je viens de faire le test : "écris un sonnet sur une panne d'embrayage". Voici le résultat:

    *Sur la route déserte, un triste présage,
    L'embrayage soudain décide de céder,
    Et mon voyageur se voit tout arrêter,
    Dans un silence lourd, pesant comme un orage.

    Je cherche en vain un secours, un visage,
    Le moteur agonise, prêt à m'abandonner,
    Et sous le capot chaud, je commence à douter,
    Qu'un miracle survienne dans ce sombre paysage.

    Mais voilà qu'arrive un vieil artisan,
    Aux mains tachées d'huile, au geste précis,
    Qui d'un tour de clé redonne vie au moteur.

    L'embrayage renaît, brillant artisan,
    Je repars enfin, le cœur allégé,
    Reprenant la route, loin de toute frayeur.*

    Bon, il y a des problèmes mineurs sur certaines rimes, mais honnêtement, il faut être blasé pour ne pas être amusé par la performance du truc, non? Évidemment que ça n'est pas du Hugo, mais là encore tu as un résultat meilleur que quoi, 90% des gens?

    Bref … "intelligence" est un terme qui veut dire bien des choses, mais sans raisonnement il me semble qu'on manque d'un ingrédient essentiel

    Ouais c'est ça, les gens intelligents c'est ceux qui savent mener un raisonnement mathématique. On se demande bien pourquoi tant de livres ont été écrits sur le sujets alors que c'est tellement facile.

    Plus prosaïquement, quand tu mets un humain à un poste de travail par exemple, tu te fous un peu de savoir comment il mène les raisonnements qui le conduisent à prendre les bonnes décisions. Personne ne s'est jamais demandé si Dédé de la compta, il pensait vraiment ou il simulait la pensée. Et heureusement, parce qu'à part mener à des situations débiles et inconfortables, je ne vois pas où ça peut te mener. Bah voila, c'est pareil avec les LLM: ils se comportent dans la plupart des situations comme un humain qui raisonne, avec ses limites, ses erreurs, ses biais, ses imperfections. C'est donc une IA dans la mesure où elle peut simuler l'intelligence, donner les mêmes réponses qu'un humain qu'on présume intelligent. Chercher plus loin, c'est de l'escroquerie, parce qu'on sait très bien que les LLM ne raisonnent pas, ils ne sont pas conçus pour raisonner, et quelle que soit la complexité de la question qu'on leur pose, on finira toujours par pouvoir montrer qu'ils "simulent" le raisonnement.

  • [^] # Re: Wow

    Posté par  . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.

    On sait que ça va s'améliorer, mais on ne sait pas jusqu'où. Ça n'a rien à voir avec du "wishful thinking". Ça va s'améliorer, parce qu'on sait que les services professionnels sont largement supérieurs à ce qu'on peut avoir pour le grand public payant, ce qui est encore supérieur à ce qu'on a en gratuit. Il est donc possible d'avoir bien mieux que ce que la plupart d'entre nous a pu tester.

    on sait pas trop comment, on sait pas trop l'évaluer et on a pas de plans

    Tu confonds "on" et "je". Ça n'est pas parce que tu sais pas que personne ne sait.

    En fait, je ne sais même pas comment tu peux tenir un tel discours sur la "médiocrité" des IA, ça me fait clairement penser à une sorte de déni. Est-ce que tu as essayé d'utiliser un outil grand public (type chatGPT) sans mauvaise volonté, sur une tâche pour laquelle il est "bon" (en gros, générer du texte)? Tu demandes la même chose à 100 humains au hasard dans la rue, tu penses que chatGPT se classe où? Franchement, il va très souvent être dans les quantiles tout en haut, 90%, 95%. Ça ne va pas valoir ce que pourraient produire les cracks du domaine, mais ça a largement, très largement même, être au moins équivalent à ce que produirait un humain. Comme je le disais plus haut, chatGPT a un niveau master dans beaucoup de domaines, ce qui n'est pas à la portée d'un être humain (je veux dire, niveau master, oui, mais pas dans tous les domaines).

    Après, pense que tu es irremplaçable, que jamais une machine ne pourra t'égaler dans le futur, que tout ça est du flan, tu es libre de penser ce que tu veux. Mais pose-toi juste la question sur la part de ça qui est dû à un raisonnement rationnel, et la part qui espère juste ne pas vivre dans un monde où en effet, les machines seraient capables de fournir un travail intellectuel de qualité supérieure à la plupart des êtres humains?

  • [^] # Re: Wow

    Posté par  . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 3.

    Le truc c'est que malgré tout ça on a pas vraiment fait de progrès sur les questions parce que les vraies applications intéressantes

    Je ne sais pas ce que tu appelles "intéressantes". Si c'est du point de vue de la société, je t'accorde que ça n'est pas impressionnant, même si je pense qu'il y a énormément de potentiel au niveau des interfaces entre les consommateurs d'un service et l'équipe de développement (questions fréquentes, documentation, rapport de bugs, etc). Par contre, le fait que ces systèmes soient capables de générer des copies mieux que moyennes jusqu'au niveau master, les étudiants l'ont bien compris. La capacité à étendre ou à résumer un texte est aussi extrêmement impressionnante. Comme dit plus haut, c'est un outil : il faudra repasser derrière pour vérifier rapidement, et ça n'aura jamais aucune réelle créativité, puisqu'il s'agit d'outils de synthèse. Mais si on en reste à ce niveau, ça marche quand même plutôt bien, et on a toutes les raisons de penser que ça ne peut que s'améliorer (jusqu'où? Ça n'est pas très clair).

  • [^] # Re: Interface chaise clavier

    Posté par  . En réponse au message Le dev, les proS et les bugS !. Évalué à 5.

    Mais c'est aussi parce qu'on croit naïvement que d'avoir des communautés ouvertes c'est bien et qu'il n'y a pas besoin de prévoir des cas particuliers. Ça fait plus de 20 ans que ces cas comme ça existent sur Wikipédia par exemple, des contributeurs très (très très) motivés, qui produisent du contenu incompréhensible ou clairement contre-productif, qui interagissent de manière très inefficace avec le reste de la communauté, et qu'on ne peut pas bloquer ou ignorer parce que ça rend tout le monde mal à l'aise. C'est toute la balance complexe entre l'inclusion et la protection des membres de la communauté.

    Honnêtement, j'ai toujours pensé que la meilleure solution est celle de prévoir dans l'interface la possibilité d'isoler ces contributeurs, de manière à ce qu'ils aient accès à une version personnalisée du site, qui contient tout le site, plus leurs contributions qui ne sont pas visibles pour les autres contributeurs. Je crois que sur Wikipédia il leur était proposé de contribuer dans des "bacs à sable", des versions des pages destinées à l'origine aux gros chantiers de remise en forme des articles (on travaille sur une version en développement avant de la mettre d'un coup en ligne, afin d'éviter que le lecteur tombe sur un truc en travaux). Du coup, hop, on crééait des bacs à sable, on disait aux contributeurs "plutôt que de te faire réverter dans la page principale, tu n'as qu'à travailler au calme dans cette page"; tout le monde était content, le contributeur avait accès à Wikipédia et il était le Dieu absolu sur sa page, et étrangement le fait que la page n'était pas indexée ni visible n'était pas un problème la plupart du temps. Donc voila, plutôt que de ban ou de moinsser, on pourrait "invisibiliser" les contributeurs trollesques, sans pour autant qu'on doive réellement décider s'ils sont malveillants ou s'ils souffrent d'un trouble qui rend leur contribution à une communauté problématique pour les autres. Ils pourraient alors continuer à interagir avec le site, poster des spams ou des textes qui troubleraient les autres contributeurs, et ça leur prendrait beaucoup de temps avant de se rendre compte que les autres ne le voient pas.

  • [^] # Re: Wow

    Posté par  . En réponse au lien Microsoft’s Copilot falsely accuses court reporter of crimes he covered - OSnews. Évalué à 2.

    Déja, est-ce qu'on parle de la qualité absolue de ce qui sort d'une IA, ou bien de la qualité relative par rapport aux données qu'elle a ingurgité? Si on nourrit une IA avec les pages de la Flat Earth Society, l'IA te dira que la terre est plate. Il n'y a pas de problème avec l'IA, juste un problème avec la qualité des données.

    Ensuite, est-ce que l'argument est temporaire (du style, "pour l'instant, c'est pas assez fiable"), ou est-ce qu'il est définitif ("par principe, ça n'est pas fiable"). Enfin, quelle est la référence? Par exemple, une IA qui conduit une voiture, on sait qu'elle va avoir des accidents, la question est plutôt si elle a plus ou moins d'accident qu'un conducteur moyen, qu'un conducteur inexpérimenté, qu'un conducteur âgé, etc.

    Du coup, il y a tellement d'arguments qui s'éparpillent partout sur l'échelle de l'argument foireux qu'à un moment, il est tentant de tout balancer, parce que la plupart sont des arguments de grand-mères à moustaches ("ce truc change le monde et je n'aime pas quand le monde change"). Et je suis d'accord aussi que beaucoup d'arguments sont contradictoires entre eux. "Ça ne fait que reformuler Wikipédia" vs "Ça n'aura jamais la fiabilité d'une page conçue par un humain", par exemple. Il y a également énormément d'arguments basés sur le traitement d'informations privées, qui pourraient être obtenues par un moteur de recherche : si Google te retourne la bonne réponse si tu demandes "Quel est le numéro de téléphone de Tartempion" ou "Est-ce que Tartempion est juif", alors c'est normal que chat GPT te donne également la bonne réponse, c'est ce qu'on attend de lui (et s'il ne la donnait pas, on dirait "ah ah c'est moins bien qu'une recherche Google").

    Parce qu'une IA bien configurée peut aussi être au service de la vie privée. Justement, si elle a pour consigne de ne pas dévoiler d'informations privées, elle peut "filtrer" le contenu du web pour ne fournir que les informations pertinentes. Elle peut t'apporter des nuances ("selon certaines sources la Terre est plate, mais ce n'est pas l'avis des scientifiques"), etc. L'IA est un outil, c'est un outil tellement nouveau que peu savent comment il fonctionne et comment l'utiliser efficacement, c'est un outil tellement puissant que beaucoup en ont peur, et c'est un outil tellement récent qu'on n'a aucune protection légale, ni même aucune règle éthique, qui s'appliquerait aux excès. Mais une fois qu'on a retiré tous les argument superficiels (qui traduisent des peurs ou des fantasmes, tels que la peur de perdre son boulot), et les arguments qui se concentrent sur l'imperfection des implémentations disponibles actuellement ou sur les lacunes des bases de données qui servent à entraîner les logiciels, il reste beaucoup moins de questions à trancher. Une question majeure est celle de la responsabilité (qui est responsable, celui qui fournit l'IA, celui qui l'utilise, celui qui publie le résultat…), une autre question est celle de la légalité de l'usurpation (est-ce éthique d'utiliser une IA pour se faire passer pour un humain auprès d'un autre humain), etc. Mais tant qu'on ne se débarrasse pas des questions de grand-mères à moustaches, on aura du mal à s'intéresser au fond des choses.

  • [^] # Re: Interface chaise clavier

    Posté par  . En réponse au message Le dev, les proS et les bugS !. Évalué à 5.

    Selon toute vraisemblance, cette personne est "neuro-atypique". Nous n'avons pas les compétences pour poser un diagnostic (et si on les avait, on n'aurais pas le droit déontologiquement), mais on peut au moins faire preuve de bienveillance.

    Ceci dit, je n'ai absolument rien compris à ce qu'il attend de nous sur cette entrée de forum. Qu'on lui dise qu'il n'y a pas de bug dans Linux?

  • [^] # Re: Pas le même paradigme

    Posté par  . En réponse au message Avantages du C++ sur le C ?. Évalué à 4.

    Je pense que ce qui n'est pas très clair pour beaucoup (y compris pour moi), c'est à quel point un langage comme C++ est multiparadigme, et à quel point il n'implique pas d'utiliser toutes ses possibilités. Ce n'est pas parce qu'une police de caractères propose des glyphes latins, grecs, et hébreux que c'est une bonne idée de mélanger tout ça dans le même texte.

    Certains utilisent C++ comme un C amélioré (avec des classes à la place des struct, les opérateurs <<, les const et les références par exemple), d'autres comme un pur langage objet (encapsulation et héritage), d'autres ne jurent que par les algorithmes génériques à la STL, certains excluent les templates ou les exceptions, etc.

    En théorie, j'ai l'impression les avantages majeurs de la POO se voient surtout sur les gros projets (travail indépendant sur des modules, évolutivité à long terme), surtout quand leur architecture générale a été conçue par des gens qui connaissent bien leur boulot (design patterns etc). Tant que tu as des exemples du style "class Voiture: public Vehicule", ça parait complètement déconnecté de ce dont tu as besoin pour écrire un programme lambda de 150 lignes.

    Mais sur le fond, certaines possibilités offertes par le C++ sont quand même des trucs de niche, qui sont à des années lumière de ce qu'un programmeur peu expérimenté peut maitriser. Je crois qu'il m'a fallu des années pour comprendre par exemple que la surcharge des opérateurs n'était pas utile pour 99.9% des projets, ou qu'on pouvait faire du code propre sans template variadique. Et puis après j'ai arrêté le C++ parce que ça n'était pas l'outil dont j'avais besoin, et voila.

  • [^] # Re: Pas le même paradigme

    Posté par  . En réponse au message Avantages du C++ sur le C ?. Évalué à 8.

    En tout cas, il a l'air bien convaincu que l'esprit du Libre, c'est de coder en C, autrement, tu vas en prison.

    Compte créé aujourd'hui, peut-être juste un troll? En tout cas, son manque de culture rend l'affirmation qu'il est développeur assez douteuse (par exemple, les problèmes liés au type de NULL, ça devrait être dans les cordes d'un developpeur C, non?)

  • [^] # Re: Pourquoi la voiture propose une maj en roulant...

    Posté par  . En réponse au lien il paralyse Sète en lançant une mise à jour Tesla au feu rouge. Évalué à 8.

    De toutes manières, l'info est passée par une série de témoins et de journalistes, donc il n'y a aucun moyen de savoir ce qui est vrai ou pas.

    L'article dit que le frein à main n'est pas désactivable pendant la mise à jour, ce qui me semble poser d'éventuels problèmes de sécurité…

  • [^] # Re: Pas le même paradigme

    Posté par  . En réponse au message Avantages du C++ sur le C ?. Évalué à 7.

    J'ai aussi l'impression que le C++ est utilisé pour complexifier volontairement, c'est à dire obfusquer, le code source de certains programmes et librairies open source.
    je suis pour l'obligation légale et internationale de publier un programme C et une librairie C
    Je suis pour la liberté de programmation, et le C++ permet de restreindre cette liberté, je trouve que c'est contraire à la philosophie du Libre.
    Et c'est contraire à la philosophie du Libre qui veut que l'on fasse le programme le plus efficace possible.

    Rassure-moi, c'est une caméra cachée ou un truc comme ça? :-)

    En fait, quand tu demandais "quels sont les avantages du C++?", tu ne voulais pas une réponse, tu envoyais une bouteille à la mer pour savoir à quel point tu étais seul sur ton perchoir?

  • [^] # Re: Il y a des baffes qui se perdent...

    Posté par  . En réponse au lien Quand l'algorithmique devient fasciste. Évalué à 2.

    :-)

  • # Pas le même paradigme

    Posté par  . En réponse au message Avantages du C++ sur le C ?. Évalué à 7.

    Donc je ne vois pas quels sont les avantages du C++ sur le C ?

    En fait, tu es en train de demander quelque chose comme "quel est l'avantage du bateau sur la voiture?". On va te répondre "Il peut aller sur l'eau". Et tu vas dire "Bah je n'ai pas besoin d'aller sur l'eau, et puis avec un 4x4 je peux rouler dans les flaques".

    Je ne sais pas si C++ est un bon langage objet, je le trouve verbeux, piégeux, hyper-complexe, et ses évolutions le rendent encore plus complexe et plus technique. Mais bon, le C++ moderne est un langage objet et ses dernières évolutions permettent une programmation générique assez poussée, et il est probable que tu n'aies aucune idée de ce que ça permet si tu les compares avec les enum et les struct de C.

    Il y a aussi le "nullptr" dont je ne vois pas l'intérêt, le "NULL" me paraît plus rapide à écrire et plus lisible car écrit en majuscules.

    Là, tu es en train de dire "sur ma voiture le volant est noir alors que sur les bateaux le volant est blanc, donc je ne vois pas l'intérêt d'acheter un bateau plutôt qu'une voiture".

    Concernant les attributs "private", "protected", et "public", des classes du C++, je ne vois aucun intérêt à ça.

    Deux possibilités. La possibilité 1, c'est que des millions d'ingénieurs ont conçu, appris, amélioré, et utilisé dans des milliers de logiciels des concepts de programmation qui n'ont aucun intérêt. La possibilité 2, c'est que ta formation et ton expérience en programmation sont trop parcellaires pour que tu comprennes l'utilité de ces concepts, et même trop limitées pour que tu puisses comprendre ce qu'il te manque pour comprendre l'utilité de ces concepts.

    J'ai ma petite idée sur la possibilité qui est la plus vraisemblable, mais je ne veux pas influencer :-)

    Par contre, je pense que ça illustre pas mal le fait que tu n'as probablement pas besoin d'utiliser C++ pour tes projets, donc pas besoin de se poser trop de questions : n'apprends pas C++. Ceci dit, je ne pense pas que C soit un bon langage pour n'importe quoi d'autre que des applications très proches du système, et il y a quand même un côté "vieux grognon" à toujours pousser vers la compréhension fine du fonctionnement des ordinateurs quand on commence la programmation.

  • [^] # Re: Il y a des baffes qui se perdent...

    Posté par  . En réponse au lien Quand l'algorithmique devient fasciste. Évalué à 7.

    L'agent qui te reçoit pense, souvent à juste titre, que le document présenté ne passera pas auprès du service chargé de traiter la demande.

    Si c'était vrai, il n'y aurait pas de différence notable entre les agents, ce qui n'est pas le cas. Et en fait, c'est presque pire, parce que les agents essayent d'anticiper les décisions arbitraires qui seront prises un étage au-dessus. Dans mon expérience, c'est la pire situation administrative, puisque les agents ne sont jamais récompensés pour leur efficacité; par contre, il peuvent être blâmés pour leurs erreurs. Du coup, ils vont mettre le curseur sur une attitude très, très prudente, à la limite de la rigidité psychologique. Contrairement à ce que tu supposes, il n'y a aucune marge de discussion possible, puisque l'agent te dis juste "ça, ça ne passera pas", et c'est tout. Tu ne peux pas lui répondre "mais si, ça passera", parce que tu n'en sais rien. Tu peux lui sortir la liste de gouv.fr, mais on va te répondre que c'est indicatif et que dans son expérience, ça ne passera pas.

    En plus, si tu crois que les échelons supérieurs justifient leurs refus, tu te trompes complètement. Par exemple, ils vont refuser une quittance de loyer écrite en vert. L'agent de l'État civil ne saura pas si c'est parce que c'est une quittance de loyer, si c'est parce que c'est un document manuscrit, ou si c'est parce que c'est écrit en vert. Il va deviner, et va se mettre par exemple à refuser tous les documents manuscrits, ou tous les documents écrits en vert. Il va le dire à ses collègues qu'il forme sur le tas, il va le dire aux gens qui viennent déposer un dossier, qui vont le répéter à leurs proches ou sur les forums d'aide sur internet, et voila, tu as créé une sorte de "culture" fantaisiste, sans aucune base solide; tout le monde va penser, écrire, et confirmer "de source sûre" que les quittances de loyer ne sont pas valables alors que le problème était la couleur du stylo, ou le contraire.

  • [^] # Re: facho !

    Posté par  . En réponse au lien Quand l'algorithmique devient fasciste. Évalué à 7.

    Non mais ça, c'est parce que l'ennemi est bête. Il croit que c'est nous l'ennemi alors que c'est lui ! :-)

  • [^] # Re: Lae boulangèreuratriceuse qui calcule la monnaie exécute un algorithme

    Posté par  . En réponse au lien Quand l'algorithmique devient fasciste. Évalué à 3.

    Définition du Larousse

    Bah je pense que la définition du Larousse est bugguée :-)

    Au-delà du "problème", il y a la question du "nombre fini d'opérations" qui me semble hautement questionnable, puisqu'il est justement impossible de déterminer si certains algorithmes vont se terminer ou non.

    Mais pour être clair : le problème résolu par un algorithme n'est pas l'écriture de l'algorithme. Pour l'exemple du carré vert, en effet, "écrire un algorithme qui remplit un carré de pixels verts en un temps fini" est un problème. Mais ce problème, c'est le programmeur qui va le résoudre. L'algorithme, lui, va remplir le carré, ce qui est une tâche, mais pas un problème à résoudre. Un peu comme "demander son nom à l'utilisateur": l'algorithme ne doit pas fournir une solution à un problème.

    Pour le reste, on ne va pas sodomiser les mouches avec des gants de boxe toute la journée. Tu prends l'exemple de A*, voila, A* c'est l'algorithme, et tu peux coder cet algo en C, en python, ou en brainfuck, c'est toujours A*.

  • [^] # Re: Mouais, pas convaincu

    Posté par  . En réponse au lien 10 Reasons Why Technological Progress Is Now Reversing — Or How Silicon Valley Started Breaking Bad. Évalué à 10.

    En fait, ça ressemble tellement à des marmonnements de vieux dans son dentier qu'il est difficile de trouver ça original ou nouveau. Je pense que l'arnaque dans ce genre de choses est de présenter ces choses là comme une pensée nouvelle, alors que je suis persuadé qu'en remplaçant les termes techniques par "machine à vapeur" la plupart des arguments ne paraitraient pas anachroniques au XIXe siècle.

    Prends le coup de la puissance des entreprises par exemple. L'influence que peuvent avoir Apple ou Amazon sur les États n'est rien par rapport aux Compagnies des Indes, qui ont directement piloté les politiques impérialistes des pays occidentaux pendant deux siècles. La puissance des milliardaires a toujours également été au devant de la scène, en politique ou dans la fiction, avec parfois aussi ce petit arrière-goût d'antisémitisme. La plupart des points sont comme ça, le 1) par exemple sur la quête de vérité, comme si le XIXe et le XXe siècle n'avait pas produit "industriellement" de la désinformation scientifique (tabac, pesticides, psychanalyse, machins new-age…). Le 2), le spam à une échelle industrielle, comme si les boîtes aux lettres n'étaient pas pleines de prospectus débiles (et environnementalement injustifiables) depuis des décennies, comme si la propagande et la publicité n'étaient pas déja montées en puissance depuis des dizaines d'années… Ce truc décrit juste ce qu'est le monde depuis 200 ou 300 ans, comme si c'était mieux avant et que c'était de pire en pire, ce qui n'est qu'une illusion.

    En fait, ce qui me semble beaucoup plus intéressant, c'est de parler de projet de société. Les GAFAM peuvent imposer leurs projets de société simplement parce que nous n'en avons pas. Une des raisons, c'est justement parce que ce genre de discours technophobe et réactionnaire est séduisant, y compris dans les communautés du libre : notre "projet" serait un vague retour à une situation qui n'a jamais existé, où les entreprises seraient gentilles et où les données privées n'auraient pas de valeur.

    Dans un projet de société alternatif par exemple, j'aimerais qu'on m'explique comment on assure l'accès à des services numériques (messagerie, téléphonie, réseaux sociaux) à 5 milliards de personnes, par exemple. Parce que oui, bien sûr, nous on pourrait payer 20€/mois pour héberger ses mails ailleurs que chez Google, on pourrait payer pour utiliser un service similaire à Whatsapp, on pourrait payer un abonnement à TikTok ou à Youtube. Mais comment ça marcherait en Afrique, par exemple? Les multinationales "offrent" des services qu'on peut considérer maintenant comme quasiment basiques contre des données privées; et de nombreux être humains peuvent "payer" avec ces données alors qu'ils ne pourraient pas financer les serveurs ou la bande passante avec des vrais sous.

    Personnellement, je suis sidéré par la nullité des débats autour de l'AI. "C'est bien", "c'est mal", "c'est dangereux", "ça va prendre des emplois"… Tout ça n'a aucun intérêt, c'est de la branlette de futurologue de plateau TV. Au contraire, il serait urgent de se concentrer non pas sur les applications de l'IA, qu'on ne peut absolument pas anticiper, mais sur la place qu'on lui assigne dans la société. Par exemple, je trouverais indispensable dès maintenant de créer un délit d'"usurpation d'humanité", puni d'une peine d'amende et de prison, pour quiconque mettant en place une interaction avec un programme informatique dont la nature n'est pas explicite. Ça laisserait tout le champ libre pour l'innovation, mais il serait totalement proscrit et considéré comme un délit grave de faire passer des programmes pour des humains; je veux bien discuter avec un chatbot mais je veux savoir à qui je parle.