J’ajoute que « politique » ou même « élu⋅e » ou encore « élu au poste de », par exemple maire ou député, ce n’est pas, en tous cas ne devrait surtout pas être un « métier ».
Communicant ou publiciste ça oui, on peut parler de métier. Et un politique ne doit pas être non plus un produit à vendre.
Un⋅e élu⋅e ce devrait être dans la plupart des cas une personne qui fait une parenthèse dans sa carrière pour se consacrer à ses concitoyen⋅ne⋅s en endossant les responsabilités associées au pouvoir décisionnel auquel il prétend.
Ce n’est pas utopiste comme système politique, ça se fait dans certaines démocraties européennes, ça me semble même à l’évidence la seule forme possible que peut prendre une démocratie représentative digne de ce nom. Au même titre que le non-cumul des mandats durant une même période, parfaite ineptie du point de vue organisationnel, pratique. Il semble indiscutable que même une super personne dormant deux heures par nuit, non désireuse d’avoir le moindre temps libre pour lui en dehors du strict nécessaire, a largement de quoi s’occuper en permanence sur n’importe quel mandat électoral quel qu’il soit… Quant à ceux qui plaident pour le cumul d’un mandat exécutif avec un mandat législatif, et bien qu’ils aillent bien se taper le cul sur une plage de galets avant d’aller se baigner et nager jusqu’à l’horizon.
La non conformité à ces deux règles de bon sens ne serait être que l’exception issue d’un consensus. Pour la première règle : le plébiscite électoral très net de l’électorat concerné, éventuellement associé à l’absence de décision judiciaire s’y opposant donnée à un recours déposé par quelque élément(s) de ce même électorat. Pour la seconde règle : l’absence d’opposition.
Au cas où certains pensent que je m’opposerais à des « élites » et prônerait un affaiblissement de la représentation relativement aux représentés, je réponds que c’est précisément le contraire. Ce que je dis plus haut va de paire avec un revenu conséquent, des avantages en nature nombreux et des dispositions légales particulières importantes, ces trois choses étant indispensables pour un exercice plein et entier, le moins imparfait possible de leur (unique !) mandat.
« Se remettre en question se fait toujours au détriment de sa fierté » − Sanzio
On doit pouvoir trouver la vidéo sur Youtube. C'est la même logique.
La logique dépasse le politique.
La seule fois où je me suis retrouvé devant un juge (convoqué à 17h00 pour passer finalement à 22h30…), pour un délit, d’autres prévenus sont passés avant moi à la même audience. Je n’oublierai jamais, où alors c’est que je serai en toute fin de course, l’un des contrevenant entendu avant moi.
Cinquantaine bien entamée, se déclarant éditeur de profession, possédant un revenu mensuel de 6000 € environ, venu contester une amende forfaitaire de 45 €. Amende récoltée car, ayant eu une petite envie pressante de faire sa petite commission, et ayant aperçu un endroit où il pouvait garer sa caisse deux minutes et lui semblant adéquat pour procéder à sa vidange, un chantier de construction, en ville, ayant de surcroît, d’après ses dires, pu demander à un ouvrier présent s’il pouvait garer sa caisse un instant, sans lui cacher le motif de sa requête, et ce dernier ayant répondu qu’il n’y voyait aucun problème, avait en toute insouciance, le malheureux, ignorer la loi pour soulager sa vessie.
Bien mauvais timing, des gardiens de la paix se refusant à la lui foutre ce soir là lui ont collé cette prune, pour stationnement interdit. Même pas pour le marquage de territoire bien que tout aussi illégal.
Après plus de cinq heures à attendre mon tour, entendre ce Caliméro de compétition argumenter sans fin pour expliquer qu’il n’avait lésé personne, qu’en conséquence cette condamnation à débourser 45 € était une injustice manifeste, m’avait laissé proprement éberlué. Argumentaire débité à des juges qui manifestement et de toute évidence n’allaient pas, mécaniquement je dirais, les faits étant avérés et reconnus, lui épargner ces pauvres 45 €. Cette scène m’a instruit et avant tout ôté tout doute que je pouvais conserver sur l’absence de limite en ce qui concerne la posture hypocrite et puérile en cas d’atteinte à une seule minuscule miette de son égo, ou de son capital financier, que l’humain, je pourrais dire l’homme ici, peut adopter face à la réprimande, à la mise en cause la plus anecdotique. En ayant de plus rien à secouer de faire chier tous les clients après lui pour chier sa petite pendule déréglée.
Finalement j’ai pas pris trop cher pour ma part, longue journée absolument édifiante que ton commentaire me fait me rappeler.
Info sans lien, d’une autre affaire mais de la même journée, utile de ne pas ignorer àma : en toute circonstance résistez à l’envie d’adresser un seul nom d’oiseau à un représentant des forces de l’ordre. Vous pourriez facilement lui offrir ainsi une petite prime de quelques centaines d’euros aux frais de la princesse sinon aux vôtres. Sans même qu’il ait besoin de se déplacer pour plaider sa cause, un avocat avenant s’en chargera pour lui, à la charge également de l’une ou l’autre des deux bourses sus-citées bien évidemment.
Le mythe de l'écrivain inspiré et génial peut faire oublier une réalité plus prosaïque : les écrivains sont avant tout des lecteurs.
C’est très juste. Et sans même considérer la littérature : peut-on imaginer savoir écrire tout en ne sachant pas lire ?
Molière lit et écrit, ChatGPT lit et écrit. Mais ChatGPT a été écrit, alors que personne n’a écrit Molière.
Comment peut-on, même en ne sachant rien du fonctionnement de l’IA, imaginer que la comparaison des deux aurait un sens, ou que leur mise sur un même plan puisse être intelligente et utile ?
Tu as conscience que ce n’est pas ce que font les machines dont on parle ? Il ne s’agit pas d’itérer sur l’ensemble des possibilités car c’est impossible.
Tu as conscience de déformer mes propos ? J’ai écris :
en testant un maximum de possibilités et en « mémorisant » au fur et à mesure le chemin le plus court
balayage des combinaisons possibles
Il y a un s en trop je te l’accorde. Le fait est qu’un réseau de neurones artificiels considère un nombre conséquent, astronomique dirais-je, de combinaisons. C’est bien pour ça que la mise en œuvre de cette méthode est aussi consommatrice en puissance de calcul.
Je connais assez la manière dont fonctionne le deep-learning pour me permettre de continuer à affirmer que c’est une méthode « bourrin », dont l’intérêt (grand intérêt) est de constituer une tentative de reproduire le fonctionnement de notre cerveau, son fonctionnement biologique supposé. La supposition est pertinente, je le pense bien sûr, comme de nombreux, si ce n’est la plupart des, biologistes et neurologues infiniment plus sachant que moi. Mais l’imitation que nous faisons, nous humains, à l’aide de nos machines, me semble toujours très imparfaite, ce qui n’est pas étonnant au vu de la complexité assurément supérieure du « hardware » humain comparé au hardware informatique, pourtant lui-même d’une complexité certaine.
Qu’est ce qui distingue pour toi les 2 ?
L’IA est un produit, une création de l’IB (Intelligence Biologique) que nous sommes. Nous avons créé la première alors que la seconde est à l’origine de notre compréhension des deux… La distinction me semble d’une trivialité absolue.
Qu’on puisse parfois ne plus pouvoir distinguer, de ce que les deux peuvent produire, laquelle a généré tel ou tel « produit de l’intelligence », c’est inévitable. Comme il peut être sous certaines conditions impossible de distinguer une fleur naturelle d’une fleur synthétique. Or ces deux fleurs sont deux objets foncièrement distincts. C’est à mon sens bien le fait de penser que l’une pourrait remplacer l’autre, devenir son égale, voire lui devenir supérieure, qui me semble parfaitement idiot. Et oui, quand bien même la seconde peux rester « fleurie » pendant un siècle sans faner, ce que ne pourra jamais la première. Ce caractère la rendrait-elle « supérieure » pour autant ? Pourrait-elle se substituer à la première ? Je ne pense pas. Pour l’IA c’est pareil.
Anéfé. Mais on peut avoir besoin de stocker des mots de passe qui ne sont pas lié au Web, SSH par exemple. Ou vouloir utiliser ces mots de passe dans un terminal ou un autre programme.
Si pour le second cas le coffre-fort FF peut faire l’affaire, pour le premier cas ça me semble plutôt compliqué, infaisable sans recours à une méthode tordue. Non ?
C’est sûrement le top mais que ce passe-t-il si le boîtier est 1. Perdu, ou 2. Détruit ?
J’imagine que le réplicateur universel n’est pas fourni avec, du coup ça se réplique/sauvegarde pas.
Quel est l’avantage de ce truc par rapport à une bête clé USB à 1,60 € avec un fichier chiffré (fichier Keepass ou plus standard (GPG, OpenSSL, …).
Dans l'ensemble c'est pratique, il faut simplement penser à prendre son boîtier lors des déplacements …
la clé USB elle peut être dupliquée. Même si la synchronisation est « à la mimine » et donc faite pas très régulièrement, au moins elle est faisable.
Je pressens n’avoir rien compris à ce qu’est le boîtier dont tu parles parce que je vois pas l’intérêt. Et comme j’ai utilisé tout mon forfait Google pour la semaine je peux même pas chercher moi-même sur le oueb.
Toute exécution d'un programme, vu sous sa représentation comme lambda-terme, n'est rien d'autre qu'un processus syntaxique de réécriture connu sous le nom de béta-réduction.
Si on va plus loin c’est, vu sous sa représentation physique, n’est rien d’autre qu’une réécriture sous forme de résistances, capacités, inductances, interrupteurs et transistors qui forment un circuit électrique !
(et on pourrait encore descendre d’un cran encore…)
Blague à part je pense que c’est à proprement parler de manière « sémantique » qu’une IA ne « raisonne » pas, qui était le sens du commentaire auquel tu répondais (?). Elle ne « fonctionne » pas disons plus précisément.
D’ailleurs si elle raisonne tout court, hormis une résonance magnétique, phénomène par ailleurs totalement annexe à son fonctionnement, je ne vois pas de quoi on parle. ^^
En relisant ton commentaire je me rends compte que l’exemple des opérations simples sur les nombres entiers c’est l’exemple parfait d’une compétence qui requière, pour l’acquisition de la compétence et la faculté d’en faire preuve de façon fiable, une intelligence somme toute assez faible, et dont la mise en œuvre de l’algorithmie adéquate et de la logique binaire basique permette de faire effectuer de manière ultra-fiable à un ordinateur, même « sans limite » en implémentant une précision arbitraire. Les opérations sur les réels réclament guère plus de chose, le concept de virgule flottante, et on a un outil qui explose les capacités humaines comme sa fiabilité. Et de façon proprement astronomique de nos jours, au début du développement de l’IA.
En face de cela, le recours au deep-learning, même le plus abouti, dans le but de réussir à obtenir la même capacité et avec la même fiabilité, sans même regarder à l’énergie mise en œuvre, ça me semble avoir peu de, voire aucune, chance d’aboutir à quelque chose de valable.
Si jamais, par une méthode de l’IA telle que le deep-learning, ou pourquoi pas le data-mining, on arrivait à faire émerger cette faculté, de faire véritablement « comprendre » à l’IA ce que sont des nombres, vraiment, comme beaucoup de personnes semblent croire que c’est ou que ce sera possible, il devrait y avoir dans l’heure qui suit la production par l’IA d’une réponse avec démonstration de chacune des plus grandes conjectures mathématiques qui résistent encore à ce jour aux plus grand⋅e⋅s mathématicien⋅ne⋅s ! :)
Pour le premier point : apprentissage imitation. Je suis d’accord. Quand on enseigne une technique, une méthode, on demande à l’élève d’imiter. Par exemple, pour apprendre à un élève à faire une addition on lui montre et lui demande de reproduire. Idem pour apprendre à écrire. Tout un tas de chose. Nous humains le faisons sciemment en ayant conscience de transmettre un savoir, les animaux le font eux, vraisemblablement sans en avoir conscience, sinon une conscience des plus primitive, mais le mécanisme est le même : l’enseignant montre, l’élève regarde, l’élève imite, l’enseignant évalue, et le cycle recommence en s’affinant et en s’élargissant de savoir de connaissances de plus en plus complexe.
L’IA aussi doit accéder à des savoirs, des données, nécessairement humaines. Une IA dite générative ne crée rien ex-nihilo. Basiquement il s’agit de faire fonctionner le réseau qui est apparue dans l’IA lors d’un « apprentissage » (le terme « chargement de données » pourrait parfaitement convenir), non pas pour avoir les réponses à un autre jeu de données du même type, en entrée du réseau, données auxquelles l’IA n’a jamais accédé, pour que son réseau donne les réponses, les solutions pour ces nouvelles données, mais à l’inverse de fournir un jeu de réponses, de solution, en sortie, pour que le réseau ainsi « utilisé à l’envers » fournisse ce qui pourrait être des données d’entrée pour les données de sortie qu’on lui a fournies.
Je ne sais pas si je suis très clair, c’est difficile d’expliquer en quelques mots, mais des tas de ressources sont disponibles concernant le « deep-learning », à mon sens le concept fondamental pour comprendre ce qu’est « l’IA ». Cet apprentissage n’est pas du tout la même chose que l’apprentissage que je décris plus haut. On ne peut pas dire que l’IA « imite » comme l’humain (ou la loutre par exemple) le fait. Mais en effet l’IA a nécessairement besoin d’accéder à des informations, en ce sens, je t’accorde que l’IA possède une forme d’apprentissage (et c’est pour ça que c’est le terme utilisé), donc premier point, oui l’IA « coche cette case », bien que ce ne soit pas comme nous le faisons nous, elle est capable d’apporter une connaissance nouvelle à partir de connaissances déjà existantes.
Mais ça s’arrête là. Passons au troisième point (je reviendrai au deuxième ensuite) : l’imagination. Non une IA n’est pas doué d’imagination. Une IA n’a ni libre-arbitre, ni l’irrationalité qui caractérise l’esprit humain. L’IA ne rêve pas. Elle est au contraire purement et strictement rationnelle. À cette rationalité, nous, humain pouvons y adjoindre une dose d’aléa, mais c’est encore ici l’humain qui décide d’introduire de l’aléa. L’aléa n’est pas l’irrationalité et il est stupide d’imaginer que l’IA pourrait d’elle-même décider l’introduction de cet aléa. L’IA ne décide pas cela. L’unique forme de « décision » dont elle est capable c’est de de décider (discriminer est un terme plus adéquat je pense), quelle sont les données de sortie, les réponses, parmi celles qu’on lui aura fournies, qui sont en adéquation avec les données d’entrée, les questions (cas classique de la mise en œuvre du deep-learning). Ou encore, de générer des questions (ie: des données d’entrée) qui sont en adéquation quand on lui fournit des réponses (cas de l’IA générative). La case "imagination" n’est pas cochée, et ce n’est même pas un but à atteindre par celles et ceux qui conçoivent les IA. Ce n’est que pure fantasme de penser pouvoir faire naître de l’imagination au sein d’une IA, même pas de la science-fiction, seulement une croyance illusoire de quelqu’un ne comprenant pas ce qu’est la réalité de l’IA.
Troisième point : logique et raisonnement. La logique et le raisonnement c’est le concepteur ou la conceptrice d’une IA qui la met en œuvre en concevant l’IA. L’IA, contrairement à une approche algorithmique, dont on peut dire que l’ordinateur reproduit le comportement quand il exécute un programme « imaginé » par un humain, une IA ne fait même pas cela. C’est une approche statistique, probabiliste qu’elle met en œuvre. Là encore, non, la case n’est pas cochée, l’IA ne repose pas sur la logique ou sur un raisonnement. Cette case, on peut dire éventuellement que c’est l’approche classique de l’utilisation d’un ordinateur qui est comparable, certainement pas l’IA.
Pour finir je pense que tu oublis également un quatrième point : la volonté, l’envie, la faculté de faire un effort. Pourquoi nous humains apprenons nous, pourquoi acquière-t-on de nouvelle connaissance, assimilons des méthodes, nous donnons nous cette faculté de faire ce que nous faisons ? Et bien, pour le dire simplement : par instinct de survie, par envie d’être. Aucune IA ne peut faire ceci. Comme pour le point un, l’imagination, aucune recherche sur l’IA ne prétend « inculquer » cela à une IA. Cela n’a même pas de sens.
Il lui manque l'expérience physique qui viendra avec les robots…
Il existe déjà des capteurs artificiels qui permettent de capter ce que les capteurs naturels de l’humain ne pourront jamais capter, ou de capter des phénomènes physique avec une sensibilité et/ou une capacité bien plus grande que les capteurs dont nous sommes munis. À l’instar du calcul numérique il y a de nombreux cas où le robot, qu’on peut définir comme un ensemble de capteurs et d’actionneurs reliés par des signaux, surpasse de très loin l’humain et l’animal. Ce n’est cependant pas toujours le cas. La sensibilité aux variations de pression dans l’air que l’oreille humaine ou animale peut détecter (ie: capter), n’est pas encore reproduite, donc à fortiori dépassée par la technologie. Il en va de même pour, par exemple, les performances du sonar d’une chauve-souris en terme de rapidité de traitement de l’information (ie: de conversion du phénomène physique en signal) et de la précision (ie: de la sensibilité) que sont ces capteurs biologique. Ce n’est absolument pas aussi évident que tu semble le penser. Ceci étant, en terme d’actionneurs, en ce qui concerne la capacité, l’endurance, la résistance à des contraintes extérieures, les robots dépassent également les animaux, humain compris, dans une très grande partie des cas considérés. Rends-toi compte, un humain non assisté d’un dispositif artificiel adéquat ne peut plus rien faire du tout, et de manière définitive, s’il est placé dans un milieu dépourvu d’un mélange très précis de gaz particuliers ! Vu sous cet angle, l’humain est insignifiant comparé à un bête lave-vaisselle…
Et il lui manque un concept de généralité qui permet a l'humain de savoir reconnaitre un chien sur une photo tout en comprenant la politique, la science et la physique.
Plus précisément, une IA que l’on aura entraîné à cela, et disposant de ressources matérielles et énergétiques très faibles pourra « reconnaître » (déterminer est un meilleur terme), en quelques secondes s’il y a un chien sur plusieurs milliers de photo avec un taux d’erreur très faible. Par contre, il ne sera jamais en mesure de comprendre ni la politique, ni la science, ni quoi que ce soit. Une IA ne comprends strictement rien à rien. L’IA qui reconnaît les chiens sur les photos n’a pas la moindre idée de ce qu’est un chien.
Je ne voudrais pas passer pour celui qui se refuse à imaginer que le futur pourrait voir apparaître des choses qui sont à l’heure actuelle difficilement voire pas du tout concevable. Je ne vois pas pourquoi, à l’instar du savant de l’antiquité qui s’il entrevoyait la possibilité de l’existence de l’atome, n’aurait à mon avis pas pu imaginer même une infime fraction de ce qu’est l’informatique moderne. Je pense pour ma part que si un jour des artefacts humains, c’est à dire des objets qui ne soient pas biologiques mais fabriqués par l’humain, des êtres de silicium et d’autres minéraux, métaux, ou autres, comme le sont nos ordinateurs actuels et ceux qu’on imagine pour le futur, héberge une intelligence comparable à l’intelligence humaine, une conscience, alors ce sera précisément l’intelligence humaine elle-même. Cela, àmha, ne saurait être autre chose, et si notre conscience doit perdurer dans un avenir lointain, alors ça ne peut être que sous cette forme, une forme « de vie », libérée de son lien existentiel avec notre planète, et même qui plus est, de l’atmosphère de cette dernière sous cette forme particulière que nous lui connaissons.
Sache que j’éprouve un grand respect pour toi lecteur qui est arrivé au terme de ce texte, je sais la difficulté que cela peut représenter. Je ne vais d’ailleurs même pas faire preuve de la volonté nécessaire pour le relire moi-même. Tant pis pour les éventuelles erreurs et fautes qui pourraientpeuvent s’y trouvent certainement.
+1 Pour Keepass (comme KeepassXC). Sinon le coffre-fort Firefox, très bien aussi même si c’est bien évidemment réservé aux mots de passe pour le Web et qu’on ne peut pas, à ma connaissance, faire comme dans Keepass en doublant d’une clé le verrouillage du fichier (ie: en plus du mot de passe).
J’étais sûr que quelqu’un aurait à coup sûr déjà cité ce logiciel (libre et multi-plateforme comme tout logiciel digne de ce nom) mais ceci a attiré mon attention dans le journal :
L’ouverture du popup Bitwarden est beaucoup plus lente. Genre 5-6 secondes sur mon (excellent et moderne) Thinkpad contre moins d’une seconde avant.
Dans KeepassXC (et possiblement l’autre Keepass) il y a un paramètre de « nombre de cycles de chiffrement ». Si j’ai bien compris c’est le fait de ne pas chiffrer/déchiffrer qu’une seule fois mais X fois, avec X plus ou moins grand.
Plus X est grand et plus cela va prendre du temps pour ouvrir le fichier, comme pour enregistrer une modification. Et c’est précisément le but de la manœuvre, car de fait, ça ralentira d’autant une éventuelle attaque par la force brut d’une personne qui aurait pu obtenir le fichier chiffré et qui voudrait pouvoir l’ouvrir sans posséder le mot de passe.
Je me demande si le coffre-fort de mdp de l’auteur du journal ne ferait pas justement cela, d’où le temps qui est très long.
Ceci étant dit, est-ce un réel problème un temps d’ouverture de quelques secondes pour un logiciel qui (àma) se lance une fois par jour, au moment où on en a besoin, et qu’on ne ferme qu’à la fin de sa session. Tu le fermes et relances à chaque fois toi ?
De par l’existence d’un « cortex cérébral » de nature identique chez tous les mammifères, dont l’humain, c’est l’hypothèse d’une intelligence de nature spécifique chez l’humain et qui serait absente chez les autres mammifères qui me semble très largement improbable. Ce qui est unique chez l’humain c’est son caractère incroyablement hypertrophié, mais, àma, certainement pas sa nature.
Maintenant si on parle de reptiles, d’insectes, voire de «blob », là oui, c’est probablement très différent. Et d’ailleurs, stricto sensu, bien plus évolué que la cervelle des mammifères que nous sommes.
Peut-être est-ce un défaut de celle-ci qui me permet de le penser, mais àma l’intelligence est un concept éminemment difficile à définir, à juger. Ne serait-ce que du fait qu’on le fasse chacun avec la sienne propre…
Pour essayer de dépasser ce sophisme je me fais la réflexion suivante :
Bien que l’IA puisse donner l’illusion d’une compréhension comparable à celle des humains, et qu’elle puisse, de surcroît, pour de nombreux domaines spécifiques, dépasser largement l’être humain en terme de faculté/performance cognitive/didactique, une chose fondamentale me semble vouée à perdurer jusqu’à la fin de l’univers humain : une IA sera toujours un produit de l’intelligence humaine. Quand bien même on considère le développement d’une « méta-IA », c’est à dire, à l’image de ce qu’est la méta-programmation, une IA générative produisant des architectures de « réseaux de neurones ». Des objets que l’on peut, me semble-t-il, définir comme des graphes dont les nœuds sont des fonctions d’activation (pour ce qui est du principe de base en tous cas), objet qui sont donc parfaitement modélisables, donc susceptibles d’être présentés en entrée à l’un d’eux, il resterait là encore cette vérité indiscutable : cette méta-IA sera toujours l’œuvre d’une intelligence biologique naturelle, ce qu’est l’intelligence humaine, serait-elle augmentée de quelque manière que ce soit. Donc en ce sens, une IA ne sera jamais aussi intelligente, c’est absolument impossible que cela puisse être.
Aujourd'hui, les IA passe le teste de Turing
Je dirais que ça dépend beaucoup du « paramétrage » du test. Grossièrement de la compétence et des connaissances du testeur, du temps de réflexion laissé à celui-ci, la durée du test, la garantie à priori d’une réponse neutre : que le risque/gain à répondre "machine" plutôt que "humain", soit équilibré par rapport à l’inverse).
C’est à mon humble avis encore; dans l’absolu, plus faisable pour un humain de se faire passer pour un chatbot qu’à ce dernier d’apparaître comme un humain.
Aujourd'hui ChatGPT peut comprendre tes problèmes de cœur, t’aider à coder, à résoudre une enquête…
J’en conviens. Loin de moi l’idée que ces outils pourraient être inutiles. Pour ma part je préfère encore me reposer sur le « crowdsourcing » de la connaissance, l’intelligence collective doit être le terme adéquat en français. Par exemple, pour ce qui concerne la programmation ou l’apprentissage des langues étrangères, mais aussi, puisque tu cite cet exemple, pour les problèmes de cœurs. Je pense notamment à, respectivement, stackoverflow.com, wordreference.com, et euh… j’ai pas de problème de cœur personnellement mais ça existe sans aucun doute ! ^^
L’IA peut aider l’humain à comprendre, je suis d’accord, mais absolument pas comprendre à sa place.
On est bien loin d’un quelconque programme humain puisque personne ne sait ce qu’elle sait faire ni comment elle le fait. (Enfin on comprends le mécanisme mais pas le raisonnement)
On comprends très bien comment ça fonctionne. Le principe a été décrit il y a de nombreuses décennies. Comme je le disais, bien avant que ce soit réalisable en pratique. Un peu (toute analogie, etc…) comme on conçoit aujourd’hui des algorithmes pour des ordinateurs quantiques.
le mécanisme mais pas le raisonnement
Il n’y a pas de raisonnement. Ceci dit une question dont j’ignore la réponse est de savoir s’il existe une démonstration mathématique, une preuve formelle, que cela fonctionne « obligatoirement »
Je pensais que c’était le cas. Cela dit si je ne raconte pas de bêtise, ça implique que toutes les dépendances soient installées via pip, qu’il n’y en ait pas qui soient installées par un autre moyen (packages systèmes ou à la main (voire au pied!)), mais que tout projet/code Python dépassant le stade de script de POC de coin de table utilisait systématiquement un venv et du pip dedans.
Mais c’est sûr que pour la même raison que Python impose l’indentation du code il se doit d’être tout aussi coercitif pour que tout code Python présente bien, ni trop négligé ni trop pimpant, qu’il soit bien normal comme il faut, « pythonesque » comme on dit. Si c’est la fête du slip dans le requirements.txt alors en effet ça le fait pas du tout !
A file format to record Python dependencies for installation reproducibility
C’était pas le but du fichier requirements.txt ?
Je ne suis pas un fin connaisseur de Python mais je l’ai utilisé et je trouve que c’est un langage avec d’énormes qualités et surtout une philosophie judicieuse. Par contre, j’ai toujours vu d’un œil méfiant les programmes nécessitant des dépendances du genre 3.2.4=<bidule=<3.3.1, voire machin==2.3.9a+git_ab22ef45 (j’exagère mais ya quand même un peu de ça j’ai l’impression).
Ceci dit je pense que c’est aussi lié à la propension des beaucoup de gens de recourir à 36 bibliothèques dont seulement cinq à dix pourcents de chacune est utilisée. Sa partie la moins stabilisée, ça va de soi, c’est plus drôle !
Alors que bien souvent une petite quantité de jus de cerveau et un nombre relativement faible de lignes de code utilisant les builtins Python n’était pas insurmontable pour au moins la moitié des bibliothèques, et nettement plus aisé à maintenir.
C’est évidemment pas propre à Python ça, mais j’ai l’impression que c’est particulièrement courant en Python. Plus qu’en Perl par exemple.
c'est pareil dans la musique, pour l'instant, on fait des choses basiques et largement pompées sur les classiques mais la vraie question est de savoir jusqu'ou s'arrêteront ils ? [:totoz]
En musique, j’ai peut-être un point de vue biaisé parce que ce que je fais moi ne « ressemble vraiment à rien », mais sortie de toute IA, le nombre de productions de producteurs indépendants, plus ou moins professionnels, dont l’écoute de leur travail me donne nette impression de musique déjà archi-entendue me semble incroyablement élevé. Certaines prod’ sont parfois très bien faites, très belles, mais dénoué de toute originalité.
D’ailleurs les artistes que souvent j’apprécie, c’est parce qu’en les écoutant je me dis : « mais j’ai jamais entendu rien de tel, je n’imaginais pas une telle musique ». Or souvent c’est plutôt : « Ah oui on dirait du Untel ou du Bidule ». Sur ce genre de production je pense en effet que l’IA ne fera sûrement ni mieux ni pire, mais à une vitesse redoutable et pour un coût de possession bien moindre.
Pour prendre un exemple, pour ceux qui connaissent, et pour que ceux qui ne connaissent pas puissent découvrir, un groupe de rock, aujourd’hui dissous, tel que Sonic Youth, a un style reconnaissable, même plusieurs d’ailleurs. Or si aujourd’hui j’écoute un autre artiste et que le son me rappelle Sonic Youth, et bien je suis souvent déçu. Bien souvent il ne sera pas le seul artiste à produire un son comparable à la même époque. Je suis pratiquement sûr que si on fait ingurgiter toute la discographie de Sonic Youth à un bousin de deep-learning à visée générative, ce dernier pourra pondre un album que le groupe aurait vraisemblablement pu écrire. J’ai tendance à penser que dans ce cas, que ce soit un groupe humain ou une IA générative qui ait produit la chose, ça n’a pas la moindre importance. Certains l’on fait avec Beethoven je crois. Et forcé de constater (à ce qu’il paraît), que ça marche. une IA qui compose du Beethoven ce n’est pas de la science-fiction de nos jours.
Bien sûr parfois il y a des exceptions. Si on prend le premier album d’Amy Winehouse, il semble tout droit sorti du passé. Et c’était volontaire, les producteurs ont été jusqu’à n’utiliser que du matériel d’époque pour être le plus fidèle à la période ancienne qu’ils ont fait revivre, rester fidèles aux musiciens de cette « école », et qu’ils ont ainsi ressuscités.
Le matos on le fabriquait plus, mais il en reste pas mal en bon état. Pour les musiciens c’est l’inverse : ceux de l’époque n’étaient plus en état de jouer, généralement pour cause de décès, mais par chance il s’en fabrique encore du même modèle.^ Or ce son, pourtant incroyablement « déjà entendu », est de mon avis une pépite fabuleuse.
D’autres fois c’est encore plus étonannt : quand un artiste, un groupe, sort un premier album d’une originalité fantastique, qui laisse un tas de gens bouche bée, qui réussit l’incroyable exploit de se plagier lui-même sur un second album, puis un troisième tout aussi une pâle copie du premier. Je crois qu’aucun groupe ne m’a donné autant cette impression d’auto-réchauffage de chef-d’œuvre que le groupe Louise Attaque.
Pourquoi je raconte ça moi ? Et bien en effet, je devais générer ça à côté et je me suis trompé de porte. Je le laisse ici quand même, ce sera bien consommé par une IA un jour ou l’autre, ça lui permettra de générer un contenu avec un toupeutipeutipeuti de moi dedans.
De ce que j’ai compris, ici @totof2000 a installé l’outil venant de la distribution.
Pourquoi l’outil n’a pas été retiré de la distribution ou corrigé ?
Parce que ce n’est pas Debian ? Alors il y a quelques bugs qui commence à être trop nombreux et la distribution se meurt ? Quelle est cette distribution d’ailleurs ? ^^
Pour les échecs, les ordinateurs ont commencé à égaler les humains, pour finir par les battre, par ce qui n’était que les prémices de l’IA me semble-t-il. c’était plutôt de l’algorithmie plus ou moins empirique et du calcule de probabilités classique. Ceci dit, est-ce que tu considères comme doué d’intelligence une machine (ou un humain d’ailleurs), qui ne sait que jouer aux échecs ?
le repliement des protéines, que l'humain est bien incapable de comprendre (juste de modéliser mais mal) et que l'IA comprends mieux que toutes les modélisation qui consomment pourtant plus de ressources et sont faites avec rigueurs (AlphaFold).
Alors je n’y connais rien en repliement de protéine mais je peux te garantir que l’ordinateur ne « comprend » strictement rien, il est « juste » capable de trouver des solutions grâce à la mise en œuvre d’un réseau de neurone, c’est à dire en quelque sorte en testant un maximum de possibilités et en « mémorisant » au fur et à mesure le chemin le plus court pour trouver ces solutions. L’humain sait, « comprend » donc, lui. Il comprend ce qu’est une protéine, ses rôles, l’intérêt qu’ont ces repliements, il n’est pas capable de trouver les solution car son cerveau n’est pas en mesure d’effectuer ce balayage des combinaisons possibles, mais il a conscience par exemple que la chimie est à l’action dans le processus, et bien d’autres choses connexes dont l’IA ne possède pas la moindre représentation…
juste de modéliser mais mal
Sans modélisation il n’y a rien que peut faire l’IA !
Au passage, je pense que tes mots sont mal choisis, car à ma connaissance on ne peut pas modéliser un processus qu’on ne comprend pas au moins partiellement.
il a abandonné le calcul mathématiques aux "computers" (Qui aujourd'hui vérifie à la main que 2 nombres sont premiers entre eux?)
Mais seul des humains sont capables de « faire des mathématiques » dans le vrai sens du terme. Le calcul est les mathématiques ce ne sont pas du tout, mais alors pas du tout, la même chose. C’est sûr que sans ordinateurs on ne saurait pas par exemple les je ne sais plus combien de millions de décimale du nombre pi qu’on a fait calculer par ordinateur (et ce n’est pas l’ordinateur qui a trouvé l’algorithme). Ce n’est pas de l’IA dans ce cas, je donnais cet exemple pour l’aspect « calcul » de ton propos. Mais quoi qu’il en soit ce n’est pas pour autant qu’un ordinateur n’a peut avoir la moindre idée de ce qu’est le nombre pi, ou de ce qu’est la transcendance d’un nombre réel.
Un exemple : il y a quelques années maintenant on été découverts/trouvés, les, de mémoire deux, derniers pentagones pavant le plan. Les deux mathématiciens à l’origine de cette découverte ont certes utilisé des ordinateurs pour éliminer un tas de pentagones qui ne pouvaient pas convenir, mais c’est leur intuition et leur réflexion bien humaine de mathématiciens, qui leur ont, non seulement permis de mettre le doigt sur ces deux spécimens manquants, mais aussi, et ça l’IA en est encore loin, d’établir la preuve mathématique que ce sont bien les derniers pentagones manquant parmi les seize au total, il n’y en a pas d’autre. En tous cas leur démonstration n’a pas été invalidé par d’autres mathématiciens à ma connaissance.
Ceci étant, oui, sur le fond je suis bien d’accord avec toi, « l’IA » est plus performante que l’humain pour de nombreuses tâches, j’ai en tête un « concours » ayant opposé une IA à une équipe de médecins. Il s’agissait sur un ensemble de radiographies des poumons, de dire, de diagnostiquer, si un cancer pouvait être suspecté ou détecté. C’était bien sûr une série de radiographies de cas réels, dont on savait si effectivement il y avait eu un cancer avéré quelques temps après. L’IA a été beaucoup plus rapide à se prononcer, et par ailleurs plus fiable, elle s’est trompé moins de fois que les médecins spécialistes. Maintenant, ce n’est qu’une expérience, donc c’est à prendre avec précaution. Note que cette IA diagnostiqueuse ne joue pas aux échecs, alors qu’un certains nombre de ces médecins le font sûrement, ou ne joue pas d’un instrument, etc…
Si on considère par exemple la reconnaissance faciale (de personnes bien entendu) sur une vidéo, là aussi, je pense qu’une IA performante doit pouvoir reconnaître, beaucoup plus de gens différents, et nettement plus vite, peut être sur un nombre de flux vidéos qu’un humain seul ne peut même pas ne serait-ce que visionner en même temps…
Je pense que tu as plutôt raison sur le fond, mais tes exemples sont vraiment très mal choisi. (àmha cela va de soi).
C’est pris par Instant Messaging, tu ne peux pas ! ^^
Mais je suis d’accord que IA (ou AI) est un terme bien mauvais. Tout comme « réalité virtuelle » qui est un bel oxymore lui.
l'ordinateur ne fonctionne pas comme le cerveau humain
Le principe fondamental de l’IA c’est pourtant bien de reproduire le fonctionnement de notre cerveau, de ce dont on en connaît du moins, ce qui n’est pas encore quelque chose de tout à fait compris.
L’ordinateur ne fonctionne pas comme notre cerveau, ce serait plutôt la manière dont on l’utilise, en pratique le logiciel qu’il met en œuvre, que l’on vise à rendre semblable à notre cerveau. « Que l’humain lui fait mettre en œuvre » d’ailleurs, ce serait plus exact de le dire comme ça.
pour les béotiens elle serait réellement intelligente
« Toute technologie suffisamment avancée est indiscernable de la magie » comme à dit je ne sais plus qui. Un béotien ne sait pas plus comment fonctionne un ordinateur, un circuit intégré, la relativité générale ou un chromosome ou que sais-je encore. Je ne suis pas sûr que la majorité des gens pense qu’un IA peut « penser », c’est tout juste si elle considère que c’est une question pertinente, ou plutôt, digne d’intérêt. Bien sûr, si certains peuvent croire que la Terre est plate, ou que la technologie terrienne a une origine extra-terrestre, l’idée d’un ordinateur intelligent c’est presque banal finalement.
Quelqu'un aurait-il une autre proposition de dénomination ?
Je propose : analgorithmie, intelligence monte-carliste, ou cogitronique ! C’est à peine plus nul :)
Intéressant votre discussion. Perso en lisant le commentaire de Benoit j’avais (visiblement mal) compris « imitation de l’intelligence » comme le fais qu’un réseau de neurone dans l’IA, en deep-learning typiquement, imite (c’est me semble-t-il le bon mot), le fonctionnement, du moins son principe, de ce que sont nos synapses : La synapse (du grec σύναψις / súnapsis, « contact, point de jonction », dérivé de συνάπτω / sunáptô, « joindre, connecter ») est une zone de contact fonctionnelle qui s'établit entre deux neurones, ou entre un neurone et une autre cellule
Pour moi il est bien question d’imiter l’intelligence humaine, pour la dépasser. Non pas imiter sa fonction, son rôle, mais imiter son fonctionnement, sa mécanique si on peut dire. Cette idée est apparue il y a fort longtemps, mais c’est seulement aujourd’hui qu’on a accès à une puissance de calcule qui nous permette des applications dans la vie réelle. Certains parlent d’intelligence faible (pour l’IA), qui s’opposerait à l’intelligence forte (humaine), ça me semble assez bancale comme termes car pour certaines tâches bien définies, un réseau de neurones artificiels peut déjà faire aussi bien, voire mieux, et très souvent infiniment plus rapidement, en quelques secondes, ce que des dizaines de cerveaux humains peinent à faire en plusieurs jours. Et le fait parfois, voire souvent, de manière plus fiable.
C’est merveilleux, mais l’aspect hautement révolutionnaire que certaines personnes prêtent à ces applications me paraît très exagéré. Je pense qu’il n’est pas plus, voire moins, révolutionnaire que l’a été l’invention du transistor puis de l’informatique électronique. Ça fait belle lurette qu’une « intelligence artificielle », (parce que je ne vois pas pourquoi on ne pourrait pas nommer ainsi, également, un ordinateur ne recourant qu’à de l’algorithmie pure), peut faire plusieurs milliers de divisions de nombre à moult chiffres, en moins de temps qu’il faut à un humain pour saisir son crayon pour faire l’opération. Même les cas hyper rares d’ « idiots savants » comme il furent appelé jadis, se font battre à plate couture par une calculette à 5 €).
Une IA n’imite pas notre intelligence, du point de vue fonctionnel, comme je le disais ce qu’elle imite c’est nos cellules cérébrales, pas notre intelligence en tant que telle. En effet une IA « apprend ». Seule, à condition qu’on lui formate bien les données, qu’on la « recâble » quand on voit que ça déconne, bref, qu’on y consacre notre intelligence à nous, humains, au moins un minimum. Parce que ce dont nous nous sommes capables, et c’est ce qu’est notre intelligence, c’est de comprendre quelque chose qui ne nous a pas été enseigné, ni même suggéré. La faculté de s’adapter à un problème nouveau, imprévu, c’est ça l’intelligence. Ceci étant, l’approche par l’IA nous permet tout de même parfois de trouver des réponses à des questions que nous ne nous étions pas posées. C’est l’idée qui sous-tend la branche « data-mining » : trouver dans la donnée la question en même temps que sa réponse. et ça c’est quand même fabuleux ! Bien que ça ne change pas la constante caractérisant les sciences et la découverte : de nouvelles réponses amènent de nouvelles questions.
Ça me paraît plus dur à détecter que des images retouchées. Mais c’est juste là l’hypothèse de l’intelligence biologique assez détérioré que j’ai à disposition. En demandant à l’intelligence de Google je trouve ces liens qui pourraient peut-être t’intéresser, ici.
Pas le temps de creuser le sujet, surtout que je ne crois pas être aussi inquiet de, ou plutôt agacé par, ce raz-de-marée de contenus générés par l’IA, je les trouve même très intéressant parfois je dois dire. Hésite pas à revenir nous faire un petit topo de ce que tu auras éventuellement trouvé. Ça doit intéresser pas mal de monde.
Je leur signalerais bien le problème directement, mais leur formulaire de contact est buggé.
« Grâce à nos efforts permanents et à l’application de tous à chaque instant dans la mise en œuvre de nos très hautes compétences au service des nos clients dont la satisfaction totale est notre priorité absolue, nous pouvons nous enorgueillir d’un taux de réclamations de 0%. Je pense que vous êtes prêts mes chères collaborateurices, à relever le challenge que représente l’objectif d’arriver à un taux de -5% d’ici fin Q4. Je sais que vous pouvez le faire, j’ai confiance en vous, comme j’ai confiance en moi : pas autant que la confiance que j’ai en nous ! Santé ! »
[^] # Re: Presque bientôt prochainement
Posté par Marotte ⛧ . En réponse au lien HDH : Clara Chappaz promet un appel d’offres pour quitter Microsoft. Évalué à 3 (+0/-0). Dernière modification le 19 avril 2025 à 03:47.
J’ajoute que « politique » ou même « élu⋅e » ou encore « élu au poste de », par exemple maire ou député, ce n’est pas, en tous cas ne devrait surtout pas être un « métier ».
Communicant ou publiciste ça oui, on peut parler de métier. Et un politique ne doit pas être non plus un produit à vendre.
Un⋅e élu⋅e ce devrait être dans la plupart des cas une personne qui fait une parenthèse dans sa carrière pour se consacrer à ses concitoyen⋅ne⋅s en endossant les responsabilités associées au pouvoir décisionnel auquel il prétend.
Ce n’est pas utopiste comme système politique, ça se fait dans certaines démocraties européennes, ça me semble même à l’évidence la seule forme possible que peut prendre une démocratie représentative digne de ce nom. Au même titre que le non-cumul des mandats durant une même période, parfaite ineptie du point de vue organisationnel, pratique. Il semble indiscutable que même une super personne dormant deux heures par nuit, non désireuse d’avoir le moindre temps libre pour lui en dehors du strict nécessaire, a largement de quoi s’occuper en permanence sur n’importe quel mandat électoral quel qu’il soit… Quant à ceux qui plaident pour le cumul d’un mandat exécutif avec un mandat législatif, et bien qu’ils aillent bien se taper le cul sur une plage de galets avant d’aller se baigner et nager jusqu’à l’horizon.
La non conformité à ces deux règles de bon sens ne serait être que l’exception issue d’un consensus. Pour la première règle : le plébiscite électoral très net de l’électorat concerné, éventuellement associé à l’absence de décision judiciaire s’y opposant donnée à un recours déposé par quelque élément(s) de ce même électorat. Pour la seconde règle : l’absence d’opposition.
Au cas où certains pensent que je m’opposerais à des « élites » et prônerait un affaiblissement de la représentation relativement aux représentés, je réponds que c’est précisément le contraire. Ce que je dis plus haut va de paire avec un revenu conséquent, des avantages en nature nombreux et des dispositions légales particulières importantes, ces trois choses étant indispensables pour un exercice plein et entier, le moins imparfait possible de leur (unique !) mandat.
[^] # Re: Presque bientôt prochainement
Posté par Marotte ⛧ . En réponse au lien HDH : Clara Chappaz promet un appel d’offres pour quitter Microsoft. Évalué à 5 (+2/-0).
« Se remettre en question se fait toujours au détriment de sa fierté » − Sanzio
La logique dépasse le politique.
La seule fois où je me suis retrouvé devant un juge (convoqué à 17h00 pour passer finalement à 22h30…), pour un délit, d’autres prévenus sont passés avant moi à la même audience. Je n’oublierai jamais, où alors c’est que je serai en toute fin de course, l’un des contrevenant entendu avant moi.
Cinquantaine bien entamée, se déclarant éditeur de profession, possédant un revenu mensuel de 6000 € environ, venu contester une amende forfaitaire de 45 €. Amende récoltée car, ayant eu une petite envie pressante de faire sa petite commission, et ayant aperçu un endroit où il pouvait garer sa caisse deux minutes et lui semblant adéquat pour procéder à sa vidange, un chantier de construction, en ville, ayant de surcroît, d’après ses dires, pu demander à un ouvrier présent s’il pouvait garer sa caisse un instant, sans lui cacher le motif de sa requête, et ce dernier ayant répondu qu’il n’y voyait aucun problème, avait en toute insouciance, le malheureux, ignorer la loi pour soulager sa vessie.
Bien mauvais timing, des gardiens de la paix se refusant à la lui foutre ce soir là lui ont collé cette prune, pour stationnement interdit. Même pas pour le marquage de territoire bien que tout aussi illégal.
Après plus de cinq heures à attendre mon tour, entendre ce Caliméro de compétition argumenter sans fin pour expliquer qu’il n’avait lésé personne, qu’en conséquence cette condamnation à débourser 45 € était une injustice manifeste, m’avait laissé proprement éberlué. Argumentaire débité à des juges qui manifestement et de toute évidence n’allaient pas, mécaniquement je dirais, les faits étant avérés et reconnus, lui épargner ces pauvres 45 €. Cette scène m’a instruit et avant tout ôté tout doute que je pouvais conserver sur l’absence de limite en ce qui concerne la posture hypocrite et puérile en cas d’atteinte à une seule minuscule miette de son égo, ou de son capital financier, que l’humain, je pourrais dire l’homme ici, peut adopter face à la réprimande, à la mise en cause la plus anecdotique. En ayant de plus rien à secouer de faire chier tous les clients après lui pour chier sa petite pendule déréglée.
Finalement j’ai pas pris trop cher pour ma part, longue journée absolument édifiante que ton commentaire me fait me rappeler.
Info sans lien, d’une autre affaire mais de la même journée, utile de ne pas ignorer àma : en toute circonstance résistez à l’envie d’adresser un seul nom d’oiseau à un représentant des forces de l’ordre. Vous pourriez facilement lui offrir ainsi une petite prime de quelques centaines d’euros aux frais de la princesse sinon aux vôtres. Sans même qu’il ait besoin de se déplacer pour plaider sa cause, un avocat avenant s’en chargera pour lui, à la charge également de l’une ou l’autre des deux bourses sus-citées bien évidemment.
[^] # Re: ia = intelligence
Posté par Marotte ⛧ . En réponse au journal IA : Imitation Artificielle. Évalué à 3 (+0/-0).
C’est très juste. Et sans même considérer la littérature : peut-on imaginer savoir écrire tout en ne sachant pas lire ?
Molière lit et écrit, ChatGPT lit et écrit. Mais ChatGPT a été écrit, alors que personne n’a écrit Molière.
Comment peut-on, même en ne sachant rien du fonctionnement de l’IA, imaginer que la comparaison des deux aurait un sens, ou que leur mise sur un même plan puisse être intelligente et utile ?
[^] # Re: ia = intelligence
Posté par Marotte ⛧ . En réponse au journal IA : Imitation Artificielle. Évalué à 4 (+1/-0).
Tu as conscience de déformer mes propos ? J’ai écris :
Il y a un s en trop je te l’accorde. Le fait est qu’un réseau de neurones artificiels considère un nombre conséquent, astronomique dirais-je, de combinaisons. C’est bien pour ça que la mise en œuvre de cette méthode est aussi consommatrice en puissance de calcul.
Je connais assez la manière dont fonctionne le deep-learning pour me permettre de continuer à affirmer que c’est une méthode « bourrin », dont l’intérêt (grand intérêt) est de constituer une tentative de reproduire le fonctionnement de notre cerveau, son fonctionnement biologique supposé. La supposition est pertinente, je le pense bien sûr, comme de nombreux, si ce n’est la plupart des, biologistes et neurologues infiniment plus sachant que moi. Mais l’imitation que nous faisons, nous humains, à l’aide de nos machines, me semble toujours très imparfaite, ce qui n’est pas étonnant au vu de la complexité assurément supérieure du « hardware » humain comparé au hardware informatique, pourtant lui-même d’une complexité certaine.
L’IA est un produit, une création de l’IB (Intelligence Biologique) que nous sommes. Nous avons créé la première alors que la seconde est à l’origine de notre compréhension des deux… La distinction me semble d’une trivialité absolue.
Qu’on puisse parfois ne plus pouvoir distinguer, de ce que les deux peuvent produire, laquelle a généré tel ou tel « produit de l’intelligence », c’est inévitable. Comme il peut être sous certaines conditions impossible de distinguer une fleur naturelle d’une fleur synthétique. Or ces deux fleurs sont deux objets foncièrement distincts. C’est à mon sens bien le fait de penser que l’une pourrait remplacer l’autre, devenir son égale, voire lui devenir supérieure, qui me semble parfaitement idiot. Et oui, quand bien même la seconde peux rester « fleurie » pendant un siècle sans faner, ce que ne pourra jamais la première. Ce caractère la rendrait-elle « supérieure » pour autant ? Pourrait-elle se substituer à la première ? Je ne pense pas. Pour l’IA c’est pareil.
[^] # Re: Mooltipass
Posté par Marotte ⛧ . En réponse au journal Comment gérez-vous vos mots de passe (et l’autoremplissage des formulaires) ?. Évalué à 3 (+0/-0).
OK, merci pour ces explications.
[^] # Re: Firefox
Posté par Marotte ⛧ . En réponse au journal Comment gérez-vous vos mots de passe (et l’autoremplissage des formulaires) ?. Évalué à 3 (+0/-0). Dernière modification le 06 avril 2025 à 20:48.
Anéfé. Mais on peut avoir besoin de stocker des mots de passe qui ne sont pas lié au Web, SSH par exemple. Ou vouloir utiliser ces mots de passe dans un terminal ou un autre programme.
Si pour le second cas le coffre-fort FF peut faire l’affaire, pour le premier cas ça me semble plutôt compliqué, infaisable sans recours à une méthode tordue. Non ?
[^] # Re: Mooltipass
Posté par Marotte ⛧ . En réponse au journal Comment gérez-vous vos mots de passe (et l’autoremplissage des formulaires) ?. Évalué à 4 (+1/-0). Dernière modification le 06 avril 2025 à 20:42.
C’est sûrement le top mais que ce passe-t-il si le boîtier est 1. Perdu, ou 2. Détruit ?
J’imagine que le réplicateur universel n’est pas fourni avec, du coup ça se réplique/sauvegarde pas.
Quel est l’avantage de ce truc par rapport à une bête clé USB à 1,60 € avec un fichier chiffré (fichier Keepass ou plus standard (GPG, OpenSSL, …).
la clé USB elle peut être dupliquée. Même si la synchronisation est « à la mimine » et donc faite pas très régulièrement, au moins elle est faisable.
Je pressens n’avoir rien compris à ce qu’est le boîtier dont tu parles parce que je vois pas l’intérêt. Et comme j’ai utilisé tout mon forfait Google pour la semaine je peux même pas chercher moi-même sur le oueb.
[^] # Re: ia = intelligence
Posté par Marotte ⛧ . En réponse au journal IA : Imitation Artificielle. Évalué à 3 (+0/-0).
Si on va plus loin c’est, vu sous sa représentation physique, n’est rien d’autre qu’une réécriture sous forme de résistances, capacités, inductances, interrupteurs et transistors qui forment un circuit électrique !
(et on pourrait encore descendre d’un cran encore…)
Blague à part je pense que c’est à proprement parler de manière « sémantique » qu’une IA ne « raisonne » pas, qui était le sens du commentaire auquel tu répondais (?). Elle ne « fonctionne » pas disons plus précisément.
D’ailleurs si elle raisonne tout court, hormis une résonance magnétique, phénomène par ailleurs totalement annexe à son fonctionnement, je ne vois pas de quoi on parle. ^^
[^] # Re: ia = intelligence
Posté par Marotte ⛧ . En réponse au journal IA : Imitation Artificielle. Évalué à 3 (+0/-0). Dernière modification le 05 avril 2025 à 00:49.
En relisant ton commentaire je me rends compte que l’exemple des opérations simples sur les nombres entiers c’est l’exemple parfait d’une compétence qui requière, pour l’acquisition de la compétence et la faculté d’en faire preuve de façon fiable, une intelligence somme toute assez faible, et dont la mise en œuvre de l’algorithmie adéquate et de la logique binaire basique permette de faire effectuer de manière ultra-fiable à un ordinateur, même « sans limite » en implémentant une précision arbitraire. Les opérations sur les réels réclament guère plus de chose, le concept de virgule flottante, et on a un outil qui explose les capacités humaines comme sa fiabilité. Et de façon proprement astronomique de nos jours, au début du développement de l’IA.
En face de cela, le recours au deep-learning, même le plus abouti, dans le but de réussir à obtenir la même capacité et avec la même fiabilité, sans même regarder à l’énergie mise en œuvre, ça me semble avoir peu de, voire aucune, chance d’aboutir à quelque chose de valable.
Si jamais, par une méthode de l’IA telle que le deep-learning, ou pourquoi pas le data-mining, on arrivait à faire émerger cette faculté, de faire véritablement « comprendre » à l’IA ce que sont des nombres, vraiment, comme beaucoup de personnes semblent croire que c’est ou que ce sera possible, il devrait y avoir dans l’heure qui suit la production par l’IA d’une réponse avec démonstration de chacune des plus grandes conjectures mathématiques qui résistent encore à ce jour aux plus grand⋅e⋅s mathématicien⋅ne⋅s ! :)
[^] # Re: Imitation et intelligence
Posté par Marotte ⛧ . En réponse au journal IA : Imitation Artificielle. Évalué à 3 (+0/-0). Dernière modification le 04 avril 2025 à 23:57.
Pour le premier point : apprentissage imitation. Je suis d’accord. Quand on enseigne une technique, une méthode, on demande à l’élève d’imiter. Par exemple, pour apprendre à un élève à faire une addition on lui montre et lui demande de reproduire. Idem pour apprendre à écrire. Tout un tas de chose. Nous humains le faisons sciemment en ayant conscience de transmettre un savoir, les animaux le font eux, vraisemblablement sans en avoir conscience, sinon une conscience des plus primitive, mais le mécanisme est le même : l’enseignant montre, l’élève regarde, l’élève imite, l’enseignant évalue, et le cycle recommence en s’affinant et en s’élargissant de savoir de connaissances de plus en plus complexe.
L’IA aussi doit accéder à des savoirs, des données, nécessairement humaines. Une IA dite générative ne crée rien ex-nihilo. Basiquement il s’agit de faire fonctionner le réseau qui est apparue dans l’IA lors d’un « apprentissage » (le terme « chargement de données » pourrait parfaitement convenir), non pas pour avoir les réponses à un autre jeu de données du même type, en entrée du réseau, données auxquelles l’IA n’a jamais accédé, pour que son réseau donne les réponses, les solutions pour ces nouvelles données, mais à l’inverse de fournir un jeu de réponses, de solution, en sortie, pour que le réseau ainsi « utilisé à l’envers » fournisse ce qui pourrait être des données d’entrée pour les données de sortie qu’on lui a fournies.
Je ne sais pas si je suis très clair, c’est difficile d’expliquer en quelques mots, mais des tas de ressources sont disponibles concernant le « deep-learning », à mon sens le concept fondamental pour comprendre ce qu’est « l’IA ». Cet apprentissage n’est pas du tout la même chose que l’apprentissage que je décris plus haut. On ne peut pas dire que l’IA « imite » comme l’humain (ou la loutre par exemple) le fait. Mais en effet l’IA a nécessairement besoin d’accéder à des informations, en ce sens, je t’accorde que l’IA possède une forme d’apprentissage (et c’est pour ça que c’est le terme utilisé), donc premier point, oui l’IA « coche cette case », bien que ce ne soit pas comme nous le faisons nous, elle est capable d’apporter une connaissance nouvelle à partir de connaissances déjà existantes.
Mais ça s’arrête là. Passons au troisième point (je reviendrai au deuxième ensuite) : l’imagination. Non une IA n’est pas doué d’imagination. Une IA n’a ni libre-arbitre, ni l’irrationalité qui caractérise l’esprit humain. L’IA ne rêve pas. Elle est au contraire purement et strictement rationnelle. À cette rationalité, nous, humain pouvons y adjoindre une dose d’aléa, mais c’est encore ici l’humain qui décide d’introduire de l’aléa. L’aléa n’est pas l’irrationalité et il est stupide d’imaginer que l’IA pourrait d’elle-même décider l’introduction de cet aléa. L’IA ne décide pas cela. L’unique forme de « décision » dont elle est capable c’est de de décider (discriminer est un terme plus adéquat je pense), quelle sont les données de sortie, les réponses, parmi celles qu’on lui aura fournies, qui sont en adéquation avec les données d’entrée, les questions (cas classique de la mise en œuvre du deep-learning). Ou encore, de générer des questions (ie: des données d’entrée) qui sont en adéquation quand on lui fournit des réponses (cas de l’IA générative). La case "imagination" n’est pas cochée, et ce n’est même pas un but à atteindre par celles et ceux qui conçoivent les IA. Ce n’est que pure fantasme de penser pouvoir faire naître de l’imagination au sein d’une IA, même pas de la science-fiction, seulement une croyance illusoire de quelqu’un ne comprenant pas ce qu’est la réalité de l’IA.
Troisième point : logique et raisonnement. La logique et le raisonnement c’est le concepteur ou la conceptrice d’une IA qui la met en œuvre en concevant l’IA. L’IA, contrairement à une approche algorithmique, dont on peut dire que l’ordinateur reproduit le comportement quand il exécute un programme « imaginé » par un humain, une IA ne fait même pas cela. C’est une approche statistique, probabiliste qu’elle met en œuvre. Là encore, non, la case n’est pas cochée, l’IA ne repose pas sur la logique ou sur un raisonnement. Cette case, on peut dire éventuellement que c’est l’approche classique de l’utilisation d’un ordinateur qui est comparable, certainement pas l’IA.
Pour finir je pense que tu oublis également un quatrième point : la volonté, l’envie, la faculté de faire un effort. Pourquoi nous humains apprenons nous, pourquoi acquière-t-on de nouvelle connaissance, assimilons des méthodes, nous donnons nous cette faculté de faire ce que nous faisons ? Et bien, pour le dire simplement : par instinct de survie, par envie d’être. Aucune IA ne peut faire ceci. Comme pour le point un, l’imagination, aucune recherche sur l’IA ne prétend « inculquer » cela à une IA. Cela n’a même pas de sens.
Il existe déjà des capteurs artificiels qui permettent de capter ce que les capteurs naturels de l’humain ne pourront jamais capter, ou de capter des phénomènes physique avec une sensibilité et/ou une capacité bien plus grande que les capteurs dont nous sommes munis. À l’instar du calcul numérique il y a de nombreux cas où le robot, qu’on peut définir comme un ensemble de capteurs et d’actionneurs reliés par des signaux, surpasse de très loin l’humain et l’animal. Ce n’est cependant pas toujours le cas. La sensibilité aux variations de pression dans l’air que l’oreille humaine ou animale peut détecter (ie: capter), n’est pas encore reproduite, donc à fortiori dépassée par la technologie. Il en va de même pour, par exemple, les performances du sonar d’une chauve-souris en terme de rapidité de traitement de l’information (ie: de conversion du phénomène physique en signal) et de la précision (ie: de la sensibilité) que sont ces capteurs biologique. Ce n’est absolument pas aussi évident que tu semble le penser. Ceci étant, en terme d’actionneurs, en ce qui concerne la capacité, l’endurance, la résistance à des contraintes extérieures, les robots dépassent également les animaux, humain compris, dans une très grande partie des cas considérés. Rends-toi compte, un humain non assisté d’un dispositif artificiel adéquat ne peut plus rien faire du tout, et de manière définitive, s’il est placé dans un milieu dépourvu d’un mélange très précis de gaz particuliers ! Vu sous cet angle, l’humain est insignifiant comparé à un bête lave-vaisselle…
Plus précisément, une IA que l’on aura entraîné à cela, et disposant de ressources matérielles et énergétiques très faibles pourra « reconnaître » (déterminer est un meilleur terme), en quelques secondes s’il y a un chien sur plusieurs milliers de photo avec un taux d’erreur très faible. Par contre, il ne sera jamais en mesure de comprendre ni la politique, ni la science, ni quoi que ce soit. Une IA ne comprends strictement rien à rien. L’IA qui reconnaît les chiens sur les photos n’a pas la moindre idée de ce qu’est un chien.
Je ne voudrais pas passer pour celui qui se refuse à imaginer que le futur pourrait voir apparaître des choses qui sont à l’heure actuelle difficilement voire pas du tout concevable. Je ne vois pas pourquoi, à l’instar du savant de l’antiquité qui s’il entrevoyait la possibilité de l’existence de l’atome, n’aurait à mon avis pas pu imaginer même une infime fraction de ce qu’est l’informatique moderne. Je pense pour ma part que si un jour des artefacts humains, c’est à dire des objets qui ne soient pas biologiques mais fabriqués par l’humain, des êtres de silicium et d’autres minéraux, métaux, ou autres, comme le sont nos ordinateurs actuels et ceux qu’on imagine pour le futur, héberge une intelligence comparable à l’intelligence humaine, une conscience, alors ce sera précisément l’intelligence humaine elle-même. Cela, àmha, ne saurait être autre chose, et si notre conscience doit perdurer dans un avenir lointain, alors ça ne peut être que sous cette forme, une forme « de vie », libérée de son lien existentiel avec notre planète, et même qui plus est, de l’atmosphère de cette dernière sous cette forme particulière que nous lui connaissons.
Sache que j’éprouve un grand respect pour toi lecteur qui est arrivé au terme de ce texte, je sais la difficulté que cela peut représenter. Je ne vais d’ailleurs même pas faire preuve de la volonté nécessaire pour le relire moi-même. Tant pis pour les
éventuelleserreurs et fautes quipourraientpeuvents’y trouvent certainement.[^] # Re: Passbolt ?
Posté par Marotte ⛧ . En réponse au journal Comment gérez-vous vos mots de passe (et l’autoremplissage des formulaires) ?. Évalué à 4 (+1/-0). Dernière modification le 04 avril 2025 à 18:27.
+1 Pour Keepass (comme KeepassXC). Sinon le coffre-fort Firefox, très bien aussi même si c’est bien évidemment réservé aux mots de passe pour le Web et qu’on ne peut pas, à ma connaissance, faire comme dans Keepass en doublant d’une clé le verrouillage du fichier (ie: en plus du mot de passe).
J’étais sûr que quelqu’un aurait à coup sûr déjà cité ce logiciel (libre et multi-plateforme comme tout logiciel digne de ce nom) mais ceci a attiré mon attention dans le journal :
Dans KeepassXC (et possiblement l’autre Keepass) il y a un paramètre de « nombre de cycles de chiffrement ». Si j’ai bien compris c’est le fait de ne pas chiffrer/déchiffrer qu’une seule fois mais X fois, avec X plus ou moins grand.
Plus X est grand et plus cela va prendre du temps pour ouvrir le fichier, comme pour enregistrer une modification. Et c’est précisément le but de la manœuvre, car de fait, ça ralentira d’autant une éventuelle attaque par la force brut d’une personne qui aurait pu obtenir le fichier chiffré et qui voudrait pouvoir l’ouvrir sans posséder le mot de passe.
Je me demande si le coffre-fort de mdp de l’auteur du journal ne ferait pas justement cela, d’où le temps qui est très long.
Ceci étant dit, est-ce un réel problème un temps d’ouverture de quelques secondes pour un logiciel qui (àma) se lance une fois par jour, au moment où on en a besoin, et qu’on ne ferme qu’à la fin de sa session. Tu le fermes et relances à chaque fois toi ?
[^] # Re: Imitation et intelligence
Posté par Marotte ⛧ . En réponse au journal IA : Imitation Artificielle. Évalué à 3 (+0/-0). Dernière modification le 04 avril 2025 à 17:50.
De par l’existence d’un « cortex cérébral » de nature identique chez tous les mammifères, dont l’humain, c’est l’hypothèse d’une intelligence de nature spécifique chez l’humain et qui serait absente chez les autres mammifères qui me semble très largement improbable. Ce qui est unique chez l’humain c’est son caractère incroyablement hypertrophié, mais, àma, certainement pas sa nature.
Maintenant si on parle de reptiles, d’insectes, voire de «blob », là oui, c’est probablement très différent. Et d’ailleurs, stricto sensu, bien plus évolué que la cervelle des mammifères que nous sommes.
[^] # Re: Imitation et intelligence
Posté par Marotte ⛧ . En réponse au journal IA : Imitation Artificielle. Évalué à 3 (+0/-0).
Peut-être est-ce un défaut de celle-ci qui me permet de le penser, mais àma l’intelligence est un concept éminemment difficile à définir, à juger. Ne serait-ce que du fait qu’on le fasse chacun avec la sienne propre…
Pour essayer de dépasser ce sophisme je me fais la réflexion suivante :
Bien que l’IA puisse donner l’illusion d’une compréhension comparable à celle des humains, et qu’elle puisse, de surcroît, pour de nombreux domaines spécifiques, dépasser largement l’être humain en terme de faculté/performance cognitive/didactique, une chose fondamentale me semble vouée à perdurer jusqu’à la fin de l’univers humain : une IA sera toujours un produit de l’intelligence humaine. Quand bien même on considère le développement d’une « méta-IA », c’est à dire, à l’image de ce qu’est la méta-programmation, une IA générative produisant des architectures de « réseaux de neurones ». Des objets que l’on peut, me semble-t-il, définir comme des graphes dont les nœuds sont des fonctions d’activation (pour ce qui est du principe de base en tous cas), objet qui sont donc parfaitement modélisables, donc susceptibles d’être présentés en entrée à l’un d’eux, il resterait là encore cette vérité indiscutable : cette méta-IA sera toujours l’œuvre d’une intelligence biologique naturelle, ce qu’est l’intelligence humaine, serait-elle augmentée de quelque manière que ce soit. Donc en ce sens, une IA ne sera jamais aussi intelligente, c’est absolument impossible que cela puisse être.
Je dirais que ça dépend beaucoup du « paramétrage » du test. Grossièrement de la compétence et des connaissances du testeur, du temps de réflexion laissé à celui-ci, la durée du test, la garantie à priori d’une réponse neutre : que le risque/gain à répondre "machine" plutôt que "humain", soit équilibré par rapport à l’inverse).
C’est à mon humble avis encore; dans l’absolu, plus faisable pour un humain de se faire passer pour un chatbot qu’à ce dernier d’apparaître comme un humain.
[^] # Re: Excellent.
Posté par Marotte ⛧ . En réponse au journal IA : Imitation Artificielle. Évalué à 3 (+0/-0). Dernière modification le 04 avril 2025 à 16:37.
J’en conviens. Loin de moi l’idée que ces outils pourraient être inutiles. Pour ma part je préfère encore me reposer sur le « crowdsourcing » de la connaissance, l’intelligence collective doit être le terme adéquat en français. Par exemple, pour ce qui concerne la programmation ou l’apprentissage des langues étrangères, mais aussi, puisque tu cite cet exemple, pour les problèmes de cœurs. Je pense notamment à, respectivement, stackoverflow.com, wordreference.com, et euh… j’ai pas de problème de cœur personnellement mais ça existe sans aucun doute ! ^^
L’IA peut aider l’humain à comprendre, je suis d’accord, mais absolument pas comprendre à sa place.
On comprends très bien comment ça fonctionne. Le principe a été décrit il y a de nombreuses décennies. Comme je le disais, bien avant que ce soit réalisable en pratique. Un peu (toute analogie, etc…) comme on conçoit aujourd’hui des algorithmes pour des ordinateurs quantiques.
Il n’y a pas de raisonnement. Ceci dit une question dont j’ignore la réponse est de savoir s’il existe une démonstration mathématique, une preuve formelle, que cela fonctionne « obligatoirement »
[^] # Re: Il serait temps ?
Posté par Marotte ⛧ . En réponse au lien PEP 751 acceptée -- Python a désormais un "lockfile" standard. Évalué à 4 (+1/-0).
Je pensais que c’était le cas. Cela dit si je ne raconte pas de bêtise, ça implique que toutes les dépendances soient installées via pip, qu’il n’y en ait pas qui soient installées par un autre moyen (packages systèmes ou à la main (voire au pied!)), mais que tout projet/code Python dépassant le stade de script de POC de coin de table utilisait systématiquement un venv et du pip dedans.
Mais c’est sûr que pour la même raison que Python impose l’indentation du code il se doit d’être tout aussi coercitif pour que tout code Python présente bien, ni trop négligé ni trop pimpant, qu’il soit bien normal comme il faut, « pythonesque » comme on dit. Si c’est la fête du slip dans le requirements.txt alors en effet ça le fait pas du tout !
# Il serait temps ?
Posté par Marotte ⛧ . En réponse au lien PEP 751 acceptée -- Python a désormais un "lockfile" standard. Évalué à 4 (+1/-0).
C’était pas le but du fichier
requirements.txt
?Je ne suis pas un fin connaisseur de Python mais je l’ai utilisé et je trouve que c’est un langage avec d’énormes qualités et surtout une philosophie judicieuse. Par contre, j’ai toujours vu d’un œil méfiant les programmes nécessitant des dépendances du genre 3.2.4=<bidule=<3.3.1, voire machin==2.3.9a+git_ab22ef45 (j’exagère mais ya quand même un peu de ça j’ai l’impression).
Ceci dit je pense que c’est aussi lié à la propension des beaucoup de gens de recourir à 36 bibliothèques dont seulement cinq à dix pourcents de chacune est utilisée. Sa partie la moins stabilisée, ça va de soi, c’est plus drôle !
Alors que bien souvent une petite quantité de jus de cerveau et un nombre relativement faible de lignes de code utilisant les builtins Python n’était pas insurmontable pour au moins la moitié des bibliothèques, et nettement plus aisé à maintenir.
C’est évidemment pas propre à Python ça, mais j’ai l’impression que c’est particulièrement courant en Python. Plus qu’en Perl par exemple.
# Date de péremption
Posté par Marotte ⛧ . En réponse au journal Faire une recherche d'images exclusivement générées par intelligence naturelle. Évalué à 4 (+1/-0).
Attends qu’une nouvelle aube se lève.
[^] # Re: transformer
Posté par Marotte ⛧ . En réponse au journal Faire une recherche d'images exclusivement générées par intelligence naturelle. Évalué à 6 (+3/-0).
En musique, j’ai peut-être un point de vue biaisé parce que ce que je fais moi ne « ressemble vraiment à rien », mais sortie de toute IA, le nombre de productions de producteurs indépendants, plus ou moins professionnels, dont l’écoute de leur travail me donne nette impression de musique déjà archi-entendue me semble incroyablement élevé. Certaines prod’ sont parfois très bien faites, très belles, mais dénoué de toute originalité.
D’ailleurs les artistes que souvent j’apprécie, c’est parce qu’en les écoutant je me dis : « mais j’ai jamais entendu rien de tel, je n’imaginais pas une telle musique ». Or souvent c’est plutôt : « Ah oui on dirait du Untel ou du Bidule ». Sur ce genre de production je pense en effet que l’IA ne fera sûrement ni mieux ni pire, mais à une vitesse redoutable et pour un coût de possession bien moindre.
Pour prendre un exemple, pour ceux qui connaissent, et pour que ceux qui ne connaissent pas puissent découvrir, un groupe de rock, aujourd’hui dissous, tel que Sonic Youth, a un style reconnaissable, même plusieurs d’ailleurs. Or si aujourd’hui j’écoute un autre artiste et que le son me rappelle Sonic Youth, et bien je suis souvent déçu. Bien souvent il ne sera pas le seul artiste à produire un son comparable à la même époque. Je suis pratiquement sûr que si on fait ingurgiter toute la discographie de Sonic Youth à un bousin de deep-learning à visée générative, ce dernier pourra pondre un album que le groupe aurait vraisemblablement pu écrire. J’ai tendance à penser que dans ce cas, que ce soit un groupe humain ou une IA générative qui ait produit la chose, ça n’a pas la moindre importance. Certains l’on fait avec Beethoven je crois. Et forcé de constater (à ce qu’il paraît), que ça marche. une IA qui compose du Beethoven ce n’est pas de la science-fiction de nos jours.
Bien sûr parfois il y a des exceptions. Si on prend le premier album d’Amy Winehouse, il semble tout droit sorti du passé. Et c’était volontaire, les producteurs ont été jusqu’à n’utiliser que du matériel d’époque pour être le plus fidèle à la période ancienne qu’ils ont fait revivre, rester fidèles aux musiciens de cette « école », et qu’ils ont ainsi ressuscités.
Le matos on le fabriquait plus, mais il en reste pas mal en bon état. Pour les musiciens c’est l’inverse : ceux de l’époque n’étaient plus en état de jouer, généralement pour cause de décès, mais par chance il s’en fabrique encore du même modèle.^ Or ce son, pourtant incroyablement « déjà entendu », est de mon avis une pépite fabuleuse.
D’autres fois c’est encore plus étonannt : quand un artiste, un groupe, sort un premier album d’une originalité fantastique, qui laisse un tas de gens bouche bée, qui réussit l’incroyable exploit de se plagier lui-même sur un second album, puis un troisième tout aussi une pâle copie du premier. Je crois qu’aucun groupe ne m’a donné autant cette impression d’auto-réchauffage de chef-d’œuvre que le groupe Louise Attaque.
Pourquoi je raconte ça moi ? Et bien en effet, je devais générer ça à côté et je me suis trompé de porte. Je le laisse ici quand même, ce sera bien consommé par une IA un jour ou l’autre, ça lui permettra de générer un contenu avec un toupeutipeutipeuti de moi dedans.
[^] # Re: Le problème n'est pas GTK non plus
Posté par Marotte ⛧ . En réponse au journal SVP arrêtez d'utiliser Python pour vos logiciels en GUI.. Évalué à 4 (+1/-0). Dernière modification le 31 mars 2025 à 04:04.
Parce que ce n’est pas Debian ? Alors il y a quelques bugs qui commence à être trop nombreux et la distribution se meurt ? Quelle est cette distribution d’ailleurs ? ^^
[^] # Re: Excellent.
Posté par Marotte ⛧ . En réponse au journal IA : Imitation Artificielle. Évalué à 6 (+3/-0). Dernière modification le 31 mars 2025 à 03:48.
Pour les échecs, les ordinateurs ont commencé à égaler les humains, pour finir par les battre, par ce qui n’était que les prémices de l’IA me semble-t-il. c’était plutôt de l’algorithmie plus ou moins empirique et du calcule de probabilités classique. Ceci dit, est-ce que tu considères comme doué d’intelligence une machine (ou un humain d’ailleurs), qui ne sait que jouer aux échecs ?
Alors je n’y connais rien en repliement de protéine mais je peux te garantir que l’ordinateur ne « comprend » strictement rien, il est « juste » capable de trouver des solutions grâce à la mise en œuvre d’un réseau de neurone, c’est à dire en quelque sorte en testant un maximum de possibilités et en « mémorisant » au fur et à mesure le chemin le plus court pour trouver ces solutions. L’humain sait, « comprend » donc, lui. Il comprend ce qu’est une protéine, ses rôles, l’intérêt qu’ont ces repliements, il n’est pas capable de trouver les solution car son cerveau n’est pas en mesure d’effectuer ce balayage des combinaisons possibles, mais il a conscience par exemple que la chimie est à l’action dans le processus, et bien d’autres choses connexes dont l’IA ne possède pas la moindre représentation…
Sans modélisation il n’y a rien que peut faire l’IA !
Au passage, je pense que tes mots sont mal choisis, car à ma connaissance on ne peut pas modéliser un processus qu’on ne comprend pas au moins partiellement.
Mais seul des humains sont capables de « faire des mathématiques » dans le vrai sens du terme. Le calcul est les mathématiques ce ne sont pas du tout, mais alors pas du tout, la même chose. C’est sûr que sans ordinateurs on ne saurait pas par exemple les je ne sais plus combien de millions de décimale du nombre pi qu’on a fait calculer par ordinateur (et ce n’est pas l’ordinateur qui a trouvé l’algorithme). Ce n’est pas de l’IA dans ce cas, je donnais cet exemple pour l’aspect « calcul » de ton propos. Mais quoi qu’il en soit ce n’est pas pour autant qu’un ordinateur n’a peut avoir la moindre idée de ce qu’est le nombre pi, ou de ce qu’est la transcendance d’un nombre réel.
Un exemple : il y a quelques années maintenant on été découverts/trouvés, les, de mémoire deux, derniers pentagones pavant le plan. Les deux mathématiciens à l’origine de cette découverte ont certes utilisé des ordinateurs pour éliminer un tas de pentagones qui ne pouvaient pas convenir, mais c’est leur intuition et leur réflexion bien humaine de mathématiciens, qui leur ont, non seulement permis de mettre le doigt sur ces deux spécimens manquants, mais aussi, et ça l’IA en est encore loin, d’établir la preuve mathématique que ce sont bien les derniers pentagones manquant parmi les seize au total, il n’y en a pas d’autre. En tous cas leur démonstration n’a pas été invalidé par d’autres mathématiciens à ma connaissance.
https://fr.wikipedia.org/wiki/Pavage_pentagonal
Ceci étant, oui, sur le fond je suis bien d’accord avec toi, « l’IA » est plus performante que l’humain pour de nombreuses tâches, j’ai en tête un « concours » ayant opposé une IA à une équipe de médecins. Il s’agissait sur un ensemble de radiographies des poumons, de dire, de diagnostiquer, si un cancer pouvait être suspecté ou détecté. C’était bien sûr une série de radiographies de cas réels, dont on savait si effectivement il y avait eu un cancer avéré quelques temps après. L’IA a été beaucoup plus rapide à se prononcer, et par ailleurs plus fiable, elle s’est trompé moins de fois que les médecins spécialistes. Maintenant, ce n’est qu’une expérience, donc c’est à prendre avec précaution. Note que cette IA diagnostiqueuse ne joue pas aux échecs, alors qu’un certains nombre de ces médecins le font sûrement, ou ne joue pas d’un instrument, etc…
Si on considère par exemple la reconnaissance faciale (de personnes bien entendu) sur une vidéo, là aussi, je pense qu’une IA performante doit pouvoir reconnaître, beaucoup plus de gens différents, et nettement plus vite, peut être sur un nombre de flux vidéos qu’un humain seul ne peut même pas ne serait-ce que visionner en même temps…
Je pense que tu as plutôt raison sur le fond, mais tes exemples sont vraiment très mal choisi. (àmha cela va de soi).
[^] # Re: Autre proposition.
Posté par Marotte ⛧ . En réponse au journal IA : Imitation Artificielle. Évalué à 6 (+3/-0). Dernière modification le 31 mars 2025 à 02:39.
C’est pris par Instant Messaging, tu ne peux pas ! ^^
Mais je suis d’accord que IA (ou AI) est un terme bien mauvais. Tout comme « réalité virtuelle » qui est un bel oxymore lui.
Le principe fondamental de l’IA c’est pourtant bien de reproduire le fonctionnement de notre cerveau, de ce dont on en connaît du moins, ce qui n’est pas encore quelque chose de tout à fait compris.
L’ordinateur ne fonctionne pas comme notre cerveau, ce serait plutôt la manière dont on l’utilise, en pratique le logiciel qu’il met en œuvre, que l’on vise à rendre semblable à notre cerveau. « Que l’humain lui fait mettre en œuvre » d’ailleurs, ce serait plus exact de le dire comme ça.
« Toute technologie suffisamment avancée est indiscernable de la magie » comme à dit je ne sais plus qui. Un béotien ne sait pas plus comment fonctionne un ordinateur, un circuit intégré, la relativité générale ou un chromosome ou que sais-je encore. Je ne suis pas sûr que la majorité des gens pense qu’un IA peut « penser », c’est tout juste si elle considère que c’est une question pertinente, ou plutôt, digne d’intérêt. Bien sûr, si certains peuvent croire que la Terre est plate, ou que la technologie terrienne a une origine extra-terrestre, l’idée d’un ordinateur intelligent c’est presque banal finalement.
Je propose : analgorithmie, intelligence monte-carliste, ou cogitronique ! C’est à peine plus nul :)
[^] # Re: ia = intelligence
Posté par Marotte ⛧ . En réponse au journal IA : Imitation Artificielle. Évalué à 4 (+1/-0). Dernière modification le 31 mars 2025 à 02:07.
Intéressant votre discussion. Perso en lisant le commentaire de Benoit j’avais (visiblement mal) compris « imitation de l’intelligence » comme le fais qu’un réseau de neurone dans l’IA, en deep-learning typiquement, imite (c’est me semble-t-il le bon mot), le fonctionnement, du moins son principe, de ce que sont nos synapses : La synapse (du grec σύναψις / súnapsis, « contact, point de jonction », dérivé de συνάπτω / sunáptô, « joindre, connecter ») est une zone de contact fonctionnelle qui s'établit entre deux neurones, ou entre un neurone et une autre cellule
Pour moi il est bien question d’imiter l’intelligence humaine, pour la dépasser. Non pas imiter sa fonction, son rôle, mais imiter son fonctionnement, sa mécanique si on peut dire. Cette idée est apparue il y a fort longtemps, mais c’est seulement aujourd’hui qu’on a accès à une puissance de calcule qui nous permette des applications dans la vie réelle. Certains parlent d’intelligence faible (pour l’IA), qui s’opposerait à l’intelligence forte (humaine), ça me semble assez bancale comme termes car pour certaines tâches bien définies, un réseau de neurones artificiels peut déjà faire aussi bien, voire mieux, et très souvent infiniment plus rapidement, en quelques secondes, ce que des dizaines de cerveaux humains peinent à faire en plusieurs jours. Et le fait parfois, voire souvent, de manière plus fiable.
C’est merveilleux, mais l’aspect hautement révolutionnaire que certaines personnes prêtent à ces applications me paraît très exagéré. Je pense qu’il n’est pas plus, voire moins, révolutionnaire que l’a été l’invention du transistor puis de l’informatique électronique. Ça fait belle lurette qu’une « intelligence artificielle », (parce que je ne vois pas pourquoi on ne pourrait pas nommer ainsi, également, un ordinateur ne recourant qu’à de l’algorithmie pure), peut faire plusieurs milliers de divisions de nombre à moult chiffres, en moins de temps qu’il faut à un humain pour saisir son crayon pour faire l’opération. Même les cas hyper rares d’ « idiots savants » comme il furent appelé jadis, se font battre à plate couture par une calculette à 5 €).
Une IA n’imite pas notre intelligence, du point de vue fonctionnel, comme je le disais ce qu’elle imite c’est nos cellules cérébrales, pas notre intelligence en tant que telle. En effet une IA « apprend ». Seule, à condition qu’on lui formate bien les données, qu’on la « recâble » quand on voit que ça déconne, bref, qu’on y consacre notre intelligence à nous, humains, au moins un minimum. Parce que ce dont nous nous sommes capables, et c’est ce qu’est notre intelligence, c’est de comprendre quelque chose qui ne nous a pas été enseigné, ni même suggéré. La faculté de s’adapter à un problème nouveau, imprévu, c’est ça l’intelligence. Ceci étant, l’approche par l’IA nous permet tout de même parfois de trouver des réponses à des questions que nous ne nous étions pas posées. C’est l’idée qui sous-tend la branche « data-mining » : trouver dans la donnée la question en même temps que sa réponse. et ça c’est quand même fabuleux ! Bien que ça ne change pas la constante caractérisant les sciences et la découverte : de nouvelles réponses amènent de nouvelles questions.
# Bonne question
Posté par Marotte ⛧ . En réponse au journal Faire une recherche d'images exclusivement générées par intelligence naturelle. Évalué à 3 (+1/-1).
Ça me paraît plus dur à détecter que des images retouchées. Mais c’est juste là l’hypothèse de l’intelligence biologique assez détérioré que j’ai à disposition. En demandant à l’intelligence de Google je trouve ces liens qui pourraient peut-être t’intéresser, ici.
Pas le temps de creuser le sujet, surtout que je ne crois pas être aussi inquiet de, ou plutôt agacé par, ce raz-de-marée de contenus générés par l’IA, je les trouve même très intéressant parfois je dois dire. Hésite pas à revenir nous faire un petit topo de ce que tu auras éventuellement trouvé. Ça doit intéresser pas mal de monde.
[^] # Re: De l’excellence opérationnelle
Posté par Marotte ⛧ . En réponse au journal La Macsf assure, mais pas leurs développeurs web. Évalué à 4 (+1/-0).
Tout à fait, c’est entre l‘Idiotie Artistique et l’Ineptie Attristante, mais garantie avec un taux d’intelligence inférieur à -5 % !
# De l’excellence opérationnelle
Posté par Marotte ⛧ . En réponse au journal La Macsf assure, mais pas leurs développeurs web. Évalué à 10 (+8/-0).
« Grâce à nos efforts permanents et à l’application de tous à chaque instant dans la mise en œuvre de nos très hautes compétences au service des nos clients dont la satisfaction totale est notre priorité absolue, nous pouvons nous enorgueillir d’un taux de réclamations de 0%. Je pense que vous êtes prêts mes chères collaborateurices, à relever le challenge que représente l’objectif d’arriver à un taux de -5% d’ici fin Q4. Je sais que vous pouvez le faire, j’ai confiance en vous, comme j’ai confiance en moi : pas autant que la confiance que j’ai en nous ! Santé ! »