C'est bizarre, l'article dit un peu le contraire du titre. Musk semble avoir commencé à râler et à dire qu'il voulait être payé après (i) qu'il ait été avéré que Starlink était utilisé par les unités engagées au front (et que la guerre c'est caca, tout ça), (ii) que des responsables Chinois lui ont un peu expliqué que ça se pourrait bien que les Tesla se vendent moins bien du côté de Pékin si Vladimir était fâché, et (iii) il a eu Vladimir lui-même au téléphone, et que ça l'a un peu refroidi (peut-être lui a t-on expliqué qu'il ferait mieux d'intégrer les techniques de résistance au plutonium à son programme d'entrainement au MMA).
Du coup, ce que je comprends, c'est que le pognon, c'est une excuse, et que pour tout un tas de raisons inavouables, ses amis dictateurs lui ont fait comprendre qu'aider l'Ukraine n'était pas très bon pour les affaires (et pour la santé).
Le principe d'un abonnement Premium pour distribuer de la contrefaçon ne te choque pas? Ce n'est pas un appel aux dons pour faire tourner un serveur associatif, c'est un abonnement commercial pour accéder à un service ostensiblement illégal. La prochaine étape, c'est quoi? Amashit Prime, avec une livraison en scooter en moins de 24h contre un abonnement exclusif au dealer? Ou bien un paywall cookies vs. abonnement pour un site pédoporno? La philosophie de Z-library, c'est l'anarcho-ultralibéralisme? Les recettes du capitalisme non-régulé appliquées aux activités illicites?
Je ne suis même pas en train de dire que ça n'existe pas, puisque bien sûr la contrefaçon est très largement industrialisée depuis Megaupload et compagnie; ce qui me choque c'est de tenter l'histoire de l'"accès à la connaissance". Mais bien sûr, les films de boule en streaming sur des serveurs plein de pubs, c'est aussi pour la culture. Je trouve ça assez irrespectueux pour les vrais militants qui essayent de limiter les dérives de l'"industrie de la culture"…
C'est marrant quand même, la contrefaçon c'est acceptable quand on veut récupérer une œuvre commerciale, même si un intermédiaire se fait du beurre dessus, par contre, la contrefaçon d'un logiciel libre c'est le capitalisme qui habite Satan.
L'idée du droit d'auteur, c'est qu'il est amoral. L'auteur décide des modalités de diffusion de sa création; s'il le souhaite il l'échange contre de l'argent, s'il le souhaite il le diffuse gratuitement, avec ou sans restrictions. Moi, dans cette histoire, je ne vois qu'un site parasite, qui monnaie l'accès à des œuvres qu'il n'a pas le droit de distribuer.
Il y a un gouffre quand on compare à sci-hub, puisque sci-hub diffuse des pdf d'articles scientifiques à perte (pas de revenus), et les œuvres distribuées le sont avec la bénédiction des auteurs (qui ne sont pas rémunérés sur les profits des éditeurs).
Tout dépend de ce que tu veux. Si tu veux un avis un peu random, comme tu aurais eu sur un forum ou en demandant à ton collègue de bureau, ChatGPT fait parfaitement le job. Si tu veux la réponse qu'aurait donné un des développeurs du projet, alors non : chatGPT ne peux pas connaitre la réponse à une question qui ne peut être répondue que par un spécialiste.
20 ans de recherches Google peuvent facilement remplacer la doc, ça n'est pas un signe d'interface intuitive.
Un outil en ligne de commande, tu sais que tu vas devoir lire une doc pour comprendre comment il marche. Un logiciel muni d'une interface graphique, tu peux légitimement t'attendre à pouvoir l'utiliser sans aller suivre une formation. Ça marche aussi pour les jeux par exemple; souvent, les jeux commerciaux sont conçus pour être utilisables directement, ce qui n'est pas le cas de tous les jeux non-commerciaux.
Même sur des trucs très très grand public comme OFfice, vas éditer un powerpoint ou un document word remplis de captures d'écrans réalisé par une autre personne
Oui, mais ça c'est lié à la mauvaise utilisation des outils. C'est une question de philosophie, soit le logiciel t'interdit de faire ce genre de choses, mais du coup il est limitant, soit il l'autorise, et du coup il permet de produire des fichiers irrécupérables. Avec Gimp tu peux aussi encoder une image avec un pixel par layer, ça ne va pas être facilement manipulable non plus.
C'est essentiellement une des tares du concept WYSIWYG
Tu veux dire que tu penses qu'il n'est pas possible de créer un document Latex irrécupérable? :-)
c'est assez compliqué d'étiter des images en WYSIWYM
GIMP est scriptable…
à part pour les générer via deep learning.
Une interface AI du type "chatbot" me semblerait tout à fait faisable, avec des séries de commandes séquentielles ("éclaicis un peu l'image", "diminue le contraste à l'arrière plan", "retire les fils électriques", "non, tu as retiré les cheveux des personnes, seulement les fils électriques", etc.).
Je suis aussi utilisateur de Gimp depuis plus de 2 décades, j'avoue que je suis toujours perplexe devant ces supposés manquemant en terme d'UX
Je pense qu'il est habituel de partir du principe qu'un logiciel muni d'une GUI, c'est comme un site web, ça ne nécessite pas de doc ou de tutoriel pour comprendre son fonctionnement, ce qui ne marche pas vraiment avec GIMP. Justement, GIMP pourrait aussi trouver son public auprès d'utilisateurs occasionnels, via une interface simplifiée par exemple. Ce n'est pas la direction qui est prise, et il n'y a rien de mal à ça, mais du coup il ne faut pas s'étonner que certains se plaignent de son interface (en tout cas, en tant qu'utilisateur occasionnel, je trouve son interface souvent très frustrante).
Exemple typique: j'ouvre une image avec Gimp pour trouver un exemple, bah je l'ai tout de suite: il n'y a pas de barres d'outils. J'ai dû les fermer en me gourant de fenêtre la dernière fois ou quelque chose comme ça. J'ai cliqué au pif dans Windows -> Toolbox et j'ai retrouvé une partie des trucs, mais franchement, je pense que personne ne veut ouvrir un logiciel et ne rien voir. Si moi je dois aller farfouiller pour même de faire quoi que ce soit, quelqu'un d'un peu moins habitué aux ordinateurs n'arrivera jamais à commencer.
Deuxième exemple: je veux rajouter du texte à mon image, je clique sur texte, je clique dans l'image, je tape mon texte. Je veux fermer le dialogue, je clique ailleurs dans l'image; ça crée une autre zone de texte. Je clique en dehors de l'image, ça crée une zone de texte en dehors de l'image. Ça, aucun logiciel ne le fait, c'est juste non-intuitif. Sous Powerpoint, LibreOffice, ou n'importe quel logiciel en fait, cliquer en dehors du menu fait disparaitre le menu. Bah là, non.
Troisième exemple: j'écris "Toto" en haut, j'écris "Tutu" en bas de l'image, je me dis "en fait, je vais supprimer "Toto", alors je clique sur la gomme, et paf, ça ne marche pas, parce que la sélection est autour de Tutu. Echap? Non. Clic droit? Non. On reprend l'outil de sélection, on sélectionne autour de "Tutu"? Non, il y a maintenant deux zones sélectionnées (wtf?). C'est hyper frustrant. Mon expérience avec GIMP, c'est de passer 80% du temps à essayer de comprendre pourquoi ça n'écrit pas sur le dessin, et d'écraser ma souris en grinçant "P***ain, mais écris!".
Évidemment, GIMP n'est pas buggué. Il a juste un comportement qui est hyper non-intuitif. Ça n'est même pas qu'il est mal conçu, c'est qu'il est juste trop "pensé", comme si c'était mal de faire comme les autres logiciels, comme s'il fallait en quelque sorte "payer" le droit d'utiliser les fonctions de base en pleurant des larmes de frustration.
C'est nettement plus facile à dire qu'à faire, mais les designers, normalement, ils prennent un échantillon des clients potentiels du logiciel, ils les mettent devant, et ils leur demandent de faire un tâche simple (passer la photo en noir et blanc, la tourner de 90°, etc). Ils prennent des notes sur ce que les gens font, et font évoluer le logiciel pour que ce que les gens font intuitivement fasse en fait ce que c'est sensé faire.
Encore une fois, l'argument du public visé, de l'originalité, de la dette technique, tout ça s'entend. Mais les réponses du style "je ne vois pas ce qui ne va pas dans l'interface avec Gimp", c'est quand même bizarre, parce qu'en tout cas pour moi ce qui ne va pas, ça me crève les yeux : le truc ne fait juste pas ce que tu lui demandes de faire, et les raisons pour lesquelles il ne le fait pas sont incompréhensibles. C'est une sorte de vi en mode graphique, en fait :-) J'utilise souvent vi et je m'en sors honorablement la plupart du temps, mais en effet, la complexité de son interface me semble quand même évidente.
Cadre sup dans une entreprise de tech vs logicien muni d'une thèse de philo. C'est vrai, après tout, le dir com de Total a des argument 'achement intéressants sur le changeent climatique, pourquoi on écoute les climatologues? D'ailleurs, ceux qui disent que la com de Total est creuse et "greenwhashed" doivent manquer d'intelligence, c'est la seule explication. Heureusement que ni66 a tout plein d'intelligence à revendre.
Ben il est pas pour toi, t'es toujours limité à 90.
Je connais plein d'endroits comme ça; je ne sais pas si je suis une AI mais ça me fait bugguer aussi.
J'ai peur que la conduite autonome, encore pour un certain temps, ne puisse pas vraiment se régler sans une carte GPS de bonne qualité, par rapport à laquelle les informations des caméras seront analysées. On peut aussi envisager que les voitures partagent les "points noirs", qui pourront être mis à jour à la main.
Pour le mec qui se ballade avec un panneau stop, c'est de toutes manières un problème pour tout le monde. On peut imaginer une blague avec un faux panneau stop, avec un panneau stop orange et pas rouge, etc. Les situations ambigües, c'est souvent, même pour les humains. Ce matin, c'était un ouvrier sur un chantier qui faisait signe aux voitures de passer au feu rouge dans une zone où on ne pouvait plus se croiser à cause du chantier. Il n'y a pas besoin de consulter le code pour savoir que si un flic mal luné passe par là, l'excuse du Village People torse nu avec son casque qui fait signe de passer, ça ne va pas marcher des masses. La voiture autonome va avoir tendance à être prudente et à rester bloquée à un feu coincé au rouge, pas exemple. C'est normal, et c'est même ce qu'on lui demande.
Si on veut que la voiture autonome force le passage dans les embouteillages, alors il faudra aussi assumer les bosses sur la carrosserie. Je croyais que l'idée, c'était de conduire mieux qu'un humain, pas de se comporter comme un parisien au volant.
Et puis, son truc, ça n'est pas censé être une expérience de pensée. En vrai, si on colle une voiture autonome sur la place de l'étoile, il se passe quoi? Parce que oui, elle pourrait peut-être rester bloquée, mais a-t-il vraiment essayé? Si ça se trouve elle s'en sort honorablement. C'est ça le problème avec les préjugés, on construit ses arguments sur ce qu'on pense qu'il est possible qu'il soit vrai, ça ne fait pas beaucoup avancer les choses.
C'est pareil pour l'évaluation du bénéfice/risque d'une IA : il faut la faire même si on sait que le résultat de l'évaluation sera impacté par les externalités que tu cites.
Bah du coup, franchement, je ne vois pas. Ce n'est pas la météo que tu demandes, pour la météo, on a un modèle physique, et des exabytes de données mondiales sur des dizaines d'années d'archives pour calibrer les modèles. Là, il faut juste prédire le futur de l'humanité. Tu vas interroger des dizaines d'experts dans plein de domaines qui vont te raconter un peu ce qu'ils veulent, et après tu vas devoir intégrer ça.
Tu vas avoir au moins quatre cas, en fait. Un cas où l'IA ne fait qu'améliorer un algorithme existant. Typiquement, les prévisions météo. Dans ce cas, ce n'est pas très dur d'imaginer ce que serait un monde avec de meilleures prévisions météo, et ça ne fait pas très peur. Tu peux aussi avoir des moteurs de recherche encore plus performants, ça fait un peu peur mais pas tant que ça, et ça aurait très bien pu exister sans IA.
Le deuxième cas, c'est quand on ne voit pas quel est le bénéfice, sauf pour des activités illégales. Par exemple, un générateur de spam, ou une analyse de vidéo qui permet de reconstituer le code des CB à partir du mouvement des bras des gens qui tapent leur code. OK, donc ces IA sont à bannir, mais ces IA ne seront probablement jamais distribuées dans le cadre légal qui permettrait à l'État de les contrôler.
Le troisième cas, c'est une IA qui va remplacer le boulot d'un humain, dans le démarchage téléphonique, les hotlines, les cabinets de conseil, les administrations, etc. Là, il ne va pas y avoir trop d'effets directs, à part celui d'avoir un service plus fiable, plus reproductible, plus rapide, 24h/24, etc. Bien sûr, l'IA va aussi parfois faire des erreurs, mais probablement moins que les humains. Les externalités ne sont "que" sociales, et le dilemme est insoluble (on le sait, parce qu'on n'a jamais été capables de le résoudre pour les machines et les robots) : on décharge des gens d'une tâche répétitive, on améliore la rentabilité des entreprises et souvent la qualité du service, mais on prive des gens d'emploi; et gnagna chômage, et gnagna partage du temps de travail, et gnagna croissance, et gnagna néolibéralisme, et gnagna valeur travail, etc. Aucun consensus n'existera jamais sur ces questions; si on fait un moratoire le temps de décider qu'on n'arrivera jamais à se décider, les US ont pris 10 ans d'avance et + 50% de PIB par rapport à nous, le marché sera de toutes manières dominé par de nouveaux GAFAM, et on n'y aura rien gagné.
Le quatrième cas, c'est les nouveaux services, qui ne remplacent rien de ce qui existe. Alors là, boite noire totale, on ne peut rien prédire, il n'y a aucun cadre, aucun modèle, c'est tout du pifomètre. Par contre, ce qui est certain, c'est que les pays qui auront autorisé ces nouveaux marchés vont bénéficier d'un boom économique, et qu'ils domineront le monde sur les 50 prochaines années. Nous on n'aura peut-être pas accès à ces technologies, ou seulement sur le darknet, et on sera heureux, si on arrive collectivement à gérer le déclassement dans le bonheur.
Franchement, j'exagère à peine. Je pense qu'il est juste totalement impossible d'évaluer l'impact d'une technologie sur l'avenir. En essayant de faire ça, on va passer à côté des vrais problèmes, on va se faire doubler économiquement et technologiquement, ça ne nous amènera qu'à des débats stupides du style "technophile" vs "grand-mère à moustaches" sur lesquels on n'arrivera jamais à un consensus.
Par "vrai problème", j'entends par exemple une loi qui interdit à un système automatique d'interagir avec un humain sans clairement s'identifier comme un système automatique, et une autre loi qui interdit de diffuser un document sans clairement l'identifier comme généré par un système automatique (et de faire des délits de ces actions, au même niveau que la tromperie ou l'escroquerie). Mais ça, ça concerne tous les algorithmes, donc pas besoin de parler d'IA.
Ce n'est pas tout à fait ça, mais est-ce que ce ne serait pas possible de mettre une copie de sa carte d'identité dans un PDF avec dedans du code pour que, après une date donnée, au lieu de la carte d'identité, ce soit un message genre « copie expirée » qui s'affiche ?
Et du coup, quand les services fiscaux contactent la banque pour connaitre l'identité du titulaire du compte qui vient de récupérer 200 Btc, la banque répond qu'elle n'arrive plus à ouvrir le pdf qui contient la copie du passeport?
Si tu vas par là, un filigrane se retire aussi assez facilement. Tout marquage numérique sautera également avec une impression / scan. Dès que tu transmets une copie du fichier ou une copie papier, la confidentialité est cassée, et toute "solution" est facilement contournable.
C'était un peu ironique, mais tu proposes d'éviter un problème difficile (débattre de la définition de l'intelligence) pour attaquer un problème qui est autrement plus difficile (définir bénéfique/délétère en prenant en compte les externalités éthiques, sociales, techniques, environnementales, et économiques). Je suis d'avis que le problème 2 est totalement insoluble (trop de variables et trop de scénarios imprévisibles).
Quand les RN de chatGPT tournent, ils ne font qu'un travail statistique, rien de plus.
Tu sembles bien certain que quand tu écris ces mots, tes neurones font autre chose qu'un travail statistique. Moi ça ne me parait pas du tout évident.
Ce qui est clair, c'est que le fonctionnement du cerveau est très différent du fonctionnement d'un ordinateur, et sera probablement encore très différent pour plusieurs siècles. Donc si tu décides qu'il faut un cerveau ou un structure très similaire pour pouvoir parler d'intelligence ou de conscience, tu réponds déja à la question: par principe, tu refuses d'envisager la possibilité qu'un ordinateur qui ne fait que du calcul ou des statistiques par définition, puisse être considéré comme conscient ou intelligent.
Personnellement, je trouve cette définition trop facile, parce qu'elle contient la réponse. Je considère comme conscient ou intelligent tout système qui agit conformément à ce qu'on pourrait attendre d'un être conscient ou intelligent—c'est une définition fonctionnaliste. Du coup, ChatGPT possède en grande partie les propriétés d'un système intelligent: il est capable de fournir une réponse adaptée en langage naturel à une grande diversité de requêtes, il est capable de s'adapter en fonction du contexte, il peut être créatif, etc. Il n'est peut-être pas équivalent à une intelligence humaine, mais il coche tellement de cases que je n'ai aucun scrupule à l'appeler "intelligent". Par contre, je suis d'accord aussi pour dire qu'en terme de conscience, c'est très douteux (mais le problème est aussi plus difficile, parce que même le fonctionnaliste le plus convaincu ne qualifierait pas de "conscient" un système qui ne fait que simuler ostensiblement la conscience, et par contraste il ne qualifierait pas de "non conscient" un système conçu pour affirmer de manière stéréotypée qu'il n'est pas conscient, comme la programmation de ChatGPT l'impose).
Et pour revenir à la première affirmation, je suis complètement d'accord avec l'idée que mon cerveau fait des statistiques et du traitement de données la plupart du temps. Quand j'écris "la plupart du temps", je fais du chatGPT, je sais que "la plupart" est associé statistiquement à "du temps", je ne réfléchis pas au sens de "du" dans "du temps". J'ai entendu ou lu cette expression des milliers de fois, comme chatGPT, et mes neurones complètent la phrase, comme chatGPT. Je ne vois pas ce que j'ai de supérieur à chatGPT sur cette tâche précise (finir une phrase).
Faut arrêter à balancer du "manque de respect" dès qu'on appeler un chat, un chat.
Appelle ça "manque d'humilité" si tu préfères. Mais affirmer que le deep learning c'est la même chose qu'avant mais avec plus de données, ce n'est pas de la vulgarisation scientifique correcte. Prétendre qu'on pouvait prévoir qu'il serait impossible d'analyser le langage natural avec un système expert, c'est un manque d'humilité. Il confond ce qu'on peut comprendre maintenant qu'on sait, et ce qu'on pouvait prévoir quand on ne savait pas.
Par contre, il y a un point super-important qu'il n'a pas vraiment évoqué, c'est la sur-communication. Beaucoup d'algorithmes présentés comme des IA ne sont pas des IA, beaucoup d'algorithmes présentés comme du deep-learning ne sont pas du deep-learning, etc. Par ailleurs, entrainer un algorithme correctement nécessite beaucoup de compétence, parce que certains algorithmes sont peu autonomes pour l'apprentissage. Associer IA et autonomie d'apprentissage est d'ailleurs un peu douteux, mais c'est une question de définition. Pour moi, Dall-E est un vrai algo d'IA (il simule une intelligence complexe), mais il est incapable d'apprendre tout seul, il lui faut des données annotées. Par contre, AlphaChess apprend tout seul, mais je ne suis pas sûr que ça soit une IA.
Parce qu'on aura codé la chose, oui. Une IA réelle apprendrait par elle-même mais ce qu'il y a actuellement n'est pas foutu de se "corriger". Bon exemple pour montrer le manque d'intelligence en soit.
Trois choses qui n'ont rien à voir:
1) Coder vs Apprendre tout seul. C'est une fausse dichotomie. On va évidemment coder l'apprentissage autonome, mais un fois l'apprentissage autonome codé, ça va marcher tout seul.
2) Les AI actuelles ne savent pas apprendre. C'est largement faux, on a déja évoqué les "alphaChess" et collègues, qui sont totalement autonomes une fois qu'ils connaissent les règles; ChatGPT apprend très bien (quand il dit un truc faux, il suffit de lui expliquer pourquoi et il adapte sa réponse). Et de toutes manières, l'apprentissage et l'IA ne sont pas la même chose. Tous les algorithmes Bayesiens (style détecteurs de spam, ou joueurs "ordinateur" dans les jeux vidéos) sont capables d'apprendre, pourtant ce ne sont pas des IA (ou alors des IA très très basiques).
3) La question n'est pas de savoir si les systèmes de conduite autonomes ont des performances comparables à un conducteur humain, puisqu'il est évident que non sur de nombreux points, la question est sur le "jamais". Tu peux donner autant d'exemples que tu veux, ça ne fait que d'enfoncer des portes ouvertes (les algos ne peuvent pas faire la différence entre un sac plastique sur lequel on peut rouler et un animal qui traverse, etc). Tout le monde le sait, ça. La question, c'est d'être incapable d'imaginer un niveau d'autonomie supérieur, et là, ça ne me semble pas évident du tout (ou pire, ça me semble évident qu'assez rapidement les algos seront capables de faire la différence, et/ou qu'ils seront au moins capables de poser la question ("je viens d'éviter un objet que je ne connais pas, est-ce que j'ai bien fait: oui/non") pour adapter leur comportement.
On peut aussi noter que les logiciels de conduite autonome sont soumis à des contraintes éthiques et réglementaires très différentes des logiciels de chatbot, et que forcément ils ont un tropisme vers la prudence. C'est ce tropisme qu'on va considérer comme "idiot", mais c'est peut⁻être le goût du risque de certains humains qui est objectivement "idiot". Rouler sur un sac plastique, c'est peut-être possible, mais il y a peut-être un objet dans le sac, ou le sac peut aller se coincer quelque part et endommager le véhicule, etc. C'est peut-être une situation dans laquelle il vaut mieux freiner, et se comporter comme une IA prudente, plutôt que comme un humain débile trop sûr de lui.
Même si le ton est divertissant, il y a quand même plein de raccourcis et de "rassurisme", avec parfois aussi un côté "on n'a rien inventé c'est juste des buzzwords" qui frôle le manque de respect pour les millions d'heures de R&D passées sur ces problèmes.
Les trucs majeurs qui m'ont gêné:
* On redéfinit l'intelligence au fil de l'eau de manière à exclure l'IA de ce qu'est "intelligent". Au XVIe siècle, faire une addition était propre à l'intelligence humaine. Quand on a inventé une machine qui le faisait, alors on a décidé qu'en fait c'était bête. Au XIXe siècle, le jeu d'échecs était le summum de l'intelligence humaine. Quand on a inventé un ordinateur capable de battre les humains, on a décidé qu'en fait les échecs ça n'était que du calcul. C'est le même argument fallacieux que "Dieu est dans les trous": il y a 500 ans, on ne comprenait pas grand chose du monde et Dieu était l'explication à tout; maintenant il ne reste que quelques îlots d'ignorance (début de l'univers, apparition de la vie), et il a fallu sans cesse changer les définitions pour lui laisser une place. Bref, redéfinir l'intelligence au fur et à mesure pour exclure de l'intelligence les choses que les ordinateurs sont capables de faire est fallacieux, et c'est pourtant exactement le discours qui est tenu.
* Les IA sont bonnes à une tâche alors que les humains peuvent tout faire: déja ce n'est pas tout à fait vrai, parce que les humains ont besoin de formation et que certains humains ne seront jamais capables de faire certaines tâches indépendamment de la formation qu'ils reçoivent (devenir virtuose pour un instrument, ou sportif de haut niveau). Ensuite, en grande partie faux pour la série des "alpha" qui est pourtant utilisée comme exemple, puisque AlphaChess et AlphaGo sont (à peu près) le même algorithme, entrainé sur des jeux différents. C'est quand même très similaire à des humains entrainés à parler Allemand ou Cantonais. Enfin, l'argument ne fonctionne pas pour ChatGPT, puisque certes ChatGPT ne peut faire "que" de la conversation, mais il peut tenir cette conversation dans plusieurs langues, il peut fournir du code, créer de la musique, de la poésie, des oeuvres de fiction. Bref, c'est assez débile de dire qu'il est monotâche parce qu'il ne communique ses créations que par le biais de texte; un scénariste de série TV et un chercheur en physique quantique vont aussi communiquer par des textes alors que les tâches sous-jacentes représentent toute la diversité de la création humaine.
* Le "rassurisme" est basé sur la négation du concept d'émergence; c'est très pratique pour faire de la rhétorique bien sûr, parce que le discours passe très bien, mais c'est hyper-douteux épistémologiquement parlant. Il y a du carbone et de l'azote partout dans notre environnement; vous n'allez pas avoir peur d'une molécule composée d'un atome de carbone et d'un atome d'azote. La vie est constituée de molécules organiques dont on connait la composition et qui n'ont rien de particulier, aucune raison d'imaginer que le vivant ait des propriétés différente des autres objets du monde physique, etc. Bref, l'argument de "ce n'est qu'une histoire de degrés", c'est un argument hyper fragile, parce qu'on sait que c'est un argument faux dans de nombreuses situations, et le comportement d'un système complexe ne varie pas linéairement avec sa complexité.
* De nombreux arguments reposent sur un manque d'imagination. Par exemple, il est affirmé que jamais (en insistant sur "jamais") un système de conduite autonome serait capable de distinguer un vrai panneau STOP d'un mec qui porte un panneau STOP, alors que l'humain le fait trivialement. Outre le fait que c'est probablement faux pour l'humain (par exemple, la situation dans laquelle des ouvriers sont en train de poser un panneau STOP me semble insoluble pour un humain), il ne me semble pas du tout inconcevable qu'un algo puisse correctement trancher entre "il y a un stop" et "il n'y a pas de stop" dans cette situation. Il va intégrer des informations (absence ou présence de ligne de stop sur le sol, le panneau n'était pas là 3 secondes plus tôt, il semble associé au référentiel d'un piéton mais pas au référentiel du trottoir, etc), et du coup, l'idée de "jamais possible" dans un tel contexte me semble hyper-douteuse.
* Enfin, l'argumentation présuppose un rejet du fonctionnalisme, alors qu'à ma connaissance la majorité des gens qui travaillent dans ou sur l'IA sont fonctionnalistes (peut-être parce que c'est la seule option opérationnelle dans lequel le concept d'IA a un sens). Si on n'est pas fonctionnaliste, par définition, l'intelligence ou la conscience ne peut pas exister en dehors d'un cerveau. Donc, par définiton, l'IA ne peut pas exister. C'est une conclusion qui dépend des prémisses, il n'y a rien de bien transcendant.
Bon, bref, c'est distrayant, mais c'est quand même aussi beaucoup pas terrible et pas bien profond. La prémisse de la reflexion, c'est qu'il n'y a pas de problème, donc on peut accumuler des platitudes en changeant les définitions, en affirmant que telle ou telle tâche est absolument impossible à automatiser, etc., mais ça reste un procédé rhétorique, pas un moyen de comprendre la réalité et d'anticiper le potentiel (positif ou négatif) des systèmes qu'on appelle "IA".
mais en prenant soin qu'on ne puisse pas formellement m'identifier comme l'auteur d'une rediffusion qui pourrait être attaquée par des copyfraudeurs.
Il y a plus simple: faire en sorte qu'il soit difficile de prouver l'origine de la photo (retirer les marques identifiables et réajuster le cadrage et la balance des blancs, par exemple). C'est le genre de cas ou l'auteur ne peut pas prouver qu'il est l'auteur, donc ça ne peut pas aller bien loin.
Faut quand même oser publier ça de la part du ministère. Il n'y a aucune jurisprudence depuis plus de 20 ans justement parce qu'il n'y a plus de poursuites. Wikipédia a pour doctrine de passer en domaine public toutes les reproductions d'œuvres du DP (y compris les scans de livres vendus par les musées par exemple), et à ma connaissance il n'y a jamais eu aucun problème. D'ailleurs, ça poserait même un problème technique, puisque le photographe "officiel" serait bien en mal de prouver qu'il est l'auteur de la photo sans watermarking ou autre méthode d'identification (face à quelqu'un qui prétendrait avoir pris la photo lui-même par exemple); or, le recours à une telle méthode prouverait par elle-même la non-originalité.
Par contre, ce qui est vrai (et navrant), c'est que le conseil d'État a validé la démarche d'exclusivité imposée par certains musées: justement, parce que la reproduction d'une oeuvre dans le domaine public n'ouvre pas de droits d'auteur, les musées ont le droit, pour protéger leur patrimoine, de ne pas donner accès à leurs collection, ou d'en restreindre l'accès ou l'éclairage pour s'assurer que des reproductions ne peuvent pas circuler. C'est profondément débile, mais le propriétaire du support a le droit de faire ça.
Tu peux sûrement nous donner les sources de toutes ces affirmations.
Tu fais dans l'argumentation hypercritique maintenant? Genre en une phrase tu me demandes 1/2h de boulot parce que tu as la flemme de chercher par toi-même?
1) Fermeture d'un compte par une banque. Aucune justification nécessaire, juste un préavis à respecter
Votre assureur a aussi le droit de résilier votre contrat d'assurance habitation sans pénalité.
Il peut le faire à l'échéance annuelle ou pour des motifs prévus par le contrat ou par la loi.
4) Filtrage par le FAI: Si tu veux la liste des blocages IP ou DNS par FAI… et bien ça n'est pas public. La seule chose que les FAI admettent, c'est qu'ils font du blocage IP "pour la sécurité des abonnés". Je ne pense pas qu'il soit possible de savoir combien d'IP sont bannies, ni les raisons (pour les injonctions légales, c'est en général du blocage DNS, donc j'imagine que le blocage IP c'est plutôt de l'initiative du FAI).
Les banques et les assurances peuvent par exemple refuser de reconduire un contrat sans donner de raison, mais en effet, il doit y avoir une subtilité parce que le refus de vente n'est pas légal.
Pour le FAI, refuser les requêtes vers certains sites c'est une manière comme une autre de choisir ses clients, et ça peut être légitimes pour des raisons économiques ou techniques.
Jamais au grand jamais il ne devrait être nécessaire pour participer à la vie en communauté de justifier son identité, ou de la possession d'un téléphone.
Désolé, mais ça, c'est n'importe quoi. Il faut justifier de son identité pour participer à la vie démocratique (voter, se présenter aux élections, faire campagne, organiser des réunions, fonder et participer à une association, signer une pétition officielle…). Dans une réunion de quartier, personne ne vient cagoulé, il faut justifier du fait qu'on habite dans la commune. Cette histoire d'anonymat, c'est totalement fantasmé, dans l'histoire, jamais l'anonymat n'a été associé à la vie en communauté. Typiquement, l'anonymat, c'est pour les complots, les pamphlets, la résistance, les tracts de propagande, et la rhétorique révolutionnaire; c'est tout sauf la vie en communauté.
Le gouvernement français a tous les outils pour demander un blocage administratif. Bien sûr, il sera toujours techniquement possible de le contourner, mais si le site perd 90% de ses trolls, ça sera bien pour tout le monde.
Il semble d'ailleurs que certains FAI dans le monde ont spontanément coupé l'accès; ce n'est pas vraiment le rôle d'un FAI mais sur le principe ça ne me choque pas; un FAI peut aussi choisir ses clients, et ça peut même avoir une base rationnelle (typiquement, limiter le nombre de requêtes envoyées par la justice).
ça identifie un foyer, et avec les récurrences tu trouves facilement qui dans le foyer; et dans le cas de réseau sociaux, c'est même l'IP du téléphone.
L'identification par IP, c'est un niveau d'identification très, très crade. Ça a très difficilement valeur de preuve; pour les poursuites de type terrorisme, tu peux mobiliser 3 fonctionnaires pour faire une enquête, pour du harcèlement, des insultes, de l'incitation à la haine, c'est terriblement contre-productif.
Je ne vois franchement pas le problème fondamental avec une identification stricte via un tiers de confiance. Tu as un site officiel, type gouvernemental, qui connait ton identité (style le truc pour les impôts). Quand tu t'inscris à un site qui permet de publier quelque chose, on te demande une clé unique, que tu récupères sur le site institutionnel (via une redirection, ou par copier-coller si tu as peur d'être pisté). Quand une infraction est constatée (à la suite d'un dépot de plainte par exemple), la police envoie une requête à l'hébergeur, qui renvoie la clé. La police n'a plus qu'à interroger le site gouvernemental pour remonter à ton identité, avec une traçabilité de la demande (quel fonctionnaire, à quelle heure, dans le cadre de quel dossier). Et paf, ça fait des chocapics.
Et au passage, ça permettrait aussi de passer obligatoirement par les parents pour l'inscription des mineurs à ce genre de sites.
Il n'y a rien de débile à ce genre de lois. La liberté d'expression n'a jamais nécessité l'anonymat, et surtout pas l'absence de traçabilité; la liberté d'expression ne peut pas exister sans que la responsabilité vis-à-vis des délits de presse soit opérationnelle.
[^] # Re: d'un Z qui veut dire …
Posté par arnaudus . En réponse au journal Poursuites contre z-library : l'accès à la connaissance est un droit humain. Évalué à 3.
Tu veux dire que le livreur ne va pas balancer le colis par dessus la barrière?
Si c'est le cas, il faudrait que je trouve un dealer qui vend des bouquins et des bobines de PLA.
# Titre vs contenu de l'article
Posté par arnaudus . En réponse au lien Comment Elon Musk et Starlink ont, pour 400 millions de dollars, "trahi" l'armée ukrainienne. Évalué à 7. Dernière modification le 23 août 2023 à 16:09.
C'est bizarre, l'article dit un peu le contraire du titre. Musk semble avoir commencé à râler et à dire qu'il voulait être payé après (i) qu'il ait été avéré que Starlink était utilisé par les unités engagées au front (et que la guerre c'est caca, tout ça), (ii) que des responsables Chinois lui ont un peu expliqué que ça se pourrait bien que les Tesla se vendent moins bien du côté de Pékin si Vladimir était fâché, et (iii) il a eu Vladimir lui-même au téléphone, et que ça l'a un peu refroidi (peut-être lui a t-on expliqué qu'il ferait mieux d'intégrer les techniques de résistance au plutonium à son programme d'entrainement au MMA).
Du coup, ce que je comprends, c'est que le pognon, c'est une excuse, et que pour tout un tas de raisons inavouables, ses amis dictateurs lui ont fait comprendre qu'aider l'Ukraine n'était pas très bon pour les affaires (et pour la santé).
[^] # Re: d'un Z qui veut dire …
Posté par arnaudus . En réponse au journal Poursuites contre z-library : l'accès à la connaissance est un droit humain. Évalué à 7.
Le principe d'un abonnement Premium pour distribuer de la contrefaçon ne te choque pas? Ce n'est pas un appel aux dons pour faire tourner un serveur associatif, c'est un abonnement commercial pour accéder à un service ostensiblement illégal. La prochaine étape, c'est quoi? Amashit Prime, avec une livraison en scooter en moins de 24h contre un abonnement exclusif au dealer? Ou bien un paywall cookies vs. abonnement pour un site pédoporno? La philosophie de Z-library, c'est l'anarcho-ultralibéralisme? Les recettes du capitalisme non-régulé appliquées aux activités illicites?
Je ne suis même pas en train de dire que ça n'existe pas, puisque bien sûr la contrefaçon est très largement industrialisée depuis Megaupload et compagnie; ce qui me choque c'est de tenter l'histoire de l'"accès à la connaissance". Mais bien sûr, les films de boule en streaming sur des serveurs plein de pubs, c'est aussi pour la culture. Je trouve ça assez irrespectueux pour les vrais militants qui essayent de limiter les dérives de l'"industrie de la culture"…
[^] # Re: d'un Z qui veut dire …
Posté par arnaudus . En réponse au journal Poursuites contre z-library : l'accès à la connaissance est un droit humain. Évalué à 5.
C'est marrant quand même, la contrefaçon c'est acceptable quand on veut récupérer une œuvre commerciale, même si un intermédiaire se fait du beurre dessus, par contre, la contrefaçon d'un logiciel libre c'est le capitalisme qui habite Satan.
L'idée du droit d'auteur, c'est qu'il est amoral. L'auteur décide des modalités de diffusion de sa création; s'il le souhaite il l'échange contre de l'argent, s'il le souhaite il le diffuse gratuitement, avec ou sans restrictions. Moi, dans cette histoire, je ne vois qu'un site parasite, qui monnaie l'accès à des œuvres qu'il n'a pas le droit de distribuer.
Il y a un gouffre quand on compare à sci-hub, puisque sci-hub diffuse des pdf d'articles scientifiques à perte (pas de revenus), et les œuvres distribuées le sont avec la bénédiction des auteurs (qui ne sont pas rémunérés sur les profits des éditeurs).
[^] # Re: Faut-il vraiment faire confiance à CHATGPT pour ce genre de choses ?
Posté par arnaudus . En réponse au lien Shai : assistant de ligne de commande. Évalué à 2. Dernière modification le 22 août 2023 à 15:32.
Tout dépend de ce que tu veux. Si tu veux un avis un peu random, comme tu aurais eu sur un forum ou en demandant à ton collègue de bureau, ChatGPT fait parfaitement le job. Si tu veux la réponse qu'aurait donné un des développeurs du projet, alors non : chatGPT ne peux pas connaitre la réponse à une question qui ne peut être répondue que par un spécialiste.
[^] # Re: UI
Posté par arnaudus . En réponse à la dépêche Sortie de GIMP 2.99.16 : édition Wilber Week 2023 !. Évalué à 2.
20 ans de recherches Google peuvent facilement remplacer la doc, ça n'est pas un signe d'interface intuitive.
Un outil en ligne de commande, tu sais que tu vas devoir lire une doc pour comprendre comment il marche. Un logiciel muni d'une interface graphique, tu peux légitimement t'attendre à pouvoir l'utiliser sans aller suivre une formation. Ça marche aussi pour les jeux par exemple; souvent, les jeux commerciaux sont conçus pour être utilisables directement, ce qui n'est pas le cas de tous les jeux non-commerciaux.
Oui, mais ça c'est lié à la mauvaise utilisation des outils. C'est une question de philosophie, soit le logiciel t'interdit de faire ce genre de choses, mais du coup il est limitant, soit il l'autorise, et du coup il permet de produire des fichiers irrécupérables. Avec Gimp tu peux aussi encoder une image avec un pixel par layer, ça ne va pas être facilement manipulable non plus.
Tu veux dire que tu penses qu'il n'est pas possible de créer un document Latex irrécupérable? :-)
GIMP est scriptable…
Une interface AI du type "chatbot" me semblerait tout à fait faisable, avec des séries de commandes séquentielles ("éclaicis un peu l'image", "diminue le contraste à l'arrière plan", "retire les fils électriques", "non, tu as retiré les cheveux des personnes, seulement les fils électriques", etc.).
[^] # Re: UI
Posté par arnaudus . En réponse à la dépêche Sortie de GIMP 2.99.16 : édition Wilber Week 2023 !. Évalué à 3. Dernière modification le 21 août 2023 à 18:23.
Je pense qu'il est habituel de partir du principe qu'un logiciel muni d'une GUI, c'est comme un site web, ça ne nécessite pas de doc ou de tutoriel pour comprendre son fonctionnement, ce qui ne marche pas vraiment avec GIMP. Justement, GIMP pourrait aussi trouver son public auprès d'utilisateurs occasionnels, via une interface simplifiée par exemple. Ce n'est pas la direction qui est prise, et il n'y a rien de mal à ça, mais du coup il ne faut pas s'étonner que certains se plaignent de son interface (en tout cas, en tant qu'utilisateur occasionnel, je trouve son interface souvent très frustrante).
Exemple typique: j'ouvre une image avec Gimp pour trouver un exemple, bah je l'ai tout de suite: il n'y a pas de barres d'outils. J'ai dû les fermer en me gourant de fenêtre la dernière fois ou quelque chose comme ça. J'ai cliqué au pif dans Windows -> Toolbox et j'ai retrouvé une partie des trucs, mais franchement, je pense que personne ne veut ouvrir un logiciel et ne rien voir. Si moi je dois aller farfouiller pour même de faire quoi que ce soit, quelqu'un d'un peu moins habitué aux ordinateurs n'arrivera jamais à commencer.
Deuxième exemple: je veux rajouter du texte à mon image, je clique sur texte, je clique dans l'image, je tape mon texte. Je veux fermer le dialogue, je clique ailleurs dans l'image; ça crée une autre zone de texte. Je clique en dehors de l'image, ça crée une zone de texte en dehors de l'image. Ça, aucun logiciel ne le fait, c'est juste non-intuitif. Sous Powerpoint, LibreOffice, ou n'importe quel logiciel en fait, cliquer en dehors du menu fait disparaitre le menu. Bah là, non.
Troisième exemple: j'écris "Toto" en haut, j'écris "Tutu" en bas de l'image, je me dis "en fait, je vais supprimer "Toto", alors je clique sur la gomme, et paf, ça ne marche pas, parce que la sélection est autour de Tutu. Echap? Non. Clic droit? Non. On reprend l'outil de sélection, on sélectionne autour de "Tutu"? Non, il y a maintenant deux zones sélectionnées (wtf?). C'est hyper frustrant. Mon expérience avec GIMP, c'est de passer 80% du temps à essayer de comprendre pourquoi ça n'écrit pas sur le dessin, et d'écraser ma souris en grinçant "P***ain, mais écris!".
Évidemment, GIMP n'est pas buggué. Il a juste un comportement qui est hyper non-intuitif. Ça n'est même pas qu'il est mal conçu, c'est qu'il est juste trop "pensé", comme si c'était mal de faire comme les autres logiciels, comme s'il fallait en quelque sorte "payer" le droit d'utiliser les fonctions de base en pleurant des larmes de frustration.
C'est nettement plus facile à dire qu'à faire, mais les designers, normalement, ils prennent un échantillon des clients potentiels du logiciel, ils les mettent devant, et ils leur demandent de faire un tâche simple (passer la photo en noir et blanc, la tourner de 90°, etc). Ils prennent des notes sur ce que les gens font, et font évoluer le logiciel pour que ce que les gens font intuitivement fasse en fait ce que c'est sensé faire.
Encore une fois, l'argument du public visé, de l'originalité, de la dette technique, tout ça s'entend. Mais les réponses du style "je ne vois pas ce qui ne va pas dans l'interface avec Gimp", c'est quand même bizarre, parce qu'en tout cas pour moi ce qui ne va pas, ça me crève les yeux : le truc ne fait juste pas ce que tu lui demandes de faire, et les raisons pour lesquelles il ne le fait pas sont incompréhensibles. C'est une sorte de vi en mode graphique, en fait :-) J'utilise souvent vi et je m'en sors honorablement la plupart du temps, mais en effet, la complexité de son interface me semble quand même évidente.
[^] # Re: pas si simple
Posté par arnaudus . En réponse au lien FUN : L’intelligence artificielle n’existe pas, par Luc Julia. Évalué à 1.
Cadre sup dans une entreprise de tech vs logicien muni d'une thèse de philo. C'est vrai, après tout, le dir com de Total a des argument 'achement intéressants sur le changeent climatique, pourquoi on écoute les climatologues? D'ailleurs, ceux qui disent que la com de Total est creuse et "greenwhashed" doivent manquer d'intelligence, c'est la seule explication. Heureusement que ni66 a tout plein d'intelligence à revendre.
[^] # Re: Vu, et pas complètement approuvé
Posté par arnaudus . En réponse au lien FUN : L’intelligence artificielle n’existe pas, par Luc Julia. Évalué à 4.
Je connais plein d'endroits comme ça; je ne sais pas si je suis une AI mais ça me fait bugguer aussi.
J'ai peur que la conduite autonome, encore pour un certain temps, ne puisse pas vraiment se régler sans une carte GPS de bonne qualité, par rapport à laquelle les informations des caméras seront analysées. On peut aussi envisager que les voitures partagent les "points noirs", qui pourront être mis à jour à la main.
Pour le mec qui se ballade avec un panneau stop, c'est de toutes manières un problème pour tout le monde. On peut imaginer une blague avec un faux panneau stop, avec un panneau stop orange et pas rouge, etc. Les situations ambigües, c'est souvent, même pour les humains. Ce matin, c'était un ouvrier sur un chantier qui faisait signe aux voitures de passer au feu rouge dans une zone où on ne pouvait plus se croiser à cause du chantier. Il n'y a pas besoin de consulter le code pour savoir que si un flic mal luné passe par là, l'excuse du Village People torse nu avec son casque qui fait signe de passer, ça ne va pas marcher des masses. La voiture autonome va avoir tendance à être prudente et à rester bloquée à un feu coincé au rouge, pas exemple. C'est normal, et c'est même ce qu'on lui demande.
Si on veut que la voiture autonome force le passage dans les embouteillages, alors il faudra aussi assumer les bosses sur la carrosserie. Je croyais que l'idée, c'était de conduire mieux qu'un humain, pas de se comporter comme un parisien au volant.
Et puis, son truc, ça n'est pas censé être une expérience de pensée. En vrai, si on colle une voiture autonome sur la place de l'étoile, il se passe quoi? Parce que oui, elle pourrait peut-être rester bloquée, mais a-t-il vraiment essayé? Si ça se trouve elle s'en sort honorablement. C'est ça le problème avec les préjugés, on construit ses arguments sur ce qu'on pense qu'il est possible qu'il soit vrai, ça ne fait pas beaucoup avancer les choses.
[^] # Re: pas si simple
Posté par arnaudus . En réponse au lien FUN : L’intelligence artificielle n’existe pas, par Luc Julia. Évalué à 3.
Bah du coup, franchement, je ne vois pas. Ce n'est pas la météo que tu demandes, pour la météo, on a un modèle physique, et des exabytes de données mondiales sur des dizaines d'années d'archives pour calibrer les modèles. Là, il faut juste prédire le futur de l'humanité. Tu vas interroger des dizaines d'experts dans plein de domaines qui vont te raconter un peu ce qu'ils veulent, et après tu vas devoir intégrer ça.
Tu vas avoir au moins quatre cas, en fait. Un cas où l'IA ne fait qu'améliorer un algorithme existant. Typiquement, les prévisions météo. Dans ce cas, ce n'est pas très dur d'imaginer ce que serait un monde avec de meilleures prévisions météo, et ça ne fait pas très peur. Tu peux aussi avoir des moteurs de recherche encore plus performants, ça fait un peu peur mais pas tant que ça, et ça aurait très bien pu exister sans IA.
Le deuxième cas, c'est quand on ne voit pas quel est le bénéfice, sauf pour des activités illégales. Par exemple, un générateur de spam, ou une analyse de vidéo qui permet de reconstituer le code des CB à partir du mouvement des bras des gens qui tapent leur code. OK, donc ces IA sont à bannir, mais ces IA ne seront probablement jamais distribuées dans le cadre légal qui permettrait à l'État de les contrôler.
Le troisième cas, c'est une IA qui va remplacer le boulot d'un humain, dans le démarchage téléphonique, les hotlines, les cabinets de conseil, les administrations, etc. Là, il ne va pas y avoir trop d'effets directs, à part celui d'avoir un service plus fiable, plus reproductible, plus rapide, 24h/24, etc. Bien sûr, l'IA va aussi parfois faire des erreurs, mais probablement moins que les humains. Les externalités ne sont "que" sociales, et le dilemme est insoluble (on le sait, parce qu'on n'a jamais été capables de le résoudre pour les machines et les robots) : on décharge des gens d'une tâche répétitive, on améliore la rentabilité des entreprises et souvent la qualité du service, mais on prive des gens d'emploi; et gnagna chômage, et gnagna partage du temps de travail, et gnagna croissance, et gnagna néolibéralisme, et gnagna valeur travail, etc. Aucun consensus n'existera jamais sur ces questions; si on fait un moratoire le temps de décider qu'on n'arrivera jamais à se décider, les US ont pris 10 ans d'avance et + 50% de PIB par rapport à nous, le marché sera de toutes manières dominé par de nouveaux GAFAM, et on n'y aura rien gagné.
Le quatrième cas, c'est les nouveaux services, qui ne remplacent rien de ce qui existe. Alors là, boite noire totale, on ne peut rien prédire, il n'y a aucun cadre, aucun modèle, c'est tout du pifomètre. Par contre, ce qui est certain, c'est que les pays qui auront autorisé ces nouveaux marchés vont bénéficier d'un boom économique, et qu'ils domineront le monde sur les 50 prochaines années. Nous on n'aura peut-être pas accès à ces technologies, ou seulement sur le darknet, et on sera heureux, si on arrive collectivement à gérer le déclassement dans le bonheur.
Franchement, j'exagère à peine. Je pense qu'il est juste totalement impossible d'évaluer l'impact d'une technologie sur l'avenir. En essayant de faire ça, on va passer à côté des vrais problèmes, on va se faire doubler économiquement et technologiquement, ça ne nous amènera qu'à des débats stupides du style "technophile" vs "grand-mère à moustaches" sur lesquels on n'arrivera jamais à un consensus.
Par "vrai problème", j'entends par exemple une loi qui interdit à un système automatique d'interagir avec un humain sans clairement s'identifier comme un système automatique, et une autre loi qui interdit de diffuser un document sans clairement l'identifier comme généré par un système automatique (et de faire des délits de ces actions, au même niveau que la tromperie ou l'escroquerie). Mais ça, ça concerne tous les algorithmes, donc pas besoin de parler d'IA.
[^] # Re: PDF dynamique
Posté par arnaudus . En réponse au journal Copie d'une pièce d'identité. Évalué à 5.
Et du coup, quand les services fiscaux contactent la banque pour connaitre l'identité du titulaire du compte qui vient de récupérer 200 Btc, la banque répond qu'elle n'arrive plus à ouvrir le pdf qui contient la copie du passeport?
Si tu vas par là, un filigrane se retire aussi assez facilement. Tout marquage numérique sautera également avec une impression / scan. Dès que tu transmets une copie du fichier ou une copie papier, la confidentialité est cassée, et toute "solution" est facilement contournable.
[^] # Re: pas si simple
Posté par arnaudus . En réponse au lien FUN : L’intelligence artificielle n’existe pas, par Luc Julia. Évalué à 4.
C'était un peu ironique, mais tu proposes d'éviter un problème difficile (débattre de la définition de l'intelligence) pour attaquer un problème qui est autrement plus difficile (définir bénéfique/délétère en prenant en compte les externalités éthiques, sociales, techniques, environnementales, et économiques). Je suis d'avis que le problème 2 est totalement insoluble (trop de variables et trop de scénarios imprévisibles).
[^] # Re: pas si simple
Posté par arnaudus . En réponse au lien FUN : L’intelligence artificielle n’existe pas, par Luc Julia. Évalué à 3.
Une AI qui fait ton boulot mieux que toi, c'est dangereux ou bénéfique?
[^] # Re: pas si simple
Posté par arnaudus . En réponse au lien FUN : L’intelligence artificielle n’existe pas, par Luc Julia. Évalué à 4.
Les vidéos de Mr Phi sont en effet infiniment supérieures, de tous les points de vue, à cette conférence :-)
[^] # Re: Vu, et pas complètement approuvé
Posté par arnaudus . En réponse au lien FUN : L’intelligence artificielle n’existe pas, par Luc Julia. Évalué à 6. Dernière modification le 12 juillet 2023 à 12:26.
Tu sembles bien certain que quand tu écris ces mots, tes neurones font autre chose qu'un travail statistique. Moi ça ne me parait pas du tout évident.
Ce qui est clair, c'est que le fonctionnement du cerveau est très différent du fonctionnement d'un ordinateur, et sera probablement encore très différent pour plusieurs siècles. Donc si tu décides qu'il faut un cerveau ou un structure très similaire pour pouvoir parler d'intelligence ou de conscience, tu réponds déja à la question: par principe, tu refuses d'envisager la possibilité qu'un ordinateur qui ne fait que du calcul ou des statistiques par définition, puisse être considéré comme conscient ou intelligent.
Personnellement, je trouve cette définition trop facile, parce qu'elle contient la réponse. Je considère comme conscient ou intelligent tout système qui agit conformément à ce qu'on pourrait attendre d'un être conscient ou intelligent—c'est une définition fonctionnaliste. Du coup, ChatGPT possède en grande partie les propriétés d'un système intelligent: il est capable de fournir une réponse adaptée en langage naturel à une grande diversité de requêtes, il est capable de s'adapter en fonction du contexte, il peut être créatif, etc. Il n'est peut-être pas équivalent à une intelligence humaine, mais il coche tellement de cases que je n'ai aucun scrupule à l'appeler "intelligent". Par contre, je suis d'accord aussi pour dire qu'en terme de conscience, c'est très douteux (mais le problème est aussi plus difficile, parce que même le fonctionnaliste le plus convaincu ne qualifierait pas de "conscient" un système qui ne fait que simuler ostensiblement la conscience, et par contraste il ne qualifierait pas de "non conscient" un système conçu pour affirmer de manière stéréotypée qu'il n'est pas conscient, comme la programmation de ChatGPT l'impose).
Et pour revenir à la première affirmation, je suis complètement d'accord avec l'idée que mon cerveau fait des statistiques et du traitement de données la plupart du temps. Quand j'écris "la plupart du temps", je fais du chatGPT, je sais que "la plupart" est associé statistiquement à "du temps", je ne réfléchis pas au sens de "du" dans "du temps". J'ai entendu ou lu cette expression des milliers de fois, comme chatGPT, et mes neurones complètent la phrase, comme chatGPT. Je ne vois pas ce que j'ai de supérieur à chatGPT sur cette tâche précise (finir une phrase).
[^] # Re: Vu, et pas complètement approuvé
Posté par arnaudus . En réponse au lien FUN : L’intelligence artificielle n’existe pas, par Luc Julia. Évalué à 9. Dernière modification le 12 juillet 2023 à 12:12.
Appelle ça "manque d'humilité" si tu préfères. Mais affirmer que le deep learning c'est la même chose qu'avant mais avec plus de données, ce n'est pas de la vulgarisation scientifique correcte. Prétendre qu'on pouvait prévoir qu'il serait impossible d'analyser le langage natural avec un système expert, c'est un manque d'humilité. Il confond ce qu'on peut comprendre maintenant qu'on sait, et ce qu'on pouvait prévoir quand on ne savait pas.
Par contre, il y a un point super-important qu'il n'a pas vraiment évoqué, c'est la sur-communication. Beaucoup d'algorithmes présentés comme des IA ne sont pas des IA, beaucoup d'algorithmes présentés comme du deep-learning ne sont pas du deep-learning, etc. Par ailleurs, entrainer un algorithme correctement nécessite beaucoup de compétence, parce que certains algorithmes sont peu autonomes pour l'apprentissage. Associer IA et autonomie d'apprentissage est d'ailleurs un peu douteux, mais c'est une question de définition. Pour moi, Dall-E est un vrai algo d'IA (il simule une intelligence complexe), mais il est incapable d'apprendre tout seul, il lui faut des données annotées. Par contre, AlphaChess apprend tout seul, mais je ne suis pas sûr que ça soit une IA.
Trois choses qui n'ont rien à voir:
1) Coder vs Apprendre tout seul. C'est une fausse dichotomie. On va évidemment coder l'apprentissage autonome, mais un fois l'apprentissage autonome codé, ça va marcher tout seul.
2) Les AI actuelles ne savent pas apprendre. C'est largement faux, on a déja évoqué les "alphaChess" et collègues, qui sont totalement autonomes une fois qu'ils connaissent les règles; ChatGPT apprend très bien (quand il dit un truc faux, il suffit de lui expliquer pourquoi et il adapte sa réponse). Et de toutes manières, l'apprentissage et l'IA ne sont pas la même chose. Tous les algorithmes Bayesiens (style détecteurs de spam, ou joueurs "ordinateur" dans les jeux vidéos) sont capables d'apprendre, pourtant ce ne sont pas des IA (ou alors des IA très très basiques).
3) La question n'est pas de savoir si les systèmes de conduite autonomes ont des performances comparables à un conducteur humain, puisqu'il est évident que non sur de nombreux points, la question est sur le "jamais". Tu peux donner autant d'exemples que tu veux, ça ne fait que d'enfoncer des portes ouvertes (les algos ne peuvent pas faire la différence entre un sac plastique sur lequel on peut rouler et un animal qui traverse, etc). Tout le monde le sait, ça. La question, c'est d'être incapable d'imaginer un niveau d'autonomie supérieur, et là, ça ne me semble pas évident du tout (ou pire, ça me semble évident qu'assez rapidement les algos seront capables de faire la différence, et/ou qu'ils seront au moins capables de poser la question ("je viens d'éviter un objet que je ne connais pas, est-ce que j'ai bien fait: oui/non") pour adapter leur comportement.
On peut aussi noter que les logiciels de conduite autonome sont soumis à des contraintes éthiques et réglementaires très différentes des logiciels de chatbot, et que forcément ils ont un tropisme vers la prudence. C'est ce tropisme qu'on va considérer comme "idiot", mais c'est peut⁻être le goût du risque de certains humains qui est objectivement "idiot". Rouler sur un sac plastique, c'est peut-être possible, mais il y a peut-être un objet dans le sac, ou le sac peut aller se coincer quelque part et endommager le véhicule, etc. C'est peut-être une situation dans laquelle il vaut mieux freiner, et se comporter comme une IA prudente, plutôt que comme un humain débile trop sûr de lui.
# Vu, et pas complètement approuvé
Posté par arnaudus . En réponse au lien FUN : L’intelligence artificielle n’existe pas, par Luc Julia. Évalué à 10.
Même si le ton est divertissant, il y a quand même plein de raccourcis et de "rassurisme", avec parfois aussi un côté "on n'a rien inventé c'est juste des buzzwords" qui frôle le manque de respect pour les millions d'heures de R&D passées sur ces problèmes.
Les trucs majeurs qui m'ont gêné:
* On redéfinit l'intelligence au fil de l'eau de manière à exclure l'IA de ce qu'est "intelligent". Au XVIe siècle, faire une addition était propre à l'intelligence humaine. Quand on a inventé une machine qui le faisait, alors on a décidé qu'en fait c'était bête. Au XIXe siècle, le jeu d'échecs était le summum de l'intelligence humaine. Quand on a inventé un ordinateur capable de battre les humains, on a décidé qu'en fait les échecs ça n'était que du calcul. C'est le même argument fallacieux que "Dieu est dans les trous": il y a 500 ans, on ne comprenait pas grand chose du monde et Dieu était l'explication à tout; maintenant il ne reste que quelques îlots d'ignorance (début de l'univers, apparition de la vie), et il a fallu sans cesse changer les définitions pour lui laisser une place. Bref, redéfinir l'intelligence au fur et à mesure pour exclure de l'intelligence les choses que les ordinateurs sont capables de faire est fallacieux, et c'est pourtant exactement le discours qui est tenu.
* Les IA sont bonnes à une tâche alors que les humains peuvent tout faire: déja ce n'est pas tout à fait vrai, parce que les humains ont besoin de formation et que certains humains ne seront jamais capables de faire certaines tâches indépendamment de la formation qu'ils reçoivent (devenir virtuose pour un instrument, ou sportif de haut niveau). Ensuite, en grande partie faux pour la série des "alpha" qui est pourtant utilisée comme exemple, puisque AlphaChess et AlphaGo sont (à peu près) le même algorithme, entrainé sur des jeux différents. C'est quand même très similaire à des humains entrainés à parler Allemand ou Cantonais. Enfin, l'argument ne fonctionne pas pour ChatGPT, puisque certes ChatGPT ne peut faire "que" de la conversation, mais il peut tenir cette conversation dans plusieurs langues, il peut fournir du code, créer de la musique, de la poésie, des oeuvres de fiction. Bref, c'est assez débile de dire qu'il est monotâche parce qu'il ne communique ses créations que par le biais de texte; un scénariste de série TV et un chercheur en physique quantique vont aussi communiquer par des textes alors que les tâches sous-jacentes représentent toute la diversité de la création humaine.
* Le "rassurisme" est basé sur la négation du concept d'émergence; c'est très pratique pour faire de la rhétorique bien sûr, parce que le discours passe très bien, mais c'est hyper-douteux épistémologiquement parlant. Il y a du carbone et de l'azote partout dans notre environnement; vous n'allez pas avoir peur d'une molécule composée d'un atome de carbone et d'un atome d'azote. La vie est constituée de molécules organiques dont on connait la composition et qui n'ont rien de particulier, aucune raison d'imaginer que le vivant ait des propriétés différente des autres objets du monde physique, etc. Bref, l'argument de "ce n'est qu'une histoire de degrés", c'est un argument hyper fragile, parce qu'on sait que c'est un argument faux dans de nombreuses situations, et le comportement d'un système complexe ne varie pas linéairement avec sa complexité.
* De nombreux arguments reposent sur un manque d'imagination. Par exemple, il est affirmé que jamais (en insistant sur "jamais") un système de conduite autonome serait capable de distinguer un vrai panneau STOP d'un mec qui porte un panneau STOP, alors que l'humain le fait trivialement. Outre le fait que c'est probablement faux pour l'humain (par exemple, la situation dans laquelle des ouvriers sont en train de poser un panneau STOP me semble insoluble pour un humain), il ne me semble pas du tout inconcevable qu'un algo puisse correctement trancher entre "il y a un stop" et "il n'y a pas de stop" dans cette situation. Il va intégrer des informations (absence ou présence de ligne de stop sur le sol, le panneau n'était pas là 3 secondes plus tôt, il semble associé au référentiel d'un piéton mais pas au référentiel du trottoir, etc), et du coup, l'idée de "jamais possible" dans un tel contexte me semble hyper-douteuse.
* Enfin, l'argumentation présuppose un rejet du fonctionnalisme, alors qu'à ma connaissance la majorité des gens qui travaillent dans ou sur l'IA sont fonctionnalistes (peut-être parce que c'est la seule option opérationnelle dans lequel le concept d'IA a un sens). Si on n'est pas fonctionnaliste, par définition, l'intelligence ou la conscience ne peut pas exister en dehors d'un cerveau. Donc, par définiton, l'IA ne peut pas exister. C'est une conclusion qui dépend des prémisses, il n'y a rien de bien transcendant.
Bon, bref, c'est distrayant, mais c'est quand même aussi beaucoup pas terrible et pas bien profond. La prémisse de la reflexion, c'est qu'il n'y a pas de problème, donc on peut accumuler des platitudes en changeant les définitions, en affirmant que telle ou telle tâche est absolument impossible à automatiser, etc., mais ça reste un procédé rhétorique, pas un moyen de comprendre la réalité et d'anticiper le potentiel (positif ou négatif) des systèmes qu'on appelle "IA".
[^] # Re: Contrat vs loi
Posté par arnaudus . En réponse au journal Les DRM, ma liseuse et moi, le retour. Évalué à 2.
Il y a plus simple: faire en sorte qu'il soit difficile de prouver l'origine de la photo (retirer les marques identifiables et réajuster le cadrage et la balance des blancs, par exemple). C'est le genre de cas ou l'auteur ne peut pas prouver qu'il est l'auteur, donc ça ne peut pas aller bien loin.
[^] # Re: Contrat vs loi
Posté par arnaudus . En réponse au journal Les DRM, ma liseuse et moi, le retour. Évalué à 3.
Faut quand même oser publier ça de la part du ministère. Il n'y a aucune jurisprudence depuis plus de 20 ans justement parce qu'il n'y a plus de poursuites. Wikipédia a pour doctrine de passer en domaine public toutes les reproductions d'œuvres du DP (y compris les scans de livres vendus par les musées par exemple), et à ma connaissance il n'y a jamais eu aucun problème. D'ailleurs, ça poserait même un problème technique, puisque le photographe "officiel" serait bien en mal de prouver qu'il est l'auteur de la photo sans watermarking ou autre méthode d'identification (face à quelqu'un qui prétendrait avoir pris la photo lui-même par exemple); or, le recours à une telle méthode prouverait par elle-même la non-originalité.
Par contre, ce qui est vrai (et navrant), c'est que le conseil d'État a validé la démarche d'exclusivité imposée par certains musées: justement, parce que la reproduction d'une oeuvre dans le domaine public n'ouvre pas de droits d'auteur, les musées ont le droit, pour protéger leur patrimoine, de ne pas donner accès à leurs collection, ou d'en restreindre l'accès ou l'éclairage pour s'assurer que des reproductions ne peuvent pas circuler. C'est profondément débile, mais le propriétaire du support a le droit de faire ça.
[^] # Re: Et du coup pour DLFP
Posté par arnaudus . En réponse au journal Les mineurs privés de télécommunication, les majeurs traqués. Évalué à 3.
Tu fais dans l'argumentation hypercritique maintenant? Genre en une phrase tu me demandes 1/2h de boulot parce que tu as la flemme de chercher par toi-même?
1) Fermeture d'un compte par une banque. Aucune justification nécessaire, juste un préavis à respecter
https://www.service-public.fr/particuliers/vosdroits/F31456
2) Refus d'ouverture d'un compte:
https://www.lesfurets.com/banque/guide/banque-refuser-de-mouvrir-compte
3) Résiliation du contrat par l'assureur:
https://www.service-public.fr/particuliers/vosdroits/F19083
4) Filtrage par le FAI: Si tu veux la liste des blocages IP ou DNS par FAI… et bien ça n'est pas public. La seule chose que les FAI admettent, c'est qu'ils font du blocage IP "pour la sécurité des abonnés". Je ne pense pas qu'il soit possible de savoir combien d'IP sont bannies, ni les raisons (pour les injonctions légales, c'est en général du blocage DNS, donc j'imagine que le blocage IP c'est plutôt de l'initiative du FAI).
[^] # Re: Et du coup pour DLFP
Posté par arnaudus . En réponse au journal Les mineurs privés de télécommunication, les majeurs traqués. Évalué à 4.
Les banques et les assurances peuvent par exemple refuser de reconduire un contrat sans donner de raison, mais en effet, il doit y avoir une subtilité parce que le refus de vente n'est pas légal.
Pour le FAI, refuser les requêtes vers certains sites c'est une manière comme une autre de choisir ses clients, et ça peut être légitimes pour des raisons économiques ou techniques.
[^] # Re: Et du coup pour DLFP
Posté par arnaudus . En réponse au journal Les mineurs privés de télécommunication, les majeurs traqués. Évalué à -1.
Désolé, mais ça, c'est n'importe quoi. Il faut justifier de son identité pour participer à la vie démocratique (voter, se présenter aux élections, faire campagne, organiser des réunions, fonder et participer à une association, signer une pétition officielle…). Dans une réunion de quartier, personne ne vient cagoulé, il faut justifier du fait qu'on habite dans la commune. Cette histoire d'anonymat, c'est totalement fantasmé, dans l'histoire, jamais l'anonymat n'a été associé à la vie en communauté. Typiquement, l'anonymat, c'est pour les complots, les pamphlets, la résistance, les tracts de propagande, et la rhétorique révolutionnaire; c'est tout sauf la vie en communauté.
[^] # Re: Et du coup pour DLFP
Posté par arnaudus . En réponse au journal Les mineurs privés de télécommunication, les majeurs traqués. Évalué à 3. Dernière modification le 07 juillet 2023 à 11:58.
Le gouvernement français a tous les outils pour demander un blocage administratif. Bien sûr, il sera toujours techniquement possible de le contourner, mais si le site perd 90% de ses trolls, ça sera bien pour tout le monde.
Il semble d'ailleurs que certains FAI dans le monde ont spontanément coupé l'accès; ce n'est pas vraiment le rôle d'un FAI mais sur le principe ça ne me choque pas; un FAI peut aussi choisir ses clients, et ça peut même avoir une base rationnelle (typiquement, limiter le nombre de requêtes envoyées par la justice).
[^] # Re: Et du coup pour DLFP
Posté par arnaudus . En réponse au journal Les mineurs privés de télécommunication, les majeurs traqués. Évalué à 3.
Sauf que là c'est la responsabilité de l'hébergeur qui peut être mise en cause.
[^] # Re: Et du coup pour DLFP
Posté par arnaudus . En réponse au journal Les mineurs privés de télécommunication, les majeurs traqués. Évalué à -2.
L'identification par IP, c'est un niveau d'identification très, très crade. Ça a très difficilement valeur de preuve; pour les poursuites de type terrorisme, tu peux mobiliser 3 fonctionnaires pour faire une enquête, pour du harcèlement, des insultes, de l'incitation à la haine, c'est terriblement contre-productif.
Je ne vois franchement pas le problème fondamental avec une identification stricte via un tiers de confiance. Tu as un site officiel, type gouvernemental, qui connait ton identité (style le truc pour les impôts). Quand tu t'inscris à un site qui permet de publier quelque chose, on te demande une clé unique, que tu récupères sur le site institutionnel (via une redirection, ou par copier-coller si tu as peur d'être pisté). Quand une infraction est constatée (à la suite d'un dépot de plainte par exemple), la police envoie une requête à l'hébergeur, qui renvoie la clé. La police n'a plus qu'à interroger le site gouvernemental pour remonter à ton identité, avec une traçabilité de la demande (quel fonctionnaire, à quelle heure, dans le cadre de quel dossier). Et paf, ça fait des chocapics.
Et au passage, ça permettrait aussi de passer obligatoirement par les parents pour l'inscription des mineurs à ce genre de sites.
Il n'y a rien de débile à ce genre de lois. La liberté d'expression n'a jamais nécessité l'anonymat, et surtout pas l'absence de traçabilité; la liberté d'expression ne peut pas exister sans que la responsabilité vis-à-vis des délits de presse soit opérationnelle.