Cher Nal,
Oui encore un fil sur les LLM mais sur deux aspects qui n'ont pas été, me semble-t-il, abordés et liés :
- l'effondrement des modèles par alimentation par des données provenant d'autres modèles
- les besoins massifs de travailleurs pour servir les grands de l'IA.
Si dans les pays occidentaux, l'inquiétude concerne l'emploi, un documentaire sur France 2 sur Les sacrifiés de l'IA (pas vu) témoigne de l'ampleur et de l'exploitation de ces salariés. Je n'ai pas vu mais lu une interview du réal sur France Culture.
Seulement il est mentionné une étude de l'OIT (Organisation internationale du travail) et de la Banque mondiale qui révélerait que cette industrie numérique emploierait entre 150 à 430 millions de personnes dans le monde. Ce qui en ferait, même en fourchette basse, la première industrie de ce point de vue, et de loin.
Je n'ai pas trouvé ce document mais une page de l'OIT estimant à des dizaines de millions de personnes.
Si tant est que des prédictions dans cette société et ce domaine soient significatives, toujours selon ce docu, Google estimerait ainsi que les besoins monteraient à 1 milliards de personnes d'ici une décennie.
Quoiqu'il en soit Les conditions de travail sont éprouvantes, aussi intenses que répétitives, 10h/j et 6 ou 7/7j.
Le docu semble évoquer également les filtreurs des plateformes dont de nombreux sont atteints de stress post-traumatiques en étant soumis à des contenus violents.
Les grands de l'IA ne tiennent pas à parler de cet aspect (sauf Google ?) et des NDA sont demandées et parfois même des menaces pour ces salariés.
L'autre aspect est le phénomène d'effondrement lorsqu'un modèle est alimenté par les données générées par d'autres modèles.
Le phénomène était prévu, connu et observé. Mais certains pensent qu'il serait catastrophique pour les modèles actuels car leur correction serait impossible ou difficile et coûteuse. D'autres pensent qu'avec suffisamment de données réelles cela n'arrivera pas.
De ce que je retire de ma seule lecture sur le sujet, l'art. Wikipedia, (sur lequel les aspects mathématiques m'échappent), c'est, notamment, que ces données artificielles auraient notamment une variance en forte baisse.
Ainsi donc, on exploite des millions de gens pour raffiner et actualiser les corpus.
A la vitesse où le domaine évolue, si ce problème d'effondrement est résolu, ces gens serait lourdé rapidement et massivement.
Pour le moment, on abrutit des gens pour rendre des LLM plus « intelligents ». L'inanité de cette société dégénérée.
Liens :
Nal, moules, auriez-vous des opinions et surtout des précisions ?
# Capital
Posté par Thomas (site web personnel) . Évalué à 10 (+13/-0).
On attend le Marx du XXIème siècle, ou le Bourdieu, qui décrirait d'un côté la profonde inhumanité du travail imposé aux pauvres qui constituent les bases d'apprentissage, clic par clic, et de l'autre la profonde inhumanité des ingénieurs et scientifiques qui conçoivent les programmes d'apprentissage automatique qui remplacent (mal) les humains. Quelle situation ubuesque, quand on y pense.
L'effondrement des perfs des modèles est une possibilité : les perfs des systèmes IA basés sur du ML sont dictées par les données d'entraînement. Si les données changent, il faut réadapter les modèles, revoir les hypothèses, modifier l'architecture voire tout reprendre. Shit in, shit out … il y a tellement de choses qu'on ne comprend pas dans ce processus d'apprentissage massif par réseaux de neurones.
Sur le digital labor, c'est documenté par A Casilli par exemple. Quant aux chiffres, je ne sais pas.
[^] # Re: Capital
Posté par Quinane . Évalué à 10 (+11/-0).
Le Marx du XIXème, s'il n'était pas madame Irma, avait montré le fonctionnement du capitalisme. En ce sens, le capitalisme étant toujours l'actualité, ses idées également.
C'est en se fondant sur elles que d'autres ont pu analyser les changements opérés depuis, par exemple l'impérialisme, sa phase sénescente.
Merci pour cet auteur cité.
[^] # Re: Capital
Posté par gde . Évalué à 4 (+3/-0).
Pas besoin d'un Marx du XXIième siècle : ce que tu veux c'est une note de bas de page supplémentaire dans le chapitre concernant la machinerie et la grande industrie du livre 1 du Capital.
Parce qu'on gros la réalité c'est que Marx a déjà posé la théorie du fonctionnement. Les ajouts "descriptif" de notre époque peuvent assez aisément s'insérer dans les bases qu'il a posé.
Très honnêtement, et sans vouloir être méchant, ce qu'il faudrait c'est surtout que plus de gens lise Marx vraiment avant de dire qu'il faut un Marx de notre temps.
Pour le digital labor, je me souviens avoir trouvé la théorie bancal. De souvenir, Casilli a balayé le concept de rente. Il considérait qu'il y avait de l'exploitation et à confondu ça avec le fait qu'il y ait du travail partout. Je crois me souvenir qu'il soutenait le fait qu'un utilisateur d'un service gafam avait un taux d'exploitation infini ; Quand on en arrive là je considère qu'il y a une erreur dans la théorie.
(Perso, je suis plus de l'interprétation qu'il n'y plus de valeur créé du tout, mais on rentre dans des discussions théorique à n'en plus finir)
[^] # Re: Capital
Posté par Thomas (site web personnel) . Évalué à 1 (+0/-0).
Je suis nul en Marx.
De loin et dans le brouillard, j'ai l'impression que ce qui se passe avec le travail déporté et relocalisé exciterait beaucoup Marx, en fait. Probablement une preuve que son analyse marche plutôt super bien … ?
# Complément et nouveau site ?
Posté par AncalagonTotof . Évalué à 10 (+15/-0).
Je viens de regarder une vidéo de Underscore_ sur l'effondrement.
Bah ça fait pas envie.
Je suis effaré de la quantité d'énergies qu'il faut mettre dans ce "truc" :
- humaine, je refais l'article initial.
- logistique : 400 To de data ? Tous les mois ? Et en hausse régulière, j'imagine. Ou exponentielle si l'IA nourrit l'IA ?
- "mécanique" : des cartes de plusieurs 10000€ pour digérer ces data. Pendant ce temps, les heureux possesseurs de RTX 5090 flippent à l'idée que leur connecteur d'alim pourrait griller en consommant plus de 570 W. Connecteur inventé et imposé par le plus gros producteur "d'accélérateurs d'IA" il me semble. Plus le temps, plus les compétences pour concevoir un connecteur qui encaisse la demande ? Ou bien il a été conçu avec de l'IA ?
- ingénieurs (quoi ? C'est pas vraiment des humains, si ?) : la quantité de jus de cerveau pour optimiser à la fois les data et leur analyse me sidère. D'autant plus que qui prend pour argent comptant ce qui sort d'un prompt ?
- prompteur : l'utilisateur lambda est mauvais, il faut des concepteurs de prompt maintenant, qui connaissent les arcanes, sinon, résultat foireux garanti.
- ah, j'allais oublier : l'énergie électrique pour alimenter tout ce borˆWbinz. Comme si on allait en trouver sur Mars quand on sera au bout ici.
Au bout d'un moment, si on arrêtait de demander à une machine dont le comportement nous échappe, "shit in, shit out" comme vu dans un autre commentaire, et si on se mettait à bosser nous même ?
Question annexe à la modération : serait-il possible de créer un site annexe pour tous les sujet IA ? Ça pollue le LinuxFr que j'ai connu quand j'étais jeune.
Ah oui, si vous n'aviez pas remarqué, forcément, je suis vieux.
# Marre
Posté par Dafyd . Évalué à 10 (+20/-0).
J'en ai marre de l'IA. Au travail, aux infos, sur LinuxFR, ça ne parle plus que de cela.
Pitié, vivement que cette mode passe.
[^] # Re: Marre
Posté par gUI (Mastodon) . Évalué à 10 (+13/-0).
Il va falloir un certain temps avant que ça ne passe… Aujourd'hui l'IA est vue par les daycideurs pressays comme un moyen formidable de diminuer la masse salariale. Ils vont s'y accrocher tant qu'ils peuvent (avec tous les biais possibles de ne pas reconnaître facilement leur erreur).
Sans compter que potentiellement… bin… ils auront pas tout à fait tort.
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: Marre
Posté par Dafyd . Évalué à 10 (+9/-0).
Quand le modèle de coût commencera à peser sévèrement, ils y reviendront, comme pour le cloud.
On a ici affaire à une stratégie commerciale identique à celle de Netflix, AWS ou Uber Eat à leurs débuts. Créer le besoin massivement et s’imposer partout à l’aide de tarifs très faibles, quitte à perdre de l’argent pendant des années. Ensuite, une fois la société accro, on monte les tarifs tous les ans. Au bout d’un moment, quand les gens/entreprise en ont marre de se faire traire, une petite machine arrière s’opère, même si évidemment seulement partiellement.
[^] # Re: Marre
Posté par pasBill pasGates . Évalué à 4 (+3/-0).
Euh tu peux me montrer comment AWS a augmenté ses tarifs tous les ans ?
[^] # Re: Marre
Posté par Dafyd . Évalué à 3 (+2/-0). Dernière modification le 16 février 2025 à 21:04.
Excuse, j’ai fait une généralité sans vérifier. Netflix et Uber eat, c’est par contre le cas.
Dans le cas d’AWS, c’est plutôt que certaines entreprises avaient sous estimé les coûts récurrents engendrés.
[^] # Re: Marre
Posté par steph1978 . Évalué à 4 (+2/-0).
Malheureusement oui car
1/ dans certains cas, cela fonctionne
2/ si ça fonctionne pas, le boulot déplacé d'un travailleur "couteux" à un travailleur dans un pays sans protection sociale
[^] # Re: Marre
Posté par Voltairine . Évalué à 8 (+7/-0).
Les daycideurs pressays se remplacent très bien par l'IA.
[^] # Re: Marre
Posté par Big Pete . Évalué à 6 (+4/-0). Dernière modification le 17 février 2025 à 16:31.
En pratique, les IA étant assez proche de bullshit generator, les emplois les plus menacé sont précisément ceux des daycideurs pressays. Il y a rien de plus facile pour un LLM que de pondre un power point décrivant la nouvelle stratégie du groupe. Et vu leur salaire, c'est loin d'être une économie négligeable. Par contre pour nettoyer correctement des chiottes ou remplacer la courroie de distribution du SUV, c'est beaucoup moins évident d'arriver à le faire faire par une IA.
(PS : zut blague déjà faite. Je vais m'auto-remplacer par une IA de ce pas)
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
[^] # Re: Marre
Posté par rewind (Mastodon) . Évalué à 10 (+11/-0). Dernière modification le 16 février 2025 à 10:14.
Au contraire, j'en veux encore. Je suis en train, grâce à linuxfr, de me constituer une bonne quantité d'arguments et de justifications pour construire une présentation à destination de décideurs pressés sur le sujet de l'intelligence artificielle. Parce que si on veut que la mode passe rapidement, il faut assécher les revenus, en particulier les milliards d'argent public qui ont été annoncés il y a peu. Et comme pour les NFT, s'il n'y a pas d'argent à la base, ça s'arrêtera tout seul, parce que ça ne répond à aucun besoin et/ou que ça répond très très mal au besoin.
[^] # Re: Marre
Posté par thoasm . Évalué à 8 (+5/-0).
C'est pas gagné, j'ai de la famille qui travaille dans le cadre de l'accompagnement de personne dans le public en France (je reste vague), et apparemment on a déjà vendu de l'IA dans ce genre de secteur qui n'a a priori rien à voir avec la technique. Il s'agirait faire pondre des projets d'accompagnements/suivi/vie par des LLMs, si j'ai bien compris.
Dans le cadre actuel ou on veut un max d'efficacité dans le service public et ou les dirigeants font n'importe quoi avec les finances, et les moyens contraints, ce genre de promesses doit faire frissonner les oreilles de certains.
[^] # Re: Marre
Posté par fearan . Évalué à 5 (+2/-0).
J'espère que tu as mal compris, et que c'est un outils utilisé pour traduire le jargon technique en texte compréhensible par un néophyte, car utiliser un truc qui va pondre du générique pour des cas spécialisée, c'est pas une riche idée.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Marre
Posté par pasBill pasGates . Évalué à -4 (+3/-8).
LOL
Bref, le gars qui a déjà décidé de la conclusion et qui cherche des arguments pour la justifier.
Rappelle moi de ne jamais t'engager pour faire une analyse quelle qu'elle soit
[^] # Re: Marre
Posté par rewind (Mastodon) . Évalué à 4 (+2/-1).
Tu inverses : les arguments m'amènent à la conclusion. J'ai déjà vu d'autres arguments en faveur de l'IA qui amènent à d'autres conclusions mais ils m'ont paru largement moins convaincant. Peut-être parce qu'ils ne reposaient pas sur des faits mais sur des suppositions absolument non-fondées (généralement, ça se résume à «l'IA va nous sauver» ou «l'IA va faire ça à notre place» sans aucune espèce de preuve sinon la méthode coué).
Et si tu préfères que l'argent public finance des trucs qui ne servent à rien, ce n'est pas mon cas. Donc, fais ta propre analyse si tu veux, et partage là pour qu'on voit la différence. Tiens, voici une conférence de Xavier Leroy, tu sais, un obscur informaticien pas très connu. Regarde ce qu'il dit de l'IA et tous les exemples qu'il cite. Réfute tout ça et après, on pourra rediscuter sérieusement.
[^] # Re: Marre
Posté par pasBill pasGates . Évalué à 3 (+3/-1).
Dire que l'IA ne sert à rien montre simplement une chose : tu n'y connais rien et a des préjugés monstrueux
Exemple de base : j'utilise Claude 3.5 à peu près tous les jours pour générer du code. Plein de mes collègues font de même, on utilise des modèles pour générer des sommaires de problèmes, etc. et cela ce n'est que mon groupe à moi avec nos cas d'utilisation limités, beaucoup d'autres les utilisent pour de l'analyse de texte aussi. Il y a maintenant de plus en plus de boîtes qui créent des bots pour la recherche de vulnérabilités (XBow par exemple) et ce qu'ils peuvent faire est tout simplement bluffant.
Plein de boîtes, y compris hors du monde tech, l'utilisent pour tout ce qui est support, il prend de plus en plus de place dans la génération d'images et graphismes, et il y a plein d'autres usages.
[^] # Re: Marre
Posté par Renault (site web personnel) . Évalué à 4 (+2/-1).
Question : vous avez un accord avec Anthropic au sein de la boîte, un accord de la hiérarchie pour s'en servir dans ces conditions ou pas ?
Car je constate en effet beaucoup de personnes se servent de ce genre d'outils pour le code comme autre choses mais sans se soucier de la question de la confidentialité (échanges sauvegardées par l'éditeur, potentiellement entrainement sur ces données qui peuvent fuiter plus tard), des droits d'auteurs / propriété intellectuelle qui sont encore incertains, etc.
Alors quand la boîte est d'accord et que les conditions d'utilisations sont favorables tant mieux, mais pour ceux qui s'en servent sans réfléchir aux conséquences potentielles je trouve cela problématique.
[^] # Re: Marre
Posté par pasBill pasGates . Évalué à 1 (+0/-0).
Ben pour nous c'est simple, on l'utilise à travers AWS Bedrock où il est hosté, Anthropic est un partenaire, et Bedrock garantit cette confidentialité pour tous les clients.
Cf. https://docs.aws.amazon.com/bedrock/latest/userguide/data-protection.html et https://aws.amazon.com/blogs/alps/security_bedrock/
[^] # Re: Marre
Posté par Renault (site web personnel) . Évalué à 3 (+0/-0).
Ok, merci pour l'info.
Faudrait que je regarde les autres services pour voir en détail ce qu'ils garantissent ou pas à ce sujet.
[^] # Re: Marre
Posté par arnaudus . Évalué à 4 (+1/-0).
Si d'un côté du as des gros tas de $$ économisés en salaire de programmeur, et de l'autre côté tu as peut-être des risques virtuels pas très bien définis et au final peu inquiétants, il est probable que l'analyse soit quand même assez rapide.
Imagine que tu balances un truc confidentiel dans le prompt (un cahier des charges, ou un bout de code "maison"), et même que ce truc rentre dans la base d'apprentissage pour la version suivante de l'AI, quelles sont les chances pour que quelqu'un s'en aperçoive et qu'il puisse se passer quelque chose de réellement nuisible? Il faudrait que le modèle soit suparamétré (qu'il recrache des bouts de code verbatim), que ce bout de code soit sensible et spécifique (puisque le le droit d'auteur ne couvre pas le code trivial), et qu'il tombe dans les mains d'une personne qui puisse identifier son origine et prévenir l'ayant droit, qui à son tour doit trouver les raisons de poursuivre en justice… Tout ça semble bien vague.
[^] # Re: Marre
Posté par Renault (site web personnel) . Évalué à 3 (+0/-0).
Note, il n'y a pas que les programmeurs qui s'en servent et l'impact potentiel varie de poste en poste.
Tu juges que c'est peu inquiétant mais il y a de vraies questions derrière, surtout étant donné le capital investi dedans et les pratiques passées de la plupart de ces entreprises.
Comme Amazon qui a analysé les ventes de son marketplace pour vendre sous son nom certains de ces produits au détriment des vendeurs, des fuites divers et variés de données personnelles notamment via des LLMs. Et avec la politique actuelle des USA et de la Chine qui hébergent de nombreux services de ce genre il y a de quoi se méfier de ce qui peut être fait de certaines de ces données que ce soit en terme de vol de propriété intellectuelle, analyse de données personnelles, etc.
Tu peux dire que tu t'en fous, tu peux considérer que par exemple certains patrons s'en foutent et donne libre accès à leurs employés sans y réfléchir, très bien, mais ce n'est pas le cas de tout le monde et trouver un intérêt à ces outils ne doit pas être une justification à accepter de le faire à n'importe quel prix et sana analyse aussi des impacts négatifs.
De la même façon que de nombreux chercheurs en IA travaillent ou essayent en tout cas de sensibiliser le monde sur certains de ces risques que ce soit avec la techno actuelle comme à venir. On ne doit pas mettre ça sous le tapis car osef ça rend service à pas cher. Ce sont des questions qu'on a avec d'autres technologies, l'IA n'y fait pas exception.
C'est manquer de recul et d'esprit critique de ne voir que les biens faits mais pas les méfaits ou risques potentiels. Alors oui, il ne faut pas faire l'extrême inverse et ne pas voir le positif aussi (et je peux voir ces effets positifs, je ne remets pas cela en cause, bien au contraire).
D'ailleurs j'en ai parlé avec mon client par exemple et il n'est en effet pas très chaud par exemple qu'on se serve de ces outils s'il n'y a pas un minimum de garanti concernant la confidentialité des données envoyées. La solution pourrait être de faire un système en local aussi mais ça doit s'évaluer et cela bloque certains usages aussi car cela reste gourmand en ressources et tous les modèles ne sont pas accessibles ainsi (loin de là même).
Au hasard tu travailles dans un secteur confidentiel (défense, énergie, etc.) tu demandes à la machine de te pondre des documents ou afférents, si toute l'industrie balance ses méthodes, son code, ses documents internes à ce genre d'outils et qu'ils gardent ou s'entrainent dessus bah cela ne sera pas très difficile avec des prompts bien fichus de récupérer ces informations confidentielles et stratégiques depuis l'extérieur car la quantité de données du domaine sont limités à quelques acteurs.
Ou tu es journaliste et tu travailles avec ces données et le nom de tes sources sont dans les échanges avec les serveurs lors de ta préparation des articles et qui pourraient être rebalancées si jamais la source est conservée et est associée à ces articles, nom qui pourrait ressortir si quelqu'un demande un résumé ou une traduction de l'article. Ce sont des problématiques réels concernant ces outils.
Avec les états comme la Chine, la Russie ou les USA ce sont des questions sérieuses à se poser. De la même façon qu'ils n'hésitent pas à exploiter les données collectées par les entreprises dans leur objectif de renseignement politique comme économique.
De la même façon que dans de nombreux dépôts internes comme publics il y a ou il y aura des couples login / mots de passe enregistrés par erreurs et qui pourraient par hasard se retrouver dans la nature aussi. Je ne doute pas que les acteurs malveillants vont travailler ce genre de questions. De même pour certaines données personnelles qui pouvaient entrer en conflit avec le droit à l'oubli européen.
Après la problématique du droit d'auteur est un vrai merdier mais on voit que c'est un sujet complexe autour de ces technos et que pour l'instant on ne sait pas trop comment ça va se dégoupiller. Et il n'y a pas que le code là dedans qui est concerné mais ça pourrait avoir un impact si jamais la justice exige que les LLMs doivent s'assurer de ne jamais recracher tout ou partie d'un code de ses données d'entrainement (peut être que ça n'arrivera pas, mais on ne sait pas).
Et reste également la question de la fiabilité, si demain les grands acteurs ont une panne (et l'histoire récente a montré que Google, Microsoft, etc. pouvaient avoir des pannes sérieuses), comment tu travailles ?
Alors peut être que des solutions seront trouvés à tout cela et que tout ira bien mais il y a clairement du travail sur ces questions et des incertitudes aussi. Et que de foncer tête baisser sans y réfléchir un minimum ne me semble pas spécialement être malin.
Après il y a outre la question de l'alignement de l'IA, l'alignement des développeurs de ces IA. Imaginer que demain pour des questions de rentabilités ils augmentent régulièrement les tarifs ou introduisent des publicités très ciblées dans les réponses n'est pas un scénario de SF étant donné le modèle économiques de la plupart des acteurs du secteurs aujourd'hui.
D'où l'importance de la transparence, de la possibilité de tourner ces modèles en local, et si possible de ne pas avoir que les USA ou la Chine qui développent ces solutions. Et qu'on doit aussi se poser la question des risques concernant ces outils de la même façon qu'il faut se poser cette question pour d'autres technos par ailleurs, sans renier leur intérêt par ailleurs.
[^] # Re: Marre
Posté par arnaudus . Évalué à 7 (+4/-0).
Les "dissailledeurz" ne sont pas débiles mentaux. Ils ont compris dès le début que les modèles génératifs allaient leur faire gagner de l'argent, y compris par des moyens qui n'étaient pas immédiatement évidents. En effet, je ne vois pas trop actuellement comment ces technologies vont pouvoir créer autant de richesses qu'on en dépense pour les développer, mais je n'ai justement pas la prétention d'avoir cette compréhension.
Il me semble par exemple qu'au-delà de l'utilisation ludique des LLM, il existe déja au moins deux domaines majeurs de l'économie où l'IA est très performante:
* Générer du code
* Servir d'interface pour répondre à des questions
Après, tu as peut-être simplement une vision très personnelle de "servir à quelque chose". Évidemment que "faire les devoirs à la place des élèves", ça ne sert à rien pour la société, et c'est même très vraisemblablement nuisible. Mais c'est comme la clope ou l'alcool ou la plupart des cochonneries en plastique Made in China sur Amazon, ça sert aux gens qui s'en servent.
Mais affirmer des trucs comme "l'IA ne sert à rien et les boursicoteurs ne rendront bientôt compte qu'ils dépensent des milliards pour rien", ça me semble être d'une naïveté mêlée de biais cognitifs majeurs (le fait que tu aimerais que ça ne serve à rien n'a pas d'influence sur la réalité).
Au final, ce qu'il va se passer, c'est que les gens qui vont investir sur l'IA vont récolter de l'argent si ça marche, et perdre de l'argent si ça ne marche pas. Les "récalcitrants" vont être chômeurs si ça marche, et vont devenir indispensables si ça ne marche pas. Au moment de faire les comptes, la logique sera probablement respectée.
[^] # Re: Marre
Posté par rewind (Mastodon) . Évalué à 4 (+1/-0).
Alors, grosse nouvelle, l'argent public, ça sert en premier lieu à financer tout un tas de services publics. Que peut apporter une IA dans un service public ? C'est ça la vraie question.
Dans mon cas, c'est un conseil régional dont les deux principales missions (en termes budgétaires) sont les lycées (les murs et les personnels hors enseignants) et les transports (le train essentiellement). Donc, on va mettre des IA à la place des CPE dans les lycées ? Ou encore mieux à la place des conseillers d'orientation ! Vu les biais connus dans les IA, je suis sûr qu'on va vers le mieux sur le sujet. Ou alors, on va mettre une IA pour remplacer le contrôleur du train. Bon, je caricature, mais on voit bien que, pour une collectivité, l'IA n'a aucune application concrète sérieuse parce que la collectivité gère un service public, et que le public, il préfère souvent parler à un humain qu'à une machine. Donc quand je dis «servir à quelque chose», je parle bien de ça.
Que les gens qui veulent miser sur Open AI claquent leur pognon en actions de la dite entreprise (ou d'une autre), je m'en cogne complètement, ils font bien ce qu'ils veulent de leur argent. Mais dans le cas d'une collectivité publique, ça me gène un peu plus parce que ce sont mes impôts (et les tiens) qui financent tout ça et qu'il y a déjà suffisamment de choses qui me semblent plus importante à financer (comme par exemple, refaire l'isolation de tous les lycées, acheter et maintenir du matériel ferroviaire, etc) et que la collectivité n'a déjà pas assez d'argent pour le faire.
Enfin, avant l'IA, les décideurs très haut placés dans les ministères nous ont déjà montré qu'en matière d'informatique, c'était pas très brillant (Louvois toussa). Donc croire que grâce à leur super intelligence, ils ne vont pas tomber dans divers panneaux, c'est leur accorder beaucoup de crédit.
[^] # Re: Marre
Posté par pasBill pasGates . Évalué à 0 (+2/-3).
Personne ne fait de l'analyse ou de la génération de texte chez tes clients ? Ils n'ont pas besoin de générer des logos ou du graphisme ? Ils n'ont pas de système de support / réponse à la clientèle ? Etc…
Je pense que tu es en train de te fourvoyer. Oui certaines tâches sont impossibles pour une IA, ils ne vont pas remplacer les profs, mais il y a plein de tâches subalternes ou ils peuvent aider, ils peuvent probablement aider les profs par exemple, eux qui ont plein de matériels texte à créer analyser, etc…
[^] # Re: Marre
Posté par Nicolas . Évalué à 1 (+0/-0). Dernière modification le 18 février 2025 à 13:19.
Faire gaffe quand même. Dans un autre post tu dis utiliser l'IA massivement dans ton taf'.
:)
[^] # Re: Marre
Posté par pasBill pasGates . Évalué à 4 (+4/-1).
Oui, et devine quoi, l'IA chez nous n'a pas remplacé les développeurs, ils sont toujours là, ils écrivent toujours du code.
Par contre elle aide à générer le code de plomberie, à analyser des documents, à faire un sommaire des problèmes trouvés chaque mois, etc…
Donc oui, c'est une grosse utilisation.
Un jour faudra que vous m'expliquiez ce que vous avez tous comme phobie contre un truc qui est juste une technologie. Cette technologie n'est pas responsable des idiots qui en abusent.
Cela ne vous sert en rien de vous enfoncer la tête dans le sable et insister que c'est du vent alors que les faits sont là et sont solides
[^] # Re: Marre
Posté par Nicolas . Évalué à 1 (+1/-1).
Je ne te le fais pas dire.
:)
[^] # Re: Marre
Posté par arnaudus . Évalué à 3 (+0/-0).
Ça n'est pas aussi évident que ça. Le public, il ne veut pas parler à une machine débile qui lui pose tout un tas de questions avant de lui dire "contacter un agent". Mais par exemple, parler à un LLM bien configuré permettrait d'avoir des réponses immédiates (si possible enregistrées et certifiées) à tout un tas de questions, et ça pourrait être très utile. Typiquement, pour remplir sa déclaration d'impôts, pour connaitre la liste des documents à fournir pour une demande, pour déposer une plainte (hors crime, hein), etc.
L'IA est en tout cas un moyen crédible pour sortir du cauchemar bureaucratique de la fonction publique. Personne n'ose s'attaquer à la complexité bureaucratique, parce que c'est une pile immense élaborée pendant des siècles, alors on vit avec cette espèce de dette technique. Mais si l'IA était capable de remplir toute seule 95% des cases des formulaires, de pointer vers les bons services, de détecter les erreurs, de se rendre compte que le dossier est coincé quelque part dans les services, ça serait une bouffée d'air frais pour tout le monde (sans évidemment résoudre le problème à la base).
[^] # Re: Marre
Posté par Pol' uX (site web personnel) . Évalué à 2 (+0/-0).
T'as un exemple précis de cas de figure et de à quoi ça ressemblerait ?
Adhérer à l'April, ça vous tente ?
[^] # Re: Marre
Posté par Quinane . Évalué à 2 (+1/-0). Dernière modification le 17 février 2025 à 21:15.
Mettre sur le même les boursicoteurs et les chômeurs dans un gagnant-perdant me semble une vision toute personnelle aussi teintée de naïveté et de biais cognitifs.
Et après ce que j'ai écrit plus haut, cette belle logique capitaliste a comme un air de réchauffé et un goût bien amer.
Le docu montre des gens qui s'écroulent, d'épuisement ou de syndrome de stress post-trauma. Les travailleurs des pays du sud se récoltent les déchets, y compris numériques.
On abrutit des millions de gens, des cerveaux humains qui ne consomment que 30 W (un rendement énorme pour parler d'un strict point de vue énergétique) et capables de merveilles, pour entraîner des LLM gouffres énergétiques.
Encore une fois, l'IA n'est pas en cause, et fera des merveilles. Mais dans un océan de merde. A l'image de ce qu'ils ont fait d'internet, une foire commerciale.
# Effondrement ?
Posté par abriotde (site web personnel, Mastodon) . Évalué à -4 (+1/-6). Dernière modification le 16 février 2025 à 12:00.
Mais de quel effondrement parles t'ont? Du problème du moment qui n'en est pas vraiment un.
Tu pourrait remplacer IA par Open-Source, Linux, Pétrole, Énergie, Démocratie, Machine à vapeur… tu trouverai toujours des arguments et souvent les mêmes pour dire que ce n'est pas tenable que cela va causer sa perte. Il faut prendre un peu de recul…
Certes l'IA fait face à des défi techniques, humains et économiques… mais rien de bien insurmontable. Il en est ainsi pour toute technologie emergente. Un scepticisme mêlé d'un enthousiasme jusqu'à ce qu'un juste milieu soit trouvé.
Les "pauvres" "exploités", cela leur fait toujours de l'argent en plus. Le problème ce n'est pas l'IA mais le système…
La pollution de l'IA par l'IA n'est qu'un défi technique pas du tout insurmontable.
L'IA c'est comme la machine à vapeur en son temps, cela détruit des emplois de force et en créé d'autres un peu moins pénible… et comme l'humain en demande toujours plus il y aura toujours du travail pour tous…
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
[^] # Re: Effondrement ?
Posté par cg . Évalué à 10 (+8/-0). Dernière modification le 16 février 2025 à 12:29.
Non, non, il faut surtout passer d'une société dans laquelle le revenu est fondé sur le travail à autre chose. C'est très ancré culturellement, mais c'est ridicule de rester sur le système « qui ne travaille pas ne doit pas manger ».
[^] # Re: Effondrement ?
Posté par abriotde (site web personnel, Mastodon) . Évalué à 0 (+2/-3).
Ça c'est une autre question indépendante de l'IA. Quoique peut-être que l'IA l'aidera.
Mais à ce moment il faudrait ne pas vouloir plus que le logement et la nourriture. Exit électricité, VOD, jeux vidéo, voiture, restaurant, hôtel et autre loisirs… ceux ci seront réservés à ceux qui travail.
Techniquement avec une hausse de productivité on a moins besoin de travailler à condition de ne pas en demander toujours plus
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
[^] # Re: Effondrement ?
Posté par LaurentClaessens (site web personnel) . Évalué à 3 (+1/-0).
Je suis tiraillé. J'ai envie de mettre un -1 pour ceci :
Mais je ne peux m’empêcher de mettre un +1 pour ça :
[^] # Re: Effondrement ?
Posté par arnaudus . Évalué à 3 (+0/-0). Dernière modification le 17 février 2025 à 15:38.
J'ai l'impression pourtant que "demander plus" est complètement naturel : demander de la nourriture bio plutôt que des trucs ultratransformés, demander plus de confort dans le métro, demander des belles pistes cyclables entretenues plutôt que des pavés pourris, demander des logements bien isolés avec l'électricité aux normes, demander l'accès à des technologies médicales coûteuses (traitements contre le cancer, IRM…), demander de l'aide à la personne pour les petits vieux dépendants, demander la fibre dans les petits villages, demander des profs, des juges, des policiers, avoir accès à plus de livres, plus de films, plus de musique… Penser qu'on pourrait se satisfaire de moins, c'est forcément un truc de privilégiés, parce que même en 2025 il faut être sacrément privilégié pour penser qu'on a assez. Évidemment, si on se focalise sur les smartphones ou les gadgets en plastique, évidemment qu'on pourrait réduire, mais sur la plupart des autres postes (logement, nourriture, santé, éducation, culture, …), on voudrait soit plus, soit "mieux".
Et je trouve aussi assez décalé de penser pour les autres. On peut être satisfait de ce qu'on a, mais c'est totalement personnel. Si ton voisin a une femme dans chaque port et 12 pensions alimentaires à assurer, il va avoir besoin de plus que toi…
[^] # Re: Effondrement ?
Posté par abriotde (site web personnel, Mastodon) . Évalué à 2 (+1/-0).
L'un n'empêche pas l'autre. On peut assurer un logement/nourriture gratuit et loisir payant. Mais ça ce n'est pas un problème technologique mais politique.
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
[^] # Re: Effondrement ?
Posté par Quinane . Évalué à 2 (+1/-0).
J'ai dû mal m'exprimer.
Par effondrement, je parle de celui du modèle. La société actuelle n'a pas besoin de cela pour, lentement, s'effondrer.
C'est pour éviter cet effondrement que l'on emploie une myriade de personnes. C'est ce que je voulais confirmer.
En effet, comme je l'ai dit ici et ailleurs, le problème est en effet pas l'IA mais le système qui l'a fabriqué.
Il est donc inutile de mettre des guillemets pour faire croire que j'aurai eu un ton misérabiliste. Bien au contraire, ces travailleurs représentent une force incroyable pour renverser cela.
Quant à l'argent en plus, c'est en effet l'argument de ces patrons qui croient faire le bonheur de l'humanité.
[^] # Re: Effondrement ?
Posté par Tit . Évalué à 3 (+1/-0).
Peux-tu développer ? comment élimine des donnes d'entrée d'une IA les données provenant d'autres IA ?
[^] # Re: Effondrement ?
Posté par Moonz . Évalué à 4 (+2/-0).
Parce que si c’est mesurable, c’est détectable, et c’est mesurable ? Regarde la définition sur la page Wikipedia en anglais :
Donc, procédure simple : avant d’intégrer une nouvelle page dans ton corpus d’entraînement pour ton prochaine modèle, fine-tuner le modèle existant sur la nouvelle page, et voir si la variance baisse (regarder le kurtosis aussi pour détecter le premier stade).
Cette procédure exacte est probablement bien trop prohibitivement coûteuse, mais ça montre que c’est probablement solvable en principe.
En pratique ?
Autre point extrêmement important : le model collapse n’arrive que lors de l’ingestion indiscriminée de données générées par un autre modèle. Dès lors qu’il y a curation par une méthode de validation externe (par exemple, un humain), une décision binaire (incorporer le texte dans le corpus ou non) suffit.
C’est connu depuis AlphaZero, où le modèle s’est entraîné avec lui-même (des parties générées par lui-même). L’ingrédient « secret » dans ce cas est le bit « quel côté a gagné la partie ? » fourni par un validateur externe. Ce papier explore la même question par l’angle explicite du "model collapse".
Pourquoi est-ce important ? Parce que ça fait un moment que les labos prévoient exactement ce problème de non pas vraiment de "l’internet est pollué" mais "on va arriver à court de données de qualité". La solution est de "générer des données à partir des modèles existants". Le problème est maintenant "model collapse". La solution est "validateur externe", préférablement automatisé, par exemple : AlphaProof. Les modèles de raisonnement actuels sont très probablement une variante plus ou moins directe de ça (c’est explicitement le cas de DeepSeek R1).
[^] # Re: Effondrement ?
Posté par Quinane . Évalué à 1 (+0/-0).
Merci pour ces explications détaillées et éclairantes.
Je me disais que si ce n'était qu'une question de variance, même sur des données multi-dimensionnelles cela devait pouvoir s'automatiser.
Le docu m'apprend qu'il est demandé aux travailleurs sous-traitants de regarder des contenus ultra-violents pas seulement pour la modération des plateformes mais aussi pour la formation des LLM qui doivent être capables de discerner ces contenus violents.
On voit ainsi plusieurs de ces personnes tomber en larmes dans le docu.
Ils témoignent masqués car ils signent des NDA avec des clauses menaçant d'années de prison… pour gagner quelques dollars.
[^] # Re: Effondrement ?
Posté par abriotde (site web personnel, Mastodon) . Évalué à -2 (+0/-3).
Pour faire simple:
1) le Web est plutôt plus qualitatif avec l'IA. Pour faire simple les gens sans compétences journalistique écrivent de meilleur articles.
2) on peut filtrer le Web par des IA entre autre pour garder le "meilleur" selon nos critères.
3) C'est un programme, on lui fait faire "ce que l'on veut".
4) l'IA progresse et les techniques avec permettant d'avoir mieux avec moins.
Cf : https://youtu.be/AfgAEIK9F8c?si=gjgo8DnPdCs6mCn8
Sous licence Creative common. Lisez, copiez, modifiez faites en ce que vous voulez.
# La source
Posté par Quinane . Évalué à 6 (+5/-0).
J'ai trouvé la source primaire, une étude de la seule Banque mondiale sur les travailleurs sans frontières (sic) qu'ils nomment online gig workers.
Il ne s'agit pas seulement des personnes travaillant pour l'IA. Cela comprend également les modérateurs et annotateurs pour des plateformes diverses, les démarcheurs et supports. L'IA n'est d'ailleurs pas mentionnée dans le rapport.
Cela n'en reste pas moins impressionnant.
Ledit rapport (PDF) : https://thedocs.worldbank.org/en/doc/75ec866c182238e087167ce03244c8da-0460012023/original/Reading-Deck-Working-without-borders-updated.pdf
# Commentaire supprimé
Posté par LenRusso5 . Évalué à 0 (+0/-0). Dernière modification le 17 février 2025 à 07:38.
Ce commentaire a été supprimé par l’équipe de modération.
# Autre documentaire : Travail à la demande
Posté par cg . Évalué à 3 (+1/-0).
Il y a aussi le docu Travail à la demande qu'on peut regarder sur arte.tv moyennant quelques euros. Il a été partagé en lien.
Le thème autour de Mechanical Turk est pertinent concernant ces "centaines de milliers d'emplois".
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.