En ce moment je lis plein d'articles qui me disent que l'IA c'est le mal, que les LLM servent à rien, que c'est tout pourri, miroir aux alouettes, fausse bonne idée, etc etc etc… Les devs disent que l'IA les ralentit dans leur travail, que le code est plus long à corriger. Les littéraires disent que le texte est mauvais, les artistes disent que l'IA n'a aucune imagination, etc etc..
J'ai du mal à me défaire d'une idée. Autant lorsqu'une techno permet de créer des différenciateurs, les gens sont OK avec ça: par exemple, quand la bagnole arrive, on va avoir besoin de mécanos, de chauffeurs, etc.. quand internet arrive, on va avoir besoin d'informaticiens pour créer des technos, des protocoles, des applis, mais quand l'IA arrive, les cols blancs observent avec horreur que leurs métiers vont disparaitre très très vite.
Correcteur? Traducteur? bim, écrasé.
Programmeur? Même chose.
Admin sys? Badaboum.
Toutes les professions col blanc (comptable, administrateur, juriste, employé de paye, etc), remplacés directs.
Ceux qui se rendent compte de ce remplacement, ce sont les informaticiens, et sans surprise, ce sont les premiers à freiner en mode "nan nan, nous les informaticiens on est incontournables, et bien meilleurs que ces LLMs qui sont nuls, haha".
du coup, tous ces commentaires sur la faible qualité de l'IA seraient totalement hypocrites? (qui veut tuer son chien l'accuse de la rage). Et l'IA beaucoup plus performante (ou effrayante) que ce que laissent entendre ces posts de blogs.
Posté par raphj .
Évalué à 9 (+7/-0).
Dernière modification le 31 décembre 2024 à 16:28.
Faut forcément faire gaffe aux biais. On a aussi beaucoup été confrontés à l'inverse : une hype qui survend l'IA et les LLM. Là aussi, faut forcément faire gaffe aux biais.
Notre meilleure arme pour le moment est la méthode scientifique pour évaluer les choses.
Les LLM fournissent des résultats parfois bluffants, mais ne sont pour l'instant pas assez fiables pour remplacer les métiers que tu cites. C'est parce que ce sont des modèles de langages : leur objet de travail c'est à quoi ressemble le langage. Ils ne travaillent pas sur le sens qu'il y a derrière. Ils sont incapables de raisonnement poussés, ou d'être créatifs. Pour ça, il faudrait qu'ils travaillent sur le sens et les raisonnements. Il y a probablement des travaux en cours sur ça mais pour l'instant il peuvent au mieux accélérer les tâches, mais ne remplacent pour l'instant pas une expertise dans le domaine.
Ils peuvent remplacer un programmeur pour certaines tâches légères. Au hasard, un service d'études et statistique pourra écrire des bouts de code R à l'aide d'un LLM pour générer des graphiques ou des analyses de données légères, mais un l'expertise d'un·e statisticien·ne sera indispensable pour vérifier les résultats.
Pareil pour de la traduction : ça fait longtemps que les outils de traduction automatique existent, et malgré tout il y a toujours des gens payés pour faire ça professionnellement. Consulter rapidement une page dans une langue que tu ne connais pas, ok, mais sinon, dans certains domaines, tu as besoin d'un traitement / une vérification du sens. Le LLM n'apporte pas ça.
Pour l'instant, il faut des humains au moins pour déboguer les résultats. Et des humains pour produire des trucs à mettre dans les jeux d'entrainement du LLM.
Et le truc, c'est que rajouter du sens au LLM, ce n'est probablement pas juste une petite évolution à réussir, mais une grosse étape à passer, voire un changement de fonctionnement complet.
Cela dit (et je suis sûr que ça doit exister), ce serait une erreur de résister parce qu'on pense qu'on est remplaçable ou qu'on sera remplaçable dans un futur plus ou moins proche. Il vaut mieux passer cette énergie à préparer son futur. Un dev ou un admin sys, à priori c'est assez intelligent pour savoir faire d'autres choses. C'est sûr que ça fait se questionner sur sa place dans la société / civilisation et… tant pis. Tant mieux.
Le jour où mon travail sera remplaçable, ben remplacez-moi, je n'ai pas envie de faire un travail qu'une machine peut faire de manière autonome. Je trouverai autre chose à faire, potentiellement plus profonde / fondamentale, ou un autre truc que les machines ne savent pas encore faire. Programmer deviendra alors une activité comme les mots croisés ou le sudoku : potentiellement agréable intellectuellement, un passe-temps, mais fondamentalement inutile. Ça n'empêche pas des gens de faire des mots croisés.
Posté par Faya .
Évalué à 4 (+3/-1).
Dernière modification le 31 décembre 2024 à 17:57.
Pareil pour de la traduction : ça fait longtemps que les outils de traduction automatique existent, et malgré tout il y a toujours des gens payés pour faire ça professionnellement.
Posté par Zenitram (site web personnel) .
Évalué à 2 (+2/-2).
Dernière modification le 01 janvier 2025 à 18:52.
Mais pour «des sites web, des brochures, des catalogues, des fiches produit, ou des newsletters» bin on y est.
Le jour où tu dit à tes clients un truc que tu ne pensais pas mais dont tu ne peux pas te dédire, tu comprends.
Les traductions auto c'est très bien pour du non pro et pour aider les pros à faire un premier jet (donc oui les pros vont perdre du CA car c'est juste moins cher à faire aussi! Rien d'anormal, et à eux de s'adapter, et faire autre chose si ils étaient dans le bas des compétences), mais si tu ne fais pas de relecture tu as de fortes chances de dire le contraire de ce que tu voulais.
Je le sais pas expérience, étant flemmard (ok, en vrai c'est difficile et j'en chie mais comprend quand je met beaucoup de temps) mais pouvant lire une autre langue, et le nombre de fois où j'ai dû lire l'original car grammaticalement la traduction avait du sens mais que connaissant la personne écrivant ou le thème je me disais que c'était pas du tout dans les idées… Et l'original disait alors exactement le contraire de la traduction.
Et vraiment, parfois ça buggue pour des trucs de base comme un bête texte de newsletter.
si tu ne fais pas de relecture tu as de fortes chances de dire le contraire de ce que tu voulais.
Bien sûr. Je n'allais pas citer tout l'article, mais c'est ce qui est dit : «À la place de la traduction, il me demandait de relire des textes qu'il aurait lui-même fait traduire par ChatGPT.»
Et surtout je n'ai pas donné mon avis sur la pratique. J'ai juste montré que le remplacement avait déjà commencé. Mon point de vue : ne jamais exposer une production de LLM directement au consommateur. Le pire ce sont les bots de support client, les LLM ont tendance à être d'accord avec tout ce qu'on leur dit, c'est une recette pour un désastre assuré. Il faudrait une petite adaptation des lois de la robotique aux LLM :
vous êtes juridiquement responsable de ce que votre LLM dira au client
toujours garder un humain dans la boucle
si pas d'humain, toujours signaler au client qu'il parle à un bot
Pour ce qui est des IA génératives, je ne me fais pas de soucis, elles n'ont pas de compréhension sous-jacente et se plante dans les grandes largeurs lorsqu'on sort des sentiers battus.
ou pour résumer arnadus a été bluffé par les réponses de l'IA qui lui donnait l'impression d'avoir compris, et de jouer le jeu. J'ai modifié les paramètres d'entrée (augmenté le nombre de case, modifié le système de point pour être le seul à en gagner), l' "IA" à démontré qu'elle n'avait pas de compréhension du modèle, en affirmant qu'il était possible qu'elle gagne.
Les LLMs peuvent nous faire gagner du temps, car souvent ce que l'on fait à déjà été fait. Mais faut guider.
On a d'autre type d'IA, a voir ce que ça va donner, mais pour le moment, les LLMs ne vont pas me remplacer, et je serait extrêmement vigilant pour leur demander de traduire des textes techniques car pour peu qu'il ne soit pas dans la logique habituelle, on risque fort d'avoir un résultat dans la logique habituelle.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
« [J]e serait extrêmement vigilant pour leur demander de traduire des textes techniques[.] »
Idem. Mon premier essai de LLM consistait à faire corriger les fautes d'orthographe dans un document en LaTeX. Avant d'utiliser le résultat j'ai pu utiliser meld pour afficher le diff original/épreuve (c'est ici un avantage certains de travailler sur du code en format texte brut, j'ignore comment j'aurais pu fait avec un traitement de texte wysiawyg ?). Résultat assez bluffant et immédiat. Sauf que le LLM s'était permis de modifier mes calculs sur un paragraphe pour mettre des équations de son crû parfaitement dénuées de sens mathématique, et modifier les conclusions afférentes.
Franchement je ne vois pas en quoi un pipotron très coûteux pourrait remplacer un métier à part politicien ou escroc (même si la différence est ténue entre les 2). M'enfin comme dit ploum :
The point is not to replace your job with an AI.
The point is to make you afraid of losing your job so you accept worse working conditions.
# l'IA c'est le mal
Posté par octane . Évalué à -3 (+5/-11).
En ce moment je lis plein d'articles qui me disent que l'IA c'est le mal, que les LLM servent à rien, que c'est tout pourri, miroir aux alouettes, fausse bonne idée, etc etc etc… Les devs disent que l'IA les ralentit dans leur travail, que le code est plus long à corriger. Les littéraires disent que le texte est mauvais, les artistes disent que l'IA n'a aucune imagination, etc etc..
J'ai du mal à me défaire d'une idée. Autant lorsqu'une techno permet de créer des différenciateurs, les gens sont OK avec ça: par exemple, quand la bagnole arrive, on va avoir besoin de mécanos, de chauffeurs, etc.. quand internet arrive, on va avoir besoin d'informaticiens pour créer des technos, des protocoles, des applis, mais quand l'IA arrive, les cols blancs observent avec horreur que leurs métiers vont disparaitre très très vite.
Correcteur? Traducteur? bim, écrasé.
Programmeur? Même chose.
Admin sys? Badaboum.
Toutes les professions col blanc (comptable, administrateur, juriste, employé de paye, etc), remplacés directs.
Ceux qui se rendent compte de ce remplacement, ce sont les informaticiens, et sans surprise, ce sont les premiers à freiner en mode "nan nan, nous les informaticiens on est incontournables, et bien meilleurs que ces LLMs qui sont nuls, haha".
du coup, tous ces commentaires sur la faible qualité de l'IA seraient totalement hypocrites? (qui veut tuer son chien l'accuse de la rage). Et l'IA beaucoup plus performante (ou effrayante) que ce que laissent entendre ces posts de blogs.
[^] # Re: l'IA c'est le mal
Posté par raphj . Évalué à 9 (+7/-0). Dernière modification le 31 décembre 2024 à 16:28.
Faut forcément faire gaffe aux biais. On a aussi beaucoup été confrontés à l'inverse : une hype qui survend l'IA et les LLM. Là aussi, faut forcément faire gaffe aux biais.
Notre meilleure arme pour le moment est la méthode scientifique pour évaluer les choses.
Les LLM fournissent des résultats parfois bluffants, mais ne sont pour l'instant pas assez fiables pour remplacer les métiers que tu cites. C'est parce que ce sont des modèles de langages : leur objet de travail c'est à quoi ressemble le langage. Ils ne travaillent pas sur le sens qu'il y a derrière. Ils sont incapables de raisonnement poussés, ou d'être créatifs. Pour ça, il faudrait qu'ils travaillent sur le sens et les raisonnements. Il y a probablement des travaux en cours sur ça mais pour l'instant il peuvent au mieux accélérer les tâches, mais ne remplacent pour l'instant pas une expertise dans le domaine.
Ils peuvent remplacer un programmeur pour certaines tâches légères. Au hasard, un service d'études et statistique pourra écrire des bouts de code R à l'aide d'un LLM pour générer des graphiques ou des analyses de données légères, mais un l'expertise d'un·e statisticien·ne sera indispensable pour vérifier les résultats.
Pareil pour de la traduction : ça fait longtemps que les outils de traduction automatique existent, et malgré tout il y a toujours des gens payés pour faire ça professionnellement. Consulter rapidement une page dans une langue que tu ne connais pas, ok, mais sinon, dans certains domaines, tu as besoin d'un traitement / une vérification du sens. Le LLM n'apporte pas ça.
Pour l'instant, il faut des humains au moins pour déboguer les résultats. Et des humains pour produire des trucs à mettre dans les jeux d'entrainement du LLM.
Et le truc, c'est que rajouter du sens au LLM, ce n'est probablement pas juste une petite évolution à réussir, mais une grosse étape à passer, voire un changement de fonctionnement complet.
Cela dit (et je suis sûr que ça doit exister), ce serait une erreur de résister parce qu'on pense qu'on est remplaçable ou qu'on sera remplaçable dans un futur plus ou moins proche. Il vaut mieux passer cette énergie à préparer son futur. Un dev ou un admin sys, à priori c'est assez intelligent pour savoir faire d'autres choses. C'est sûr que ça fait se questionner sur sa place dans la société / civilisation et… tant pis. Tant mieux.
Le jour où mon travail sera remplaçable, ben remplacez-moi, je n'ai pas envie de faire un travail qu'une machine peut faire de manière autonome. Je trouverai autre chose à faire, potentiellement plus profonde / fondamentale, ou un autre truc que les machines ne savent pas encore faire. Programmer deviendra alors une activité comme les mots croisés ou le sudoku : potentiellement agréable intellectuellement, un passe-temps, mais fondamentalement inutile. Ça n'empêche pas des gens de faire des mots croisés.
[^] # Re: l'IA c'est le mal
Posté par Faya . Évalué à 4 (+3/-1). Dernière modification le 31 décembre 2024 à 17:57.
Il y a toujours des gens mais qui ne font "que" relire : «De fil en aiguille, la traductrice a perdu 60% de son chiffre d’affaires, entre août et décembre 2023.» Bon je suppose que pour traduire un roman on y est pas, il y a pas mal d'adaptations à faire pour faire passer un jeu de mots par exemple… Mais pour «des sites web, des brochures, des catalogues, des fiches produit, ou des newsletters» bin on y est.
«La traductrice a finalement décidé de changer de métier»
[^] # Re: l'IA c'est le mal
Posté par Zenitram (site web personnel) . Évalué à 2 (+2/-2). Dernière modification le 01 janvier 2025 à 18:52.
Le jour où tu dit à tes clients un truc que tu ne pensais pas mais dont tu ne peux pas te dédire, tu comprends.
Les traductions auto c'est très bien pour du non pro et pour aider les pros à faire un premier jet (donc oui les pros vont perdre du CA car c'est juste moins cher à faire aussi! Rien d'anormal, et à eux de s'adapter, et faire autre chose si ils étaient dans le bas des compétences), mais si tu ne fais pas de relecture tu as de fortes chances de dire le contraire de ce que tu voulais.
Je le sais pas expérience, étant flemmard (ok, en vrai c'est difficile et j'en chie mais comprend quand je met beaucoup de temps) mais pouvant lire une autre langue, et le nombre de fois où j'ai dû lire l'original car grammaticalement la traduction avait du sens mais que connaissant la personne écrivant ou le thème je me disais que c'était pas du tout dans les idées… Et l'original disait alors exactement le contraire de la traduction.
Et vraiment, parfois ça buggue pour des trucs de base comme un bête texte de newsletter.
[^] # Re: l'IA c'est le mal
Posté par Faya . Évalué à 3 (+1/-0).
Bien sûr. Je n'allais pas citer tout l'article, mais c'est ce qui est dit : «À la place de la traduction, il me demandait de relire des textes qu'il aurait lui-même fait traduire par ChatGPT.»
Et surtout je n'ai pas donné mon avis sur la pratique. J'ai juste montré que le remplacement avait déjà commencé. Mon point de vue : ne jamais exposer une production de LLM directement au consommateur. Le pire ce sont les bots de support client, les LLM ont tendance à être d'accord avec tout ce qu'on leur dit, c'est une recette pour un désastre assuré. Il faudrait une petite adaptation des lois de la robotique aux LLM :
[^] # Re: l'IA c'est le mal
Posté par fearan . Évalué à 6 (+3/-0).
Pour ce qui est des IA génératives, je ne me fais pas de soucis, elles n'ont pas de compréhension sous-jacente et se plante dans les grandes largeurs lorsqu'on sort des sentiers battus.
voir
https://linuxfr.org/nodes/137257/comments/1974518
et ma réponse
https://linuxfr.org/nodes/137257/comments/1974635
ou pour résumer arnadus a été bluffé par les réponses de l'IA qui lui donnait l'impression d'avoir compris, et de jouer le jeu. J'ai modifié les paramètres d'entrée (augmenté le nombre de case, modifié le système de point pour être le seul à en gagner), l' "IA" à démontré qu'elle n'avait pas de compréhension du modèle, en affirmant qu'il était possible qu'elle gagne.
Les LLMs peuvent nous faire gagner du temps, car souvent ce que l'on fait à déjà été fait. Mais faut guider.
On a d'autre type d'IA, a voir ce que ça va donner, mais pour le moment, les LLMs ne vont pas me remplacer, et je serait extrêmement vigilant pour leur demander de traduire des textes techniques car pour peu qu'il ne soit pas dans la logique habituelle, on risque fort d'avoir un résultat dans la logique habituelle.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: l'IA c'est le mal
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 7 (+5/-0).
Idem. Mon premier essai de LLM consistait à faire corriger les fautes d'orthographe dans un document en LaTeX. Avant d'utiliser le résultat j'ai pu utiliser meld pour afficher le diff original/épreuve (c'est ici un avantage certains de travailler sur du code en format texte brut, j'ignore comment j'aurais pu fait avec un traitement de texte wysiawyg ?). Résultat assez bluffant et immédiat. Sauf que le LLM s'était permis de modifier mes calculs sur un paragraphe pour mettre des équations de son crû parfaitement dénuées de sens mathématique, et modifier les conclusions afférentes.
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
[^] # Re: l'IA c'est le mal
Posté par Octabrain . Évalué à 10 (+10/-2).
Franchement je ne vois pas en quoi un pipotron très coûteux pourrait remplacer un métier à part politicien ou escroc (même si la différence est ténue entre les 2). M'enfin comme dit ploum :
https://mamot.fr/@ploum/113724525976996435
[^] # Re: l'IA c'est le mal
Posté par fearan . Évalué à 4 (+1/-0).
J'avais oublié cette partie dans ma réponse précédente; c'est (très) mal connaitre le passé Locomotive_Act
ps : en même temps c'est un autre sujet donc c'est pas plus mal.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Envoyer un commentaire
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.