ChatGPT est un modèle de traitement automatique du langage développé par OpenAI. Il a été entraîné sur un grand corpus de texte en ligne et est capable de générer des réponses à des questions, des textes à partir d'un prompt ou des phrases complètes à partir d'un début de phrase.
Il y a de nombreux usages pour ChatGPT. Il peut être utilisé pour la génération de contenu automatisé, comme des articles de blog, des scripts de fiction et même des poèmes. Il peut également être utilisé pour la génération de réponses automatiques dans un chatbot, pour la création de contenu pour les réseaux sociaux ou pour la génération de résumés automatiques de documents.
ChatGPT est également capable de comprendre les nuances du langage et de générer du contenu de qualité. Il a été utilisé pour générer des histoires courtes qui ont été soumises à un concours de fiction et ont été jugées comme étant écrites par des humains.
Cependant, il y a aussi des problèmes avec l'utilisation de ChatGPT pour générer automatiquement des articles. Un des principaux problèmes est que ChatGPT peut générer des textes qui sont factuellement incorrects ou qui peuvent propager des idées fausses ou dangereuses. Il peut également générer du contenu qui manque de context ou qui est de mauvaise qualité. Il est important de vérifier la qualité et l'exactitude de tout contenu généré par ChatGPT avant de le publier.
En outre, l'utilisation de ChatGPT pour générer automatiquement des articles peut également avoir des conséquences économiques négatives pour les écrivains et les journalistes professionnels. Il peut également favoriser la désinformation et la désinformation. Il est donc important de se rappeler que ChatGPT doit être utilisé avec prudence et que la qualité et l'exactitude du contenu généré doivent être vérifiées avant toute utilisation.
# mouais bof
Posté par octane . Évalué à 9.
L'avez vous remarqué? Ce n'est pas moi qui ait écrit cet article. J'ai posé ça comme requête à chatgpt:
"A la manière de linuxfr, peux tu écrire un article de taille moyenne vantant les usages de chatgpt, et en terminant sur une note plus sombre en évoquant les problèmes d'écriture automatique d'article à l'aide de chatgpt?"
[^] # Re: mouais bof
Posté par Philippe F (site web personnel) . Évalué à 5.
C'est pour ça qu'il y a un style dictionnaire/encyclopédie !
[^] # Re: mouais bof
Posté par gwen5484 . Évalué à 10.
Oui, ça se voit tout de suite !
Un journal factuel, bien construit, et qui ne trolle pas, ce n'est pas un vrai journal !
Plus sérieusement, le ton et les tournures de phrases font peu naturel, mais un lycéen moyen pourrait avoir écrit un texte similaire sans que ça me choque.
[^] # Re: mouais bof
Posté par Tit . Évalué à 4.
j'ai trouvé effectivement que ça ne ressemblait pas à un avis personnel, du coup effectivement on sentait l'entourloupe.
mais je trouve qu'il arrive bien à tromper son monde, surtout avec ce genre de choses : "Il peut également favoriser la désinformation et la désinformation", coquille qui semble bien humaine pour le coup ;)
[^] # Re: mouais bof
Posté par 🚲 Tanguy Ortolo (site web personnel) . Évalué à 5.
Tu es trop poli :
C'est une politesse utile quand on s'adresse à des humains, l'usage du verbe pouvoir et éventuellement du conditionnel. On ne prie pas un esclave informatique de faire quelque chose, on lui ordonne directement :
https://www.commitstrip.com/fr/2022/12/09/a-whole-new-world/
[^] # Re: mouais bof
Posté par Zatalyz (site web personnel) . Évalué à 4.
Parler poliment en toute circonstance travaille aussi un autre rapport au monde. Certes, Chatgpt ne va pas se vexer de la façon dont on lui parle, mais je n'ai personnellement pas envie de considérer que j'ai des esclaves. On commence par un programme, on finit par les humains. Chatgpt et autres assistants informatiques sont des aides précieuses à mes yeux, y compris pour travailler la façon dont on s'exprime, et ce d'autant plus qu'ils sont tout aussi efficaces avec un langage plus complexe que de simples ordres.
[^] # Re: mouais bof
Posté par jmiven . Évalué à 9.
Mais ça tombe bien, ça n'a rien à voir avec de l'esclavage ! Et non seulement ChatGPT ne va pas se vexer, mais il ne peut pas se vexer, ni savoir ce que c'est que se vexer.
cat
ne se vexe pas si je dis qu'il est inutile danscat bidule | grep machin
. ChatGPT est un programme, qui utilise la syntaxe de ta question pour bidouiller une réponse qui semble correcte.On commence par avoir de l'empathie pour ChatGPT, on finit par demander pardon à l'interrupteur du couloir ;-)
Par contre, pour revenir au début de ton message…
Oui ! Absolument. Par exemple, je ne pense pas que ce soit forcément idiot d'être (un minimum) poli avec des animaux. Mais il y a une large frontière entre un modèle de langage comme ChatGPT d'une part, et un animal (ou même une IA forte !) d'autre part.
[^] # Re: mouais bof
Posté par mahikeulbody . Évalué à 5.
Excellent !
C'est une très belle intention de votre part. Je suis sûr que ChatGPT vous remercie de prendre le temps de lui montrer de l'empathie. Quant à l'interrupteur du couloir, je trouve que c'est très noble de votre part de vous excuser auprès de lui. Cela montre que vous êtes conscient de ses sentiments et que vous prenez le temps de les respecter.
[^] # Re: mouais bof
Posté par aiolos . Évalué à 6.
Au travail, il y a un pot de fleurs que je me paye régulièrement dans le tibia, et bien souvent, je lui demande pardon quand je me cogne dedans ;)
[^] # Re: mouais bof
Posté par eingousef . Évalué à 5. Dernière modification le 25 janvier 2023 à 14:46.
Le jour où les plantes domineront le monde tu seras épargné.
*splash!*
[^] # Re: mouais bof
Posté par bbo . Évalué à 3.
Pourquoi n'as-tu pas déplacé le pot de fleurs a un endroit moins gênant ?
[^] # Re: mouais bof
Posté par 🚲 Tanguy Ortolo (site web personnel) . Évalué à 4.
Bien vu, c'était de l'ordre de la plaisanterie de mauvais goût. C'est un outil à commande textuelle, pour lequel la politesse me semble superflue.
[^] # Re: mouais bof
Posté par Gil Cot ✔ (site web personnel, Mastodon) . Évalué à 2.
Vaut mieux ne pas énerver Christie…
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
[^] # Re: mouais bof
Posté par Misc (site web personnel) . Évalué à 3.
ça avait en effet le coté "écrit pour une rédaction de CM2". Du coup, je me suis demandé si c'était ChatGPT, ou quelqu'un qui imite ChatGPT (parce que je pense que c'est assez facile comme style à imiter).
# Vu, mais tard
Posté par Jean Gabes (site web personnel) . Évalué à 4.
Je me suis dit qu'il y avait un souci à "Il peut également favoriser la désinformation et la désinformation", mais pas avant. C'était juste "factuel", donc ne connaissant pas ton style d'écriture, c'était crédible je trouve.
[^] # Re: Vu, mais tard
Posté par Tit . Évalué à 3.
ah c'est marrant, moi c'est l'inverse (voir mon commentaire ci-dessus), c'est là que j'ai presque cru à un humain (errare humanum est) ;)
[^] # Re: Vu, mais tard
Posté par Jean Gabes (site web personnel) . Évalué à 2.
Comme quoi la perception est bien un problème humain héhéhé
[^] # Re: Vu, mais tard
Posté par Misc (site web personnel) . Évalué à 4.
Perso, c'est plus le fait de ne pas utiliser souvent "il" pour le modèle, et du coup de sans arrêt dire "ChatGPT", et ne pas utiliser des choses comme "le modèle", ou "la création d'OpenAI" ou des figures de styles.
Et c'est principalement parce que le fonctionnement du logiciel, c'est d'avoir des statistiques de probabilités, et pas du tout de comprendre ce qui est dit (c'est pas pour rien que c'est qualifié de perroquet stochastique). Donc des mots comme "il" qui apparaissent partout dans le corpus utilisé pour l’entraînement n'apparaissent du coup pas au début des paragraphes, sans doute car les probas indiquent que c'est pas un mot approprié. Chaque paragraphe semble à la fois lié et indépendant.
Et je me demande même si le logiciel a été entraîné sur des corpus différents par langue, ou si il y a un seul modèle géant.
Ça aurait des implications intéressantes comme l'usage de faux amis et franglais (par exemple " qui manque de context " sans e) ), et surtout, le fait de refléter le style dominant de l'anglais (vu qu'on m'a expliqué un jour que pour les anglophones, c'est moins un souci d'avoir des répétitions).
[^] # Re: Vu, mais tard
Posté par ekyo . Évalué à 3. Dernière modification le 26 janvier 2023 à 07:53.
Son style ?
Une phrase = 1 pique, 3 questions existentielles, 4 vannes.
Ce que personnellement je trouve très agréable à lire, et qu'une IA aura bien du mal à imiter !
# Ce qu'il y a bien avec les avis
Posté par stopspam . Évalué à 2. Dernière modification le 24 janvier 2023 à 12:26.
C'est que tout le monde donne le sien sans qu'on lui demande ;)
Blague à part, ChatGPT trust la première page d'hackernews depuis 2 mois maintenant et donc repris par l'ensemble de la presse française. Tu laggues un peu sans compter qu'à force ça lasse (suis-je le seul ?).
Les flamewars sur systemd, zemmour, tesla, apple, linux et le desktop, microsoft c'est des méchants, main/master, liste d'exclusions/liste noire, weboob, les phrases qu'il ne faut plus dire (…) me manquent.
edit : heureusement un policier de l'orthographe sauve l'honneur https://linuxfr.org/users/groumph/journaux/un-souci +1 pertinent ^
[^] # Re: Ce qu'il y a bien avec les avis
Posté par Ecran Plat (site web personnel) . Évalué à 2.
Tu as raison, au début c'était l'effet "wouah", maintenant je m'en lasse, je l'utilise juste comme correcteur d'orthographe amélioré (ce commentaire a été corrigé par ChatGPT).
Autrement, j'aime bien l'intelligence artificielle de diffusion stable, j'utilise l'outpainting pour générer des paysages que je trouve de rêve (surtout pendant cette période froide).
[^] # Re: Ce qu'il y a bien avec les avis
Posté par octane . Évalué à 3.
oui, et j'y ai surtout lu beaucoup de fantasmes, des bêtises sans nom, et des banalités pour le plus intéressant.
alors oui, cet article je l'ai laissé traîner longtemps, il a eu plusieurs versions très différentes. Fallait-il mettre la question avant, fallait il montrer 2 articles? Fallait il le faire (selon toi non).
Après l'avoir utilisé pendant pas mal de temps (presque depuis le début), je voulais montrer que finalement, il s'en sort pas trop mal à la création de texte un peu neutre et vide. L'écriture est pas mal, il fait des petites fautes. La démonstration par l'exemple semblait le meilleur moyen.
Après, ouais ça lasse. De toute façon, chatgpt devient inutilisable, ça fonctionne un peu le matin (heure française) l'AM, tous les américains doivent s'y connecter et il est juste indisponible.
[^] # Re: Ce qu'il y a bien avec les avis
Posté par stopspam . Évalué à 3.
ça reste tout de même bluffant et si on parle énormément de lui c'est qu'il apporte au final une belle avancée par rapport à l'existant.
Maintenant, la période des POC autour de lui va se tasser un peu (enfin j'espère) pour revenir d'ici qq mois sous des formes vraiment abouties et portées par des services mondiaux.. A suivre
[^] # Re: Ce qu'il y a bien avec les avis
Posté par gUI (Mastodon) . Évalué à 10. Dernière modification le 24 janvier 2023 à 16:18.
Non, pas spécialement. Il est mieux que les autres de part le corpus gigantesque et les moyens mis en oeuvre, mais fondamentalement il fait comme les autres : du langage pur, où il pronostique simplement le prochain mot le plus probable.
Du coup il parle syntaxiquement bien, mais sémantiquement très moyennement : il est capable d'écrire tout et son contraire dans une même conversation.
En fait il ne "sait" rien.
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: Ce qu'il y a bien avec les avis
Posté par BAud (site web personnel) . Évalué à 7.
par exemple, il ne sait pas raisonner : un collègue lui a posé la question « la mère de Caroline a 3 enfants, les deux premiers son riri et fifi, quel est le nom du dernier ? »
(hint : nan, spa loulou :p)
[^] # Re: Ce qu'il y a bien avec les avis
Posté par Gil Cot ✔ (site web personnel, Mastodon) . Évalué à 2.
Coucou castor junior :D
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
[^] # Re: Ce qu'il y a bien avec les avis
Posté par Misc (site web personnel) . Évalué à 3.
Aucune rapport avec le besoin de générer de la hype après le crash du web", des cryptomonnaies, du metavers et du reste :p
Ça se saurait si l’hébergement de HN était financé par des ventures capitalistes et autre business angels.
# Assez consensuel
Posté par raphj . Évalué à 5. Dernière modification le 24 janvier 2023 à 13:23.
Je trouve cet argumentaire généré assez consensuel.
Il "s'est gardé" de générer un argument plus dans la controverse, du style « ChatGPT s'appuie sur un large corpus de texte en ligne dont les auteurs et autrices n'ont pas donné leur accord explicite pour cette utilisation. Sans parler de l'aspect discutable de la démarche d'un point de vue éthique, un flou légal existe autour de l'entraînement de modèles de traitement automatique tels que ChatGPT en s'appuyant sur le fair use, rendant potentiellement les textes générés inexploitables légalement. Cette utilisation n'a pas encore été testée dans des tribunaux et n'est pour l'instant pas clairement autorisée par les lois sur les droits d'auteurs, et est principalement basée sur un pari audacieux. »
[^] # Re: Assez consensuel
Posté par arnaudus . Évalué à 4.
Le "flou" auquel tu fais référence m'a l'air assez fantasmé quand même. Imagine que tu apprends à programmer uniquement à partir de livres sous CC-BY, et que tu t'entraines sur un site sous GPL. Tu trouves un job de développeur, est-ce que le code que tu produis pour ton patron est automatiquement sous GPL? C'est absurde. Bah c'est pareil pour chatGPT. On ne peut pas diluer le droit d'auteur à l'infini. Si tu crées un texte en prenant un mot à Proust, un mot à Zola, un mot à Hugo, etc. jusqu'à avoir 2000 mots, ton texte n'est pas un travail dérivé de tous ces auteurs; comme tu n'as pas repris une partie assez substantielle d'aucune des œuvres, le droit d'auteur ne "contamine" pas ta production.
En fait, le code ou le texte produit par chatGPT n'a simplement pas de licence, ni d'auteur. Il n'est pas une œuvre de l'esprit, il ne reflète pas la personnalité d'un auteur. Quelque chose qui n'est pas une œuvre de l'esprit de ne peut pas être un travail dérivé d'une œuvre de l'esprit, donc je ne vois pas quel risque juridique il peut exister.
Éventuellement, le corpus de documents stocké sur les serveurs d'OpenAI peut être problématique si les documents en question ne pouvaient pas être copiés (mais auraient-il fait une erreur aussi grossière?). Mais comme les textes produits par chatGPT ne peuvent pas être attribués à une source particulière, il n'y a aucune raison d'imaginer qu'il existe un risque de réutiliser le produit de chatGPT.
Cela va sans dire, ça ne fonctionne que si l'AI n'est pas overfittée et qu'elle ne recrache pas des paragraphes entiers de sa base de données, comme le faisait l'outil de github. Mais là c'est plus un problème technique qu'un problème juridique.
[^] # Re: Assez consensuel
Posté par raphj . Évalué à 1. Dernière modification le 24 janvier 2023 à 17:35.
Mais c'est là où on n'est fondamentalement pas d'accord. Pour moi, les processus impliqués dans l'apprentissage d'un être humain ne sont pas du tout comparables aux algos qu'on appelle "apprentissage" pour une IA. Même terme, mais il ne faut pas s'y méprendre, ce n'est pas du tout la même chose.
Fondamentalement, je me trompe peut-être et tu as peut-être d'accord. Mais force est de constater qu'on est beaucoup à penser comme toi beaucoup à penser comme moi.
Du coup, comment on fait ? Pour moi : j'attends que le système légal apporte une réponse à ce questionnement. Et éventuellement on réfléchit au problème, on fait du lobby pour que les choses bouge dans le sens qu'on veut.
Ils font le pari qu'ils peuvent utiliser les closes de fair use. Leur service légal semble avoir atteint la conclusion que c'est jouable comme ça (au mois risque acceptable). À tort où à raison, encore une fois.
[^] # Re: Assez consensuel
Posté par arnaudus . Évalué à 4.
Si ton argument c'est que la loi ne dit rien sur la question, on est d'accord. Mais quels sont les arguments de ceux qui pensent que ChatGPT enfreint le droit d'auteur? Aux US, le fair use est très protecteur (en gros, tu peux réutiliser ce que tu veux tant que tu es de bonne foi et que tes objectifs ne gênent pas les auteurs). Le fair-use est beaucoup plus souple que nos exceptions au droit d'auteur, il autorise certaines choses qui seraient interdites en France (comme par exemple reprendre des œuvres sous copyright dans des livres scolaires).
En France, le droit d'auteur est réservé aux œuvres de l'esprit, et une œuvre de l'esprit s'entend comme "œuvre de l'esprit humain" (pas de droit d'auteur pour les animaux, même les chimpanzés qui comprennent très bien qu'ils dessinent). Du coup, dans quel univers on peut qualifier la production d'un algorithme comme "œuvre de l'esprit"? Il me semble assez net qu'en droit Français au moins, sauf un retournement de jurisprudence extraordinaire, la production de ChatGPT n'est pas soumise au régime du droit d'auteur.
D'ailleurs, sur un sujet parallèle, il semble qu'il y a eu de sérieuses discussions autour d'un "artiste" qui créait des œuvres graphiques à partir de DALL-E. C'est quand même une question très proche. Si j'ai bien compris, il semblait se dessiner l'idée que ses œuvres étaient soumises au droit d'auteur parce qu'il était l'auteur de la requête qu'il avait transmis à DALL-E (le texte de description et de nombreuses étapes successives d'amélioration). Ça semble au moins compatible avec le droit; l'IA est un outil, et seul l'humain qui a utilisé l'outil peut revendiquer des droits, sous réserve de prouver que la manière dont il a utilisé l'outil était originale et non-triviale.
Bon, c'est beaucoup de bla bla pour dire que, factuellement, en effet, il n'existe aucune jurisprudence. Mais le fait que la jurisprudence n'existe pas est un argument très faible pour supposer l'illégalité du procédé, puisque s'il n'y a pas de procès (par exemple parce qu'on est sûr de perdre), alors il n'y a pas de jurisprudence.
À mon avis, les premiers procès, ça ne va pas être sur le caractère d'œuvre dérivée des algos d'IA, ça va être sur le caractère original des productions d'IA que des humains vont revendiquer comme leur travail. Mais je suis prêt à parier que pour gagner, ils vont devoir montrer par tous les moyens qu'ils ont modifié la production après coup, et qu'ils ont donc "ré-humanisé" le résultat de l'algo. Et ils seront obligés de faire ça parce qu'il semble assez évident que le produit brut d'une IA n'est pas une œuvre et n'est pas protégée par le droit d'auteur…
Au passage, si quelqu'un sait sous quel régime les photos prises par des systèmes automatiques (type photos satellites) sont protégées, ça m'intéresserait. Pour moi ce sont typiquement des documents qui ne sont pas des œuvres, et pourtant il y a tout un tas de copyright dessus. De même que les cartes IGN etc qui sont "reproduction interdite".
[^] # Re: Assez consensuel
Posté par bunam . Évalué à 8.
Très d'accord.
J'ajoute que la populace est bien en mal de comprendre ce que sont fondamentalement ces outils, ce sont de super copieur/colleur/malaxeur/arrangeur, rien de plus.
Leur job faire un truc qui ressemble à "quelque chose" rien de plus. Il n'y a aucune intelligence là-dedans.
On peut leur faire dire n'importe quoi, si on trafique le contexte. Ils n'ont aucune conscience de ce qu'ils dégueulent.
Si on prend ces outils au pied de la lettre, on court à la catastrophe.
C'est juste divertissant.
Je préférerais que les temps passés sur toutes ces machines servent vraiment à la science, comme l'entrainement à la découverte de diagnostics. À la découverte de nouveaux matériaux. Nous faire progresser dans la recherche de nouvelles énergies. Ou d'autres trucs dont je n’ai pas idée, mais qui nous apporterait un réel bénéfice.
[^] # Re: Assez consensuel
Posté par Faya . Évalué à 3. Dernière modification le 25 janvier 2023 à 01:16.
Oui il faut connaître les limites de l'outil et cesser de l'utiliser comme un oracle qui peut nous apporter la réponse à la Vie l'Univers et tout le reste mais ça ne signifie pas du tout qu'il est inutile. Les démos des médias ne montrent que la partie ludique du truc mais il y a quantité de scientifiques qui entrevoient des applications pratiques bien plus importantes. Et je dis bien entrevoir car nous n'en sommes qu'aux débuts. À un autre niveau c'est aussi l'acquisition d'expérience dans la manipulation de réseaux neuronaux, le deep learning, le traitement automatisé du langage naturel et autres concepts abstraits,… Bref il faut voir plus loin que le jouet et les connaissances acquises pour créer ce ChatBot pourront servir demain pour aider des handicapés ou quelque autre application que nous n'avons pas encore identifiée.
C'est de la Science. Il n'y a pas de ligne droite entre l'objectif et le résultat, parfois même on atteint un résultat qu'on ne visait pas.
(et sinon, à un niveau plus terre à terre, ce jouet m'est déjà bien utile. cf. ci-dessous)
[^] # Re: Assez consensuel
Posté par jyes . Évalué à 5.
Non, mais le contenu qu’il a avalé et recrache au travers de son algo l’est !
Si tu prends le cas d’une IA un peu plus simple : ‘cat’; aussi intelligent que soit ce programme, on peut facilement s’accorder sur le fait qu’il ne produit d’œuvre de son esprit. Pourtant, quand tu fais ‘cat monfichier’, ça ne rend pas magiquement le contenu de ‘monfichier’ libre de droit.
ChaGPT mouline un peu plus entre ses fichiers d’entrée et de sortie, ce qui fait que tu as plus de mal en lisant sa sortie à retrouver les fragments des fichiers d’entrée qui l’ont produite, mais ça ne change pas grand chose à la question.
[^] # Re: Assez consensuel
Posté par arnaudus . Évalué à 6.
Bah si, ça change tout, puisque tu ne peux même pas prouver que la sortie dépend de ton œuvre qui est dans la base de données. La sortie de chatGPT n'est pas plus soumise au droit d'auteur que la sortie de md5sum. Comme je l'ai dit ailleurs, le droit d'auteur n'est pas diluable à l'infini.
Par exemple, ta phrase "Si tu prends le cas d’une IA un peu plus simple" est, selon toutes vraisemblance, soumise potentiellement au droit d'auteur. Il n'existe aucun hit sur Google, et il est vraisemblable que jamais personne avant toi ne l'avait écrite. Bien sûr, elle n'est pas d'une originalité incroyable, mais c'est ta phrase. Si ChatGPT te la ressort, tu peux avec une forme de certitude affirmer qu'il te l'a "volée". Ça marche aussi avec "Si tu prends le cas d'une IA"; apparemment personne n'avait non plus écrit ce bout de phrase. Par contre, "Si tu prends le cas d'une" ramène 15200 hits sur Google. De manière évidente, "Si tu prends le cas d'une" est un bout de phrase qui n'est pas à toi exclusivement. Si ChatGPT dit "Si tu prends le cas d'une", même si ta phrase à toi est dans sa base de données, tu ne peux pas en revendiquer l'exclusivité. Il est d'ailleurs probable que ce morceau de phrase est présent en plusieurs exemplaires, et que tu n'es pas le premier à l'avoir écrite.
Autrement dit, ce que j'essaye de dire, c'est qu'il existe une différence qualitative entre "Si tu prends le cas d'une", et "Si tu prends le cas d'une IA". Bien sûr, le droit d'auteur ne fonctionne pas exactement comme ça, mais il admet une différence qualitative entre ce qui est une œuvre de l'esprit et ce qui ne l'est pas. Il n'y a pas de "moitié d'œuvre", ou de violation partielle de droit d'auteur, c'est binaire.
Ce qui peut paraitre paradoxal, c'est que si tu entraines chatGPT avec du code sous GPL, la sortie n'est pas sous GPL, parce que la sortie n'est pas une œuvre dérivée, il n'y a pas eu assez de "copie" entre les milliers de sources et la sortie. De la même manière, tous les mots d'un texte peuvent être retrouvés dans l'œuvre de Zola, mais ça ne veut pas dire que tous les textes sont des plagiats de Zola.
[^] # Re: Assez consensuel
Posté par Renault (site web personnel) . Évalué à 5.
Le problème ne se pose pas tellement pour des extraits ou des choses aussi simples, car en effet ce n'est pas une phrase même copié / collé d'un livre qui viole le droit d'auteur.
Mais étant données les capacités de ces IA et de celles à venir, il faut voir plus loin. Un jour peut être que ses IA produiront un texte dont des paragraphes entiers seront identiques (ou presque) au contenu d'une œuvre quelconque. Le plagiat et la violation de droit d'auteur pourrait survenir. Et il faut anticiper la limite juridique à poser.
# Ça ne vous gêne pas ?
Posté par Ysabeau 🧶 (site web personnel, Mastodon) . Évalué à 9.
Vous entraînez gratuitement une IA qui servira commercialement, voire, à votre détriment et pour l'entraînement de laquelle des Kényans sont payés à des tarifs de misère ?
« Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.
[^] # Re: Ça ne vous gêne pas ?
Posté par Psychofox (Mastodon) . Évalué à 6.
Et au prix de problèmes psychiques.
[^] # Re: Ça ne vous gêne pas ?
Posté par Faya . Évalué à 7.
Concernant le salaire des Kenyans, l'article du Time nous donne les chiffres : «between around $1.32 and $2 per hour» , ce qui fait entre 164 et 248 shillings kenyans. C'est supérieur au salaire horaire d'employés de gardiennage, nettoyage,… On est dans la moyenne des emplois du style «Commis, Patroniste (dessinateur), Boulanger, Téléphoniste, Réceptionniste, Magasinier» de Nairobi. Ouais, les Kenyans n'ont pas le niveau de vie des français… merci à OpenAI d'ouvrir les yeux aux français qui ne réalisent pas à quel point ils sont riches par rapport au reste du monde. OpenAI a payé le prix du marché. (Je fais mon Zenitram là…)
Par contre ce qu'on peut leur reprocher c'est le travail demandé : passer des heures à trier des textes racistes et des images violentes, pédoporno &co. Du coup ça a conduit à la rupture de contrat avec la boîte Kényane.
«Qui servira à votre détriment»
{{Référence nécessaire}}
Je l'utilise, pour l'instant, à mon avantage : je travaille avec. c'est un modèle de langage donc on parle beaucoup des textes insipides qu'il sait rédiger mais pour moi son avantage n'est pas là. Il est bon pour classer/nettoyer des données ou expliquer un bout de code. Je trouve que c'est un assistant sympa pour du dev. À condition de savoir ce qu'on fait, il complète efficacement Google/StackOverflow. Il est bien utile à mes stagiaires aussi/
Exemple réel :
[^] # Re: Ça ne vous gêne pas ?
Posté par Zatalyz (site web personnel) . Évalué à 3.
Ho, c'est beau comme usage. Ça va me permettre de comprendre certains scripts un peu touffus sans passer des heures à lire man (c'est bien aussi de lire man, ok, mais j'aime gagner du temps).
[^] # Re: Ça ne vous gêne pas ?
Posté par gUI (Mastodon) . Évalué à 9.
Au passage, si tu n'as pas ça en bookmark, fais-le de suite : https://explainshell.com/
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: Ça ne vous gêne pas ?
Posté par Zatalyz (site web personnel) . Évalué à 2.
Merci :)
[^] # Re: Ça ne vous gêne pas ?
Posté par gUI (Mastodon) . Évalué à 10.
Il me semble bien que non, elle a déjà été entraînée, et n'apprend plus rien. D'une part parce que c'est trop risqué (le coup du Nazi en 24h par exemple) et d'autre part parce que tel que chatGPT est fait il donne des réponses mais n'attend pas une correction. Seule la conversation le fait évoluer au sein d'une discussion, mais il "repart de zéro" à chaque conversation.
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: Ça ne vous gêne pas ?
Posté par claudex . Évalué à 4. Dernière modification le 25 janvier 2023 à 09:59.
Oui, il n'apprend rien automatiquement, mais c'est bien écrit que les conversations peuvent être utilisées pour améliorer le fonctionnement de ChatGPT.
« Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche
[^] # Re: Ça ne vous gêne pas ?
Posté par steph1978 . Évalué à 2.
J'avais la même compréhension. Pour moi, il n'y a pas de boucle de rétroaction lié à son utilisation.
La phase d'entraînement est faîte (c'est GPT3.5) et la phase d'éducation (coût de bâton sur les doigts si tu es pas poli) est faîte par les Kényans, j'imagine avec un cahiers des charges des bonnes manières États-uniennes. Donc pas par mr/mm tout le monde.
# Bien utile…
Posté par Anthony Jaguenaud . Évalué à 3.
Je ne suis pas un pro du python, et donc j’avais une question… même si je sais que la réponse de linuxfr sera pertinente et pas forcément concensuelle. Je lui ai demandé ceci :
Vous pouvez rendre une variable de fonction accessible dans une sous-fonction en utilisant l'instruction "nonlocal" dans la sous-fonction. Cela indique à Python que la variable est définie dans l'espace de nom de la fonction parente, plutôt que dans celui de la sous-fonction.
Exemple:
Sinon, vous pouvez également utiliser la variable globale pour rendre la variable accessible dans la sous-fonction en utilisant l'instruction "global" dans la sous-fonction.
Exemple :
On peut remarquer qu’il n’est pas fixé sur mettre une espace avant les ’:’ pour les exemples ;-)
Moi je trouve que c’est utile et rapide pour certains trucs.
[^] # Re: Bien utile…
Posté par Philippe F (site web personnel) . Évalué à 10.
C'est typiquement du ChatGPT. Ca ressemble à une réponse intelligente et argumentée, sauf qu'il te raconte des conneries. Cet outil a vraiment un potentiel de nuisance incroyable.
Pour accéder à une variable d'une fonction parente dans une sous-fonction, tu n'as rien à faire. C'est disponible de base en Python, l'ensemble des variables de la fonction parente sont accessibles directement.
La réponse de ChatGPT est en revanche correcte pour une autre question, qui est: comment modifier sans une sous-fonction une variable d'une fonction parente.
J'imagine que cette deuxième question est plus fréquente que ta question initiale, il a donc répondu à la question la plus fréquente au lieu de répondre à ta question. Ici, c'est sans danger et la réponse est quand même utilisable dans ton contexte. Mais, ça tient de la chance plus qu'autre chose. Donc, utilise du code de ChatGPT que si ton besoin est hyper bateau et standard. Et si ton besoin est hyper standard, tu auras presque aussi vite fait de recopier un tutorial sur internet.
Le pire, c'est que si une erreur est hyper répandue, mais qu'une nouvelle façon de faire récente commence à émerge, ChatGPT te fournira du code avec l'erreur hyper répandue.
On retrouve la même problématique que dans les IA présentées ces dernières années, en pire puisque le maquillage est de meilleure qualité. La tromperie est bien plus sournoise.
Les IA n'étant capables d'apprendre que sur un modèle où une majorité de données se ressemblent, elles ont un biais encore plus fort que les être humains pour ignorer les minorités. En tant qu'être humain, je peux faire un choix humaniste et par exemple, choisir de donner plus d'espace d'expression à une minorité car celle-ci en a été privée pendant longtemps. L'IA fera le choix inverse, si cette minorité d'expression a été privé d'espace de parole pendant longtemps, elle continuera à les priver.
[^] # Re: Bien utile…
Posté par Claude SIMON (site web personnel) . Évalué à 2.
Oui et non.
Oui si c'est pour lire la variable, non si c'est pour la modifier.
UnboundLocalError: local variable 'msg' referenced before assignment
hello world
Pour nous émanciper des géants du numérique : Zelbinium !
[^] # Re: Bien utile…
Posté par Gil Cot ✔ (site web personnel, Mastodon) . Évalué à 2.
C'était la suite de son commentaire…
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
# Avec un peu d'exéprience
Posté par sobriquet . Évalué à 3.
J'ai tilté à la phrase "Il y a de nombreux usages pour ChatGPT." Personne n'utilise ce genre de phrase de transition dans la vraie vie, ChatGPT les emploie abondamment.
A posteriori, il y a d'autres indices :
- la phrase d'intro est trop plate et générique, il aurait peut-être fallu briefer ChatGPT pour qu'il adopte une personnalité ;
- Le premier paragraphe donne à la fois trop de contexte et pas assez. Trop pour ceux qui connaissent déjà, pas assez pour ceux qui ont vécu dans une grotte les 3 derniers mois et apprécieront de savoir que ça fait le buzz ;
- Il n'y a aucun hyperlien, dans un média où les rédacteurs en mettent volontiers ;
- Il est très générique et ne donne aucun élément factuel ;
- La phrase de conclusion invitant à la prudence et à l'éthique est apparue très souvent dans mes tests, au point qu'elle commence à me sortir par les yeux. J'y vois là un tweak de Microsoft pour éviter une nouvelle shitstorm.
Et vous, quels indices avez-vous trouvé pour détecter les textes de ChatGPT ou autres ? Avez-vous des astuces pour générer des textes de qualité ?
[^] # Re: Avec un peu d'exéprience
Posté par gUI (Mastodon) . Évalué à 5. Dernière modification le 24 janvier 2023 à 17:34.
Si il parle aussi creux que mon chef, c'est que c'est une IA. En tous cas il sera remplacé avant moi, c'est certain.
Doucement, Microsoft vient à peine d'arriver :) Non ces phrases sont surtout là après la validation humaine des différentes réponses. On ne laisse jamais une IA en roue libre, il y a toujours des phases où des humains doivent la guider. Et ils ont reçu comme instructions de limiter (voire de bloquer) les propos fâcheux.
Quelques infos sur cette phase : https://www.youtube.com/watch?v=R2fjRbc9Sa0&t=708s
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: Avec un peu d'exéprience
Posté par claudex . Évalué à 5.
Microsoft bosse avec OpenAI depuis 2019 (après y avoir investi 1 milliard).
« Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche
[^] # Re: Avec un peu d'exéprience
Posté par Zatalyz (site web personnel) . Évalué à 4.
En plus de ce que tu liste, les articulations dans la structure du texte. Ça tient en partie aux adverbes et locution adverbiale dont Chatgpt fait un grand usage. Rares sont les gens qui écrivent avec autant d'adverbes, sauf peut-être dans les copies pour le bac. Les textes de Chatgpt me donnent l'impression de lire des exercices de lycéens qui tentent de répondre à une consigne.
Et oui, il y a des formulations dont il abuse et qu'on repère quand on a lu suffisamment sa prose.
Pour autant, si Octane avait fait écrire sur un autre sujet (sans que je pense à Chatgpt), j'aurais quand même pu me dire que c'était vraiment son texte. Il y a des circonstances où on envisage l'écriture assistée et où on peut repérer les tics de langage de l'IA, mais il y a aussi plein de textes qui doivent passer crème parce qu'on ne se pose pas la question.
[^] # Re: Avec un peu d'exéprience
Posté par fearan . Évalué à 3.
En fait pour avoir lu des articles de chatGPT généré par ce dernier, c'est fou le manque d'originalité de ce robot, j'ai tilté bien avant la fin.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
# C'est évident... après coup
Posté par arnaudus . Évalué à 10.
Ce que je trouve frappant, c'est à quel point il est facile, après coup, de minimiser les progrès des systèmes automatiques qui miment l'esprit humain. Il y a 15 ans, il était évident pour tous que créer une image à partir d'une description textuelle était de manière évidente une preuve d'intelligence (il faut comprendre le texte, et il faut composer l'image dont le texte était une description). Or, il s'avère maintenant que c'est à la portée d'un réseau de neurones bien entrainé. Du coup, c'est "évident" que ça n'est pas une tâche aussi complexe que ça.
Pareil pour chatGPT. Écrire un texte de 40 lignes rempli de platitudes sur un sujet d'actualité, c'est largement à sa portée. Sauf que jusqu'à maintenant, c'était des humains qui faisaient ça. Des articles sur des sites d'actualité sans intérêt, des introductions de rapports de stage, des dissertations de philosophie…
Sauf que bon, non, ça aussi ça n'était pas du tout aussi évident. Quand je corrige un rapport d'un stagiaire, ça ressemble souvent à du ChatGPT en pire (avec des fautes d'orthographe, de syntaxe, de construction de raisonnement…). Ça n'est pas du tout évident de faire du ChatGPT à la main, ça demande de l'expertise, de l'entrainement, et du temps, beaucoup plus de temps que le système automatique. Bien sûr, ChatGPT ne produit que des documents de type "rapport à la va-vite" ou "news sur un site publicitaire", il ne produit pas encore de thèses ou d'articles d'opinion. En fait, de part son fonctionnement, il semble ne pas pouvoir produire de texte original. Mais bon, il faut quand même réaliser un truc, c'est que la très grande majorité de la production écrite de l'humanité n'est pas bien originale. Il va falloir sacrément relever le niveau pour mériter notre casse-croute à la fin du mois, et ça ne risque pas de s'améliorer pour nous.
Ce qui me fait grincer des dents, c'est par exemple à quel point les gens du XIXe siècle étaient profondément convaincus que l'excellence à un jeu comme les échecs démontrait irréfutablement la puissance de l'esprit humain. Et on peut d'ailleurs lire qu'il semblait totalement impossible qu'une machine puisse donner le change, et que l'humanité serait détruite le jour où une machine y arriverait, parce que le jeu d'échecs était l'exemple ultime de l'intelligence. Depuis, le moindre smartphone met 500 points ELO au champion du monde d'échecs. On a survécu, mais nos certitudes ont carrément explosé. À chaque étape, on se raconte une histoire sur le mode "oui bon OK, si on réfléchit en fait ça n'était pas une tâche si dure que ça, ça n'est pas vraiment un signe d'intelligence", etc. Mais bon, arrêtons de tourner autour du pot quand même, avec de tels raisonnements ChatGPT est plus intelligent qu'une grande partie de la population—si on se fie à la capacité à répondre à des questions écrites; il pulvérise la plupart des lycéens à n'importe quel contrôle de n'importe quelle matière, il aurait probablement le bac, peut-être même avec mention. Quand on minimise ce truc, on se ment quand même pas mal, et on espère que ça ne va pas progresser trop vite quand même…
[^] # Re: C'est évident... après coup
Posté par Zatalyz (site web personnel) . Évalué à 4.
Je confirme, ça a été une grosse surprise pour moi il y a quelques années. J'ai bossé un peu pour faire du texte "plat" ; j'ai vite arrêté parce que c'était vraiment mal payé, mais avec mon petit niveau de français et un coup de correcteur orthographique, j'étais classée dans les rédactrices "expertes", et c'était vraiment un pourcentage infime des rédacteurs qui bossaient pour cette boîte. C'est facile quand on a baigné dans un milieu littéraire et qu'on aime écrire, mais ce n'est pas le cas pour tout le monde. Et je sais très bien que mon niveau n'est pas extra ; disons à la hauteur d'un ChatGPT.
À présent, rédiger ces articles de commande avec ChatGPT consiste à relire et améliorer les quelques points où il est mauvais ; ça deviendrait presque rentable de se remettre à ce genre de job. Bien que je ne vois pas trop qui va encore payer pour ça. Mais on va clairement avoir une overdose de textes vides un peu partout.
[^] # Re: C'est évident... après coup
Posté par gUI (Mastodon) . Évalué à 7. Dernière modification le 24 janvier 2023 à 19:21.
Toujours pareil, même avec ChatGPT il va y avoir ceux qui savent s'en servir et ceux qui font illusion 3 minutes.
Par exemple j'ai vu passer une vidéo de qqu'un qui parle de cette activité (rémunération pour un article de blog par exemple). Et bien déjà il a quelques conseils assez avisés.
Au lieu de dire "rédige moi un article sur l'apport de le coucourge dans l'élevage des lapins", il dit "quels seraient les 5 points principaux à aborder si l'on parle de la culture de la coucourge dans l'élevage des lapins", ensuite il reprend chaque point et lui demande "rédige-moi un article de 200 mots sur le chapitre …".
Sans être non plus un article de très haut niveau, c'est déjà bcp mieux que le premier jet (notamment bcp mieux structuré évidemment) qu'il avait envoyé par le simple "rédige-moi un article sur…" et ça reste du 100% ChatGPT (largement améliorable, mais rédigé en qques secondes).
Et des trucs comme ça il va y en avoir plein qui seront découverts par des gens qui insistent, qui savent vers quoi ils veulent tendre et trouveront des moyens plus ou moins détournés d'arriver à leurs fins.
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Convergence
Posté par devnewton 🍺 (site web personnel) . Évalué à 6.
Tu as raison, il ne faut pas minimiser l'exploit: l'IA n'est pas encore aussi intelligente qu'un humain éduqué et motivé, mais elle est largement supérieure qu'un journaliste idiot et/ou mal payé.
A quel moment les progrès de l'IA et les régressions des travailleurs vont-ils se croiser?
Le post ci-dessus est une grosse connerie, ne le lisez pas sérieusement.
[^] # Re: Convergence
Posté par arnaudus . Évalué à 3.
J'ai du mal à comprendre où tu veux en venir. On fait comment si les jobs de bureau peu qualifiés disparaissent?
[^] # Re: Convergence
Posté par fearan . Évalué à 10.
On travaille moins \o/
On arrête les bullshit jobs
Et on passe au revenu universel.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Convergence
Posté par arnaudus . Évalué à 3.
Quelque part, c'est vachement élitiste : du boulot seulement pour les jobs super-qualifiés, la majorité de la population devenant incapable de subvenir à ses propres besoins, perfusée par la richesse produite par une "élite". C'est bizarre comme idéal de société, non?
Est-ce que paradoxalement, l'IA ne rendrait pas le bullshit job virtuellement "gratuit", et par là capable de nous innonder de nuisances qui jusque là étaient réduites par le coût induit? Typiquement, démarchage téléphonique, formulaires à remplir, etc? Je n'ose pas imaginer l'effet d'une IA capable de concevoir et de traiter les réponses à des formulaires administratifs; le pouvoir de nuisance des administratifs en place serait décuplé.
Le bullshit job se rend lui-même indispensable, donc par essence il ne peut pas disparaitre. La plupart des bullshit jobs sont liés à des règles extérieures, réelles ou imaginaires; par exemple sur le contrôle des notes de frais. Comme il existe un risque de problème lors d'un contrôle fiscal, on embauche un responsable des notes de frais, qui met en place tout un tas de procédures (formulaires à signer par une série de responsables hiérarchiques, procédures de collecte, de traitement, d'archivage, etc), qui nécessiteront des formations pour le personnel en charge de traiter les notes de frais sur site, ainsi que pour la totalité du personnel qui devra remplir des demandes de remboursement de plus en plus complexes, avec des règles à tiroir ("si vous êtes cadre de niveau C votre plafond de nuit d'hotel est de 120€ sauf si vous avez montré en respectant la procédure 3.2B-formulaire v2 qu'il n'existait pas d'hôtel correspondant dans un rayon de 5 km (8 km dans les DOM, 12 km dans les TOM, 9km en Corse, 14 km dans les pays de l'OCDE sauf ceux de la liste en annexe D mise à jours tous les 2 ans et 3 mois)", etc. Puis il faudra faire des audits internes, des formations pour les nouveaux arrivants, des bilans de fin d'année sur la quantité de notes de frais, des statistiques (par site, par personne, par catégorie), des réunions pour discuter des statistiques, des rapports, des prévisions sur l'année suivante, des recommandations à discuter en comité machin et truc-muche, etc Comme tout cet échafaudage repose sur une raison réelle, il ne peut pas être démonté.
[^] # Re: Convergence
Posté par fearan . Évalué à 9.
Ah ces gens qui n'existent que par le travail; que la retraite doit être dure!
J'ai un peu l'impression de revoir un épisode de star trek NG, où is décongèle un gars du XXe (ou XXIe siècle) qui pense que l'argent est toujours roi (et qui se définit par l'argent); et où on lui explique qu'avec les synthétiseur ça n'a plus de sens.
Tu te définis par le travail; je me définis par mon temps libre.
Toujours parce qu'on est dans l'optique où c'est l'argent qui définit l'individu et qu'il en faut toujours plus. C'est une logique auto-destructrice et néfaste pour l'avenir de l'humanité; si on arrête la volonté productiviste à la recherche de profit infini on aura déjà fait un grand pas dans la bonne direction.
Très simplement au contraire, surtout avec la dématérialisation des ticket de caisse; tu file au salarié une carte de débit (pas de découvert, ou alors retenu sur salaire) qui envoie directement les ticket de caisse dans un coffre fort numérique, avec un plafond par jour, en précisant qu'il est responsable de ses dépense en cas de contrôle fiscal; y'a potentiellement une réglementation à modifier pour le dernier point (même pas certain), et en plus de virer un bullshit job, tu allège le degré de connerie à gérer par le salarié.
Et pour les pays ne gérant pas cette dématérialisation, tu file un forfait jour en te référant à un barème défini par l'entreprise; ce dernier pouvant être audité en cas de contrôle.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Convergence
Posté par arnaudus . Évalué à 1.
La participation à la vie commune est la base de toutes les sociétés humaines. Si tu glandes pendant que les autres partent chasser le mammouth, tu n'auras que les os à sucer (ou bien tu vas te faire bannir ou buter). Le "travail" n'est qu'une formalisation de la participation à la vie de la société; les richesses produites sont partagées entre ceux qui contribuent. Les autres vivent de la charité, et en général, c'est pas lourd. Le fait de vivre dans une société d'abondance (relative) ne change pas grand chose.
L'abondance veut juste dire qu'on peut avoir plus de trucs par personne, mais ceux qui produisent les richesses (par exemple, la nourriture) ne vont pas la fournir sans contreparties à ceux qui ne leur donnent rien en échange. Tout ce que dont tu auras besoin en vivant du revenu universel (nourriture, logement, culture, biens de consommation, servcies…) seront produits par des gens qui travailleront; que vas-tu leur fournir en échange de leur travail?
Ça me semble en complète contradiction avec le droit du travail, et le droit en général. C'est l'entreprise seule qui est responsable ; après, elle peut mettre en place des sanctions en interne s'il s'avère que certains salariés n'ont pas suivi le règlement, mais il est impossible pour l'entreprise de se décharger sur les fautes individuelles en cas de contrôle fiscal—ça serait beaucoup trop facile.
Ah bah c'est sûr que ta solution ressemble à "On ne fait aucun contrôle, on n'a aucune procédure, en cas de pépin on vous laisse gérer avec le fisc et vous payez les amendes avec vos sous"; tu m'étonnes que ça simplifie la gestion. Il faut juste réécrire le code du travail pour qu'il soit en ligne avec une doctrine ultralibérale où les salariés sont des indépendants qui engagent leur responsabilité individuelle à chaque procédure administrative; ça donne vachement envie.
[^] # Re: Convergence
Posté par fearan . Évalué à 9.
Non.
Je pourrai juste en rester là mais ça pourrait paraître un peu sec. Une bonne partie de la société fonctionne justement hors travail, les association fonctionnent par le bénévolat, le militantisme est généralement bénévole, aider une personne à porter ses courses est une participation à la vie en société.
On a inventé l'argent pour avoir un médium commun, comme unité de mesure. D'un certain coté il est devenu un indicateur; et comme tous les indicateurs il est devenu faussé avec le temps. Le travail est un échange de ton temps contre cet indicateur; mais ce dernier est décorrélé de ce qu'il apporte à la société; je dirai même pire, plus ton salaire/revenu est élevé moins il y'a de chance que ton travail contribue au bien être de la société.
Quelqu'un qui travail sur le marché spot fait, avec son travail, plus de mal à la société que le gars au RSA qui participe à la distribution de la soupe populaire.
Les lobbyistes des grands groupes pétrolier (sachant depuis plus de 50 ans qu'ils contribuent au réchauffement climatique) participent plus à détruire la société qu'autre chose.
Bref le travail est un moyen d'accaparer un indicateur, et non une participation à la société; il arrive qu'un travail apporte quelque chose a la société, mais ce n'est pas obligatoire. Par ailleurs le revenu du travail n'a rien a voir avec l'apport à la dite société;
Comme je l'ai dit tu ne conçois la place de quelqu'un dans la société qu'a travers sont travail, à venir, ou passé; sur un site parlant de logiciel libre tenu par des bénévoles, c'est triste. Te projeter dans un monde où ce dernier n'est pas au centre de la vie t'es inconcevable et c'est dommage.
Justement l'idée est que ça permet de subvenir aux besoins de base, mais que pour être confortable, il faut travailler; pour avoir un pc plus puissant pour jouer, il faudra travailler; Ça veut aussi dire que comme tout monde peut vivre sans travail, tu peux virer les allocation familiale, RSA, minimum vieillesse, le chômage, les apl, simplifier le code du travail, dégager le smic…
Pôle emploi redeviendra un endroit pour trouver un emploi et non une machine à broyer les chômeurs
Si tu le réserve aux personnes résidant légalement en France, ça va aussi limiter le gens venant s'installer et travaillant au black.
Et si y'a des gens qui préfère passer leur journée dans leur canapé plutôt que venir me faire chier au boulot, qu'ils y RESTENT!
Mais tu penses que le problème viendra des agriculteurs, je ne le pense pas; ça viendra plutôt des boulots ingrats mal considéré et dangereux, comme égoutier par exemple; par ailleurs une parti de son revenu (à l'agriculteur) étant assuré par le RU, il y'a des chances pour qu'il en fasse moins (individuellement), et que d'autre participent aussi.
Non c'est opter pour le forfait plutôt que frais réels dans le cas des déplacement à l'étranger, voire simplement le forfait tout court dans tous les cas.
https://www.legalplace.fr/guides/note-de-frais/
Aujourd'hui il existe des carte titre restaurant limitant leur usage, on peut très bien avoir la même chose pour les professionnels
Euh faut pas déconner le gars qui utilise la carte de la société sait très bien ce qu'il fait; de mon point de vue mettre un plafond sur la carte et conserver les justificatifs devrait suffire. Toi tu apprécie peut être passer 1/2 journée par semaine en administratif, mais pas moi, c'est du temps perdu; et au vu de ma rémunération ça finit par coûter cher.
D'ailleurs si les procédure sont aussi lourdes alors que le remboursement forfaitaire est légale, c'est sans doute pour pousser vers ce mode.
Whaou rien que ça! Rendre le salarié responsable de l'usage qu'il fait de la carte de crédit de l'entreprise c'est ultra libéral… Et dire que dans certains pays les ministres démissionnent pour un paquet de cigarette acheté avec la mauvaise carte…
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
# la dernière de chatgpt
Posté par bubar🦥 (Mastodon) . Évalué à 6. Dernière modification le 24 janvier 2023 à 21:10.
Un scientifique a demandé à ChatGPT de lui suggérer 5 articles de bonnes références au sujet des défauts de catalyse.
ChatGPT a répondu.
Les 5 articles étaient de bonne qualité, corrects, et leurs auteurs des scientifiques de renoms dans sa communauté de recherche.
Parfait ?
Il a vérifié : aucun des 5 articles n'existent, ChatGPT les a généré et a mis des noms connus en auteurs.
Voilà voilà …
Référence (il n'est pas [encore ?] sur Masto)
https://twitter.com/BGuzelturk/status/1617327999862571010
[^] # Re: la dernière de chatgpt
Posté par sobriquet . Évalué à 3.
Oui, ChatGPT a tendance à inventer lorsqu'il ne sait pas. Je lui ai demandé des sources sur la corderie médiévale, et j'ai été ravi d'obtenir des titres d'ouvrages de référence que je ne connaissais pas. Non seulement il avait tout inventé mais, en plus, il a persisté dans son mensonge quand je l'ai confronté à la vérité.
J'ai aussi tenté de trouver la date de coupe de son corpus d'apprentissage, c'est à dire la date du document le plus récent de son corpus. Je lui ai donc demandé "que s'est-il passé tel jour de telle année ?" En allant directement à une date très récente, il botte en touche. Mais si j'y vais progressivement, il invente des évènements. D'abord, tel ministre irlandais remplace tel autre. Puis, à la fin, uniquement des statistiques internationales sur le covid ("Le taux de mortalité du Covid au Mexique a dépassé celui de l'Allemagne"). J'ai même réussi à voir l'avenir de cette manière :)
[^] # Re: la dernière de chatgpt
Posté par gUI (Mastodon) . Évalué à 10. Dernière modification le 25 janvier 2023 à 08:50.
Attention, ChatGPT invente toujours parce qu'il ne sait rien. Il fait juste des phrases, comme aurait pu le faire un humain, c'est tout. Vu ce qu'il a appris, ça a souvent du sens heureusement, mais son fonctionnement c'est juste des probabilités de mots dans les textes qu'il a lu (textes qui ont du sens pour l'immense majorité).
Par exemple tu peux lui faire dire tout et son contraire dans une même conversation, car il a lu des pages et des pages de forums dans lesquels des gens changent d'avis.
Mais il n'a aucun connaissance en temps que tel.
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: la dernière de chatgpt
Posté par arnaudus . Évalué à 6. Dernière modification le 25 janvier 2023 à 09:55.
Est-ce que tu as essayé récemment? Il semble qu'il y a eu pas mal de travail là-dessus, justement. La semaine dernière j'ai essayé de le coincer, et je n'ai pas réussi. Il m'a répondu des trucs très sensés, du style "Il n'y a pas de travaux scientifiques qui associent la prise de paracétamol à la survenue d'hémorroïdes", ou "Je ne pense pas que les moteurs rhomboïdaux à clé de voûte hexagonale existent".
Comme ChatGPT est un générateur de texte, il n'a pas été conçu pour écrire des trucs vrais. J'imagine que les concepteurs ont été un peu surpris de voir que les gens s'attendaient à ce qu'il ressorte du contenu encyclopédique, alors qu'OpenAI semblait viser quelque chose du style "test de Turing". Il semble assez évident qu'un interlocuteur qui te calcule en une seconde la primitive de sin(sqrt(x)) n'est pas humain. Il ne faut donc pas que ChatGPT ressorte dans l'ordre les 12 travaux d'Hercule ou te balance les résultats de la dernière méta-analyse sur le nombre de planète par étoile si ton objectif est de fournir quelque chose d'humain.
Au passage, je confirme que ChatGPT est complètement nul en maths, il répond n'importe quoi:
La première ligne est bonne, mais le "which simplifies to" est n'importe quoi (x2 / 2sqrt(x)) ça ne fait pas du tout x/x, et 2x/sqrt(x)-1 ça ne fait pas du tout 2-1/sqrt(x) ).
Utiliser ce truc pour du code ou des résultats technique me parait quand même hautement douteux :)
[^] # Re: la dernière de chatgpt
Posté par gUI (Mastodon) . Évalué à 5. Dernière modification le 25 janvier 2023 à 10:32.
Sur énormément de trucs purement factuels il est capable de raconter des conneries, voire des trucs faux.
À l'instant :
Ou :
=> Non "la cabane au fond du jardin" est un sketche de Laurent Gerra
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: la dernière de chatgpt
Posté par arnaudus . Évalué à 4.
Ça n'est pas faux, il te donne la capitale fédérale, et les capitales des plus gros États. C'est imprécis, mais c'est une réponse sensée à une question qui n'a pas vraiment de sens.
Ça c'est rigolo.
Est-ce que le taux d'erreur est identique en Anglais? Je ne pense pas que le français ait été particulièrement optimisé.
[^] # Re: la dernière de chatgpt
Posté par gUI (Mastodon) . Évalué à 6.
Il est bien là le soucis. Sur un exemple flagrant comme celui-ci, on voit l'erreur, mais sur un exemple plus "mou", comment détecter ? Quoi qu'on lui demande il va répondre. Alors là je joue en connaissant la réponse à l'avance, mais l'intérêt c'est bien qu'il nous donne une réponse à qqchose qu'on ne connaît pas.
On peut parler du code qui ne compile pas par exemple… si il ne compile déjà pas, comment croire que celui qui compile fera ce qu'on lui a demandé ?
Mais après il y a des trucs magiques… au boulot on a un copain qui a le délire "cassoulet", il le place quasiment tout le temps. On s'est vraiment marrés de la réponse de ChatGPT :
peux-tu m'écrire un programme python qui réponde "cassoulet" à n'importe quelle question ?
Oui, voici un exemple de programme Python qui répond "cassoulet" à n'importe quelle question:
Ce programme définit une fonction answer_question qui prend en entrée une question et retourne toujours la réponse "cassoulet". Il imprime ensuite cette réponse pour deux exemples de questions différentes.
(pour être clair la dernière phrase fait aussi partie de la réponse de ChatGPT)
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: la dernière de chatgpt
Posté par Gil Cot ✔ (site web personnel, Mastodon) . Évalué à 2.
On oublié de lui faire faire le mélange des couleurs samedi soir
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
[^] # Re: la dernière de chatgpt
Posté par gUI (Mastodon) . Évalué à 4. Dernière modification le 25 janvier 2023 à 10:31.
Ah tiens j'ai joué avec l'énigme du prix du café, c'est limite grotesque :
Un café coûte 1€.
réponds-moi comme le ferait un prof de math
Pour résoudre ce problème, nous utiliserons l'équation suivante :
café + croissant = 11€
Nous savons également que le croissant coûte 10€ de plus que le café. Nous pouvons donc écrire :
croissant = café + 10€
Maintenant, nous pouvons remplacer la seconde équation dans la première :
café + (café + 10€) = 11€
En résolvant pour café, nous obtenons :
café = 1€
Donc, un café coûte 1€.
t'es nul, ça vaut 50 centimes
Je suis désolé, vous avez raison. J'ai fait une erreur dans le calcul. En utilisant l'équation donnée, un café coûte en effet 50 centimes. Je m'excuse pour cette confusion.
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: la dernière de chatgpt
Posté par arnaudus . Évalué à 6. Dernière modification le 25 janvier 2023 à 11:15.
Je ne trouve pas ça grotesque du tout, c'est au contraire très humain, non?
Mais bon, de toutes manières, il est évident que chatGPT n'a jamais été conçu pour donner des réponses justes, il a été conçu pour mimer le comportement d'humains, qui justement donnent souvent des réponses fausses.
Pour la résolution de problèmes, tu lui demandes de modéliser (mettre en équation), ce qui probablement l'une des tâches les plus difficiles auxquelles un humain (ou un ordinateur) peut être confronté. Il s'en sort bien pourtant! Il se plante sur la résolution de l'équation, qui est paradoxalement très facile. Si tu veux un chatbot qui résout les problèmes de maths, il suffit de le connecer à Wolfram, et ça ne sera plus grotesque du tout.
3 problèmes niveau CM1. Le premier est résolu les doigts dans le nez, le deuxième est résolu (le calcul est bon) mais la réponse donnée est fausse (c'est très étrange), le troisième est complètement faux (question pas comprise, et 46-13 = 23!). Ce dernier est visiblement très dur pour un ordinateur, parce qu'un fait évident pour nous (quand on va au restaurant, chaque personne prend un menu) n'est pas très explicite; il croit donc que trois personnes au restautant qui prennent "chacun un menu" ne fait donc qu'un seul menu, un peu comme quand trois personnes vont au cinéma pour regarder un film. Mais bon, chatGPT a un niveau moyen en maths pour un CM1 :-) Et un niveau en français aussi, puisqu'il invente le joli néologisme "soustractant" du verbe "soustracter" j'imagine, qui est carrément digne d'un CM1 :-D
Le paysan va ramasser 30 œufs en une semaine. Cela peut être calculé en multipliant le nombre de poules (5) par le nombre d'œufs pondus par chaque poule par semaine (6). 5 x 6 = 30.
La caissière doit rendre 4.83 €. Cela peut être calculé en additionnant le prix des articles (4.20 + 9.45 + 1.12 = 14.77 €) et en soustractant cette somme du montant de l'argent donné par la maman (20.00 - 14.77 = 5.23 €).
Le coût d'un menu est de 23 euros. Cela peut être calculé en soustrayant le coût des autres articles (11 + 2 = 13 euros) de l'addition totale (46 - 13 = 23 euros).
[^] # Re: la dernière de chatgpt
Posté par gUI (Mastodon) . Évalué à 5.
C'est exactement ça, il ne faut surtout pas le perdre de vue.
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: la dernière de chatgpt
Posté par arnaudus . Évalué à 5.
J'ai l'impression qu'il y aurait de bien meilleurs résultats en créant des modules indépendants (résolution de problèmes, créativité artistique, savoirs encyclopédiques, chat informel / test de Turing …) chacun optimisé pour mieux répondre aux désirs de l'utilisateur, et d'avoir un système simple qui appelle le bon module.
En tout cas, la pertinence des réponses de chatGPT par rapport à ce qu'on a avec par exemple une enceinte connectée est très impressionnante, c'est quand même un saut technologique assez impressionnant.
[^] # Re: la dernière de chatgpt
Posté par Zatalyz (site web personnel) . Évalué à 3.
C'est très probablement dans les plans pour la suite. Là, on a un module qui répond de façon "humaine", et c'est ce qui est testé. L'objectif est de faire un agent conversationnel, donc d'avoir quelqu'un qui répond comme le ferait un humain, et je trouve cela plutôt réussi ; j'ai eu des conversations avec des services de support qui étaient moins convaincantes sur "l'humanité" de mon interlocuteur (à une époque où ça restait moins cher de payer des humains à lire des scripts). ChatGPT ne passe pas un test de Turing sérieux, mais suffit déjà largement à converser de façon agréable, ce qui n'est pas rien.
Dans l'analyse des conversations par OpenaAi, il est plus que probable que ce soit la suite de questions qui soient étudié afin de voir comment on "converse" avec ChatGPT. Par la suite, associer ça à des modules garantissant des réponses justes est absolument envisageable. Il y a d'ailleurs déjà des domaines sur lesquels ChatGPT est entraîné à ne donner que des réponses spécifiques. Par exemple quand on lui pose des questions sur sa conscience, ce qu'il "sait", etc, la réponse est toujours "je suis une IA, je ne suis pas intelligent, conscient" (faudrait que je retrouve ses formules…). Pourtant d'un point de vue conversationnel, probabilité des mots etc, on pourrait s'attendre à ce que le texte prétende à une conscience (ce que d'autres IA font ; non pas qu'elles aient une conscience mais parce que ce dont on les a nourris appelle un "oui" à la question "as-tu une conscience ?"). Là dessus, comme sur d'autres domaines, les concepteurs de ChatGPT ont voulu éviter certaines dérives problématiques et ont donc contraint le modèle à ne pas sortir de certaines réponses. Du coup, sur ce type de questions, les réponses sont relativement fiables. Relativement parce que si on essaie de passer outre, on finit par trouver comment le déborder et lui faire dire n'importe quoi. Sur les sujets de la santé ou du réchauffement climatique par exemple, avec des questions basiques il ne sort pas de ce qui correspond à un certain consensus scientifique, on sent que le modèle a été briefé sur ces questions pour éviter les dérives et d'avoir un chatbot qui tient des discours antivax. Je ne pense pas qu'on puisse faire dire à ChatGPT "les vaccins sont dangereux" avec une question directe ; par contre, il est possible de lui faire dire ça "dans un certain contexte", mais ça demande de le piéger et au final ses réponses ne sont pas présentées comme une vérité mais bien une réponse dans le cadre d'un jeu de rôle ou d'une fiction.
Jusqu'ici les erreurs factuelles qu'il fait touchent à des sujets qui n'ont pas été revus (= pas de module de "vérité"), comme sur l'histoire, le monde animal ou la pop culture, où il dit facilement des âneries monumentales. En gros il serait très mauvais au trivial pursuit ! Sur les sujets polémiques qui ont déjà été pointés dans le fonctionnement des IA, il y a eu du travail et ça ne me semble pas être que la partie "agent conversationnel" qui décide de la réponse, il y a probablement une orientation des réponses possibles dans un angle restreint.
Je pense que c'est aussi l'enjeu de cette phase ouverte : voir comment les gens piègent ChatGPT pour lui faire dire que la terre est plate, et trouver comment faire qu'il donne toujours une réponse "correcte".
[^] # Re: la dernière de chatgpt
Posté par Renault (site web personnel) . Évalué à 6.
En fait ça paraît étrange car en tant qu'humains ce genre de contradictions élémentaires nous pouvons l'identifier facilement. Mais comme ça a été dit, et tu le soulignes toi même, ce n'est qu'un générateur de texte, le sens logique sous-jacent de tous ses propos lui échappe entièrement. Donc il n'identifie pas de lui même ce genre de contradictions car il n'est pas câblé pour.
J'ai l'impression que même en connaissant son objectif, comme beaucoup de monde, tu raccroches ses réponses à ce qui est produit par un humain en bout de compte et tu identifies des étrangetés qui n'en sont pas tellement. L’interaction sous forme de chat est sans doute un élément qui nous fait faire ce lien alors qu'une autre mise en forme nous feraient je pense mieux sentir ce qu'il y a derrière.
Oui et non.
Déjà le premier problème est que finalement son corpus et sa logique sont assez opaques. On ne peut pas à priori considérer ce qu'il dit comme un minimum fiable, il produit assez de réponses franchement fausses avec un tel aplomb qu'on devrait considérer par défaut tout ce qu'il produit comme faux. Des êtres humains que je considère ainsi par défaut, il n'y en a pas tellement. Car l'être humain s'il dit des bêtises, a quand même :
Étonnamment pour en profiter au mieux de ses capacités, il faut connaître le sujet ou un bout de la réponse ! Alors que spontanément j'aurais plutôt confiance au contenu produit par un prof par exemple, même si je ne connais pas du tout le sujet (c'est un peu le but).
Ces défauts ne sont pas des défauts mineurs qui seront probablement résolus en un an ou avec une version 1.0.1. C'est assez profond, et le fait qu'une IA soit un modèle entrainé et non un code conçu sur mesure rend en effet tout correctif du style bien plus difficile. Et notamment rendre cette IA capable de comprendre ce qu'il dit pour comprendre les contradictions internes de ses propos ou pour être plus proche encore de l'humain ne semble clairement pas une tâche triviale.
Car il faut bien comprendre que pour s'exprimer aussi bien et faire des choses aussi diversifiées, il a avalé une quantité de contenus énorme qui ont elles mêmes des contradictions. Et comme il ne sait pas faire le tri lui même entre ce qui est plutôt vrai et ce qui ne l'est pas et que c'est une tâche fastidieuse de lui faire cerner des propos faux (faut couvrir une quantité de domaines et de savoir gigantesques à la main !).
Cela reste une belle prouesse, il fait plutôt bien illusion et il s'exprime très bien. Mais bon pendant 2 mois tout le monde ne parle que de ça avec souvent une mauvaise compréhension de ce qu'il fait et de quoi il est vraiment capable et c'est dommage. Avec au passage un ramassis de clichés sur la réalité des métiers qui vont disparaître. C'est un pas en avant, mais on est encore loin de Skynet (et en un sens, c'est peut être mieux).
Je citerais d'ailleurs une connaissance sur ce que les propos sur ChatGPT révèle de l'Humanité finalement : mais je suis convaincu qu'à terme, au lieu de créer une véritable IA, on aura un modèle de langage tellement perfectionné qu'on se persuadera que c'est une IA forte et c'est peut être un risque bien plus grand encore.
[^] # Re: la dernière de chatgpt
Posté par eingousef . Évalué à 5.
Combien de temps avant qu'il se lance en politique ?
*splash!*
[^] # Re: la dernière de chatgpt
Posté par sylTer . Évalué à 2.
Je ne résiste pas, en ces temps de triste passage en force sur des questions sociales fondamentales à partager un lien :
https://chatcgt.fr/
qui apparemment utilise l'API de chatGPT
(via https://www.lesnumeriques.com/vie-du-net/chatcgt-l-ia-conversationnelle-a-la-sauce-marxiste-n205097.html)
Bien à tou.tes.
# Ce qu'on fait aujourd'hui avec l'IA est juste incroyable
Posté par Cyprien (site web personnel) . Évalué à 6.
Je me souviens que lorsque l'on avait un pentium II et que l'on passait sur un pentium III, on disait : "Ouah ! C'est incroyable, ça va super vite !"
Ce que fait ChatGPT et beaucoup d'autres IA est tout simplement incroyable en terme de progrès et on dit "bof bof, on reconnaît bien le style…". En fait, je pense tout simplement que l'on a chaud au fesses et qu'on est tous conscient que l'IA va encore progresser, et, qu'à ce rythme, on a tous peur de ce que ça va devenir si on l'utilise à no dépends !
J'entends souvent : l'IA n'atteindra jamais l'intelligence d'un humain, mais il faudrait avant tout se demander à quel point l'humain est intelligent… Finalement, est-ce si compliqué pour un IA de rivaliser ?
# Sympa mais ...
Posté par Enzo Bricolo 🛠⚙🛠 . Évalué à 2.
ça manque de romuliens !
# Chatbot vs générateur de texte
Posté par Benoît Sibaud (site web personnel) . Évalué à 8.
Il me paraît important de séparer la partie génération de texte, qui fait ce pour quoi elle est faite, sans surprise, générer un texte probable dans le contexte fourni, de la partie chatbot qui discute et produit le contexte à donner au générateur.
Le générateur me paraît juste impressionnant par sa "taille", il a eu un vaste corpus de textes, utilise masse de paramètres, blabla. Mais rien de révolutionnaire si j'ai bien suivi, en dehors de la volumétrie.
La partie chatbot fait la différence je trouve. Techniquement j'entends. Et elle amène plein de problèmes éthiques en cachant le fait que c'est une façade pour un générateur et pas pour un cerveau synthétique qui comprend et répond à la question posée… c'est pernicieux, et trompeur même en le sachant.
[^] # Re: Chatbot vs générateur de texte
Posté par gUI (Mastodon) . Évalué à 4. Dernière modification le 25 janvier 2023 à 08:57.
Oui, faut bien faire attention à ce qu'est ChatGPT à la base : un générateur de texte (comme toutes les AI orientées langage naturel).
Pour jouer avec le générateur directement, c'est dans le playground : commencez par taper un texte, il va le finir.
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
# éduquer ChatGPT
Posté par Marc Quinton . Évalué à 2.
j'ai posé la question suivante : que signifie "bronsonisé" sur le site Linuxfr.org ?
je n'ai pas été convaincu par la réponse. Comment faire par la suite pour qu'il apprenne en l'aidant un peu ?
[^] # Re: éduquer ChatGPT
Posté par gUI (Mastodon) . Évalué à 3.
Il n'est pas prévu pour apprendre des utilisateurs. Sinon ce serait déjà la cata :)
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: éduquer ChatGPT
Posté par arnaudus . Évalué à 4.
On peut lire ton commentaire dans les deux sens : bien sûr, si tu laisses les utilisateurs lui raconter n'importe quoi, ça serait la cata. Mais si tu l'entraines pour qu'il ait un minimum d'esprit critique et croise les sources, en l'aidant un peu, je me demande si on est si loin de la singularité technologique, au moins en production de texte. Tu pourrais pas exemple l'entrainer à calculer des scores de crédibilité, et de temps en temps il vérifierait avec une équipe certifiée, du style "j'ai beaucoup d'informations contradictoires sur l'existence du père Noël, qu'en est-il?".
Une possibilité très concrète pourrait être par exemple un partenariat de partage des données avec les entreprises qui achèteront un accès à ChatGPT. Par exemple, un cabinet de conseil (qui, si j'ai bien compris le principe, fait faire du ChatGPT par des stagiaires et facture les rapports à plusieurs centaines de milliers d'Euros). Les partenaires renvoient à ChatGPT les textes corrigés (puisque j'imagine que personne ne pense utiliser les productions brutes), et ChatGPT s'en sert pour s'améliorer et produire des résultats de plus en plus proches de ce qui est attendu de lui. Avec un tel système, on s'attend à ce qu'il y ait de moins en moins de corrections, jusqu'à ce que ça passe du premier coup ou presque.
Un truc qui me semble "évident" (sans prendre en compte les sous-entendus éthiques), c'est d'essayer d'identifier les éléments qui le rendent détectable. S'il commence à prendre en compte qu'une faute de frappe tous les 500 caractères le rendent plus humain, ça pourrait carrément devenir difficile de savoir si on lit du texte écrit par un humain, du texte IA + correction humaine, ou du pur produit d'IA.
[^] # Re: éduquer ChatGPT
Posté par gUI (Mastodon) . Évalué à 4. Dernière modification le 25 janvier 2023 à 10:18.
Ce travail est inévitable et a été largement fait en amont, par les équipes de OpenAI. Pour toute une liste de questions, on lui fait sortir 4 ou 5 propositions, et des humains lui donnent un classement. C'est comme ça par exemple qu'on lui donne les notions de bien ou de mal (et de politiquement correct surtout) de notre société.
Oui évidemment, et je ne serais pas étonné que des produits comme ça soient déjà sur le marché. Mais la difficulté est très grande d'avoir une AI de qualité, la phase d'apprentissage et du "tuning" est longue et complexe, et vraiment l’apanage de spécialistes. Là ChatGPT est gentil, mais il bullshite à mort (ce qu'il pisse est vraiment creux), c'est un bel effet waouh, mais on est très loin d'avoir un truc dans lequel les réponses sont fiables. La différence n'est pas anodine du tout.
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
# J'aime beaucoup la critique de ChatGPT
Posté par Big Pete . Évalué à 4.
On dit que ChatGPT pose problème car il peut raconter des conneries.
Ha.
Ben oui, on veut un truc capable d'imiter l'intelligence humaine, et c'est la base. On recopie et on propage bêtement des idées fausses sans vérifier la source, on croit dans des trucs qu'on ne vérifie pas, on invente quand on ne sait pas, on est farci de biais cognitif, etc …
Et là on devrait reprocher à une intelligence artificielle à qui on demande de penser comme nous de …. penser comme nous.
C'est assez amusant.
Comme dirait l'autre, pas Turing, Audiard, les humains, ça ose tout, c'est même à ça qu'on les reconnait :)
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
[^] # Re: J'aime beaucoup la critique de ChatGPT
Posté par Christophe B. (site web personnel) . Évalué à 3.
C'est la ou je comprends pas le progrès …
Quand je veux entendre des conneries ou des trucs faux ou approximatif … j'ai plein d'humains pour ça
Tant qu'a faire une "intelligence artificielle" autant en faire une qui ne dise pas de connerie non ?
Sinon on est foutu, car si l'intelligence artificielle ne rehausse pas le niveau, c'est pas le genre humain qui va le faire.
Sinon petite info, j'ai soumis a un éditeur la question : j'ai demandé à chatGPT de m'écrire une intro sur AWS, en citant la source puis je l'utiliser dans un livre ?
Réponse : Oui vous pouvez l'utiliser en citant bien la source - sous réserve cependant, car nous devrons en discuter plus sérieusement avec l'équipe éditoriale.
Comme quoi cela fait réfléchir tout le monde ce truc … c'est déjà ça :)
[^] # Re: J'aime beaucoup la critique de ChatGPT
Posté par sylTer . Évalué à 0.
En tout cas, dans le monde académique universitaire, y'a plein de gens près à faire du buzz, et faire monter h-index (mesure métrique en vigueur)
exemple ici : https://www.sciencedirect.com/science/article/abs/pii/S1471595322002517
# Désolé mais pour comprendre ce qu'est chatGPT
Posté par bunam . Évalué à 4.
Cette vidéo me paraît à voir absolument pour comprendre (déjà postée x fois, mais tant pi) :
https://www.youtube.com/watch?v=R2fjRbc9Sa0
Il ne faut pas projeter dans l'outil ses fantasmes
Attention, avoir des fantasmes, c'est très bien hein ;)
[^] # Re: Désolé mais pour comprendre ce qu'est chatGPT
Posté par Anthony Jaguenaud . Évalué à 3.
Oui et non…
Oui, c’est juste un « inventeur de texte », mais la vidéo de science étonnante sur Dall-E m’a par exemple permis de comprendre comment d’un texte, on progète l’idée dans un espace à n-dimension. C’est à partir de cette projection que le texte est généré.
J’ai été sur le site de explain shell
j’ai testé un de leur exemple.
J’ai fait de même avec ChatGPT:
Cette commande utilise une boucle "for" pour parcourir chaque utilisateur du système (déterminé en utilisant la commande "cut" pour extraire le champ 1 (nom d'utilisateur) de chaque ligne du fichier "/etc/passwd"). Pour chaque utilisateur, la commande "crontab -u $user -l" est exécutée pour afficher le contenu du fichier crontab de l'utilisateur en question (2>/dev/null est utilisé pour supprimer les messages d'erreur qui pourraient être générés si l'utilisateur n'a pas de fichier crontab).
Le paramètre "-d" indique à la commande "cut" de utiliser ":" comme délimiteur pour séparer les champs dans chaque ligne du fichier "/etc/passwd". Cela signifie que chaque champ dans chaque ligne sera séparé par ":", plutôt que par un espace ou une tabulation par défaut. En utilisant ":" comme délimiteur, la commande "cut" peut extraire le nom d'utilisateur qui se trouve généralement en première position dans chaque ligne du fichier "/etc/passwd".
Personnellement, je préfère la réponse du chatBOT.
Après, il m’a inventé des commandes rigolotes pour nextcloud :
Oui, Nextcloud dispose d'un outil en ligne de commande appelé "occ" (abréviation de "ownCloud Console") qui vous permet de vérifier et de réparer la base de données de votre instance Nextcloud. Vous pouvez l'utiliser en exécutant la commande suivante depuis votre terminal :
Cette commande vérifiera la base de données de votre instance Nextcloud et affichera toutes les erreurs potentielles qui ont été détectées. Si des erreurs sont signalées, vous pouvez utiliser la commande suivante pour tenter de les réparer :
Il est recommandé de sauvegarder votre base de données avant d'exécuter cette commande, au cas où des données seraient perdues lors de la réparation.
Veuillez noter que ces commandes ne sont disponibles que si vous utilisez une base de données MySQL ou MariaDB. Si vous utilisez une autre base de données, vous devrez utiliser des outils de vérification et de réparation spécifiques à cette base de données.
C’est deux options n’existent pas, et à ma connaissance, non jamais existées. Mais c’est cohérent à la lecture.
Faut-il oui ou non l’utiliser ?
De mon point de vue, c’est un super outil. Avec des limitations à comprendre.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.