"La pétition accuse les laboratoires d’intelligence artificielle de s’être lancés dans “une course incontrôlée pour développer et déployer des systèmes d’IA toujours plus puissants, que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable”.
“Devrions-nous automatiser toutes les tâches, y compris celles qui sont épanouissantes ?
Tout ce qui peut être automatisé doit l'être, cela libère du temps pour des activités épanouissantes.
Devrions-nous développer des cerveaux non humains qui pourraient éventuellement être plus nombreux, plus intelligents, […] et nous remplacer ?
Y'a peu de chance, mais si elle peut travailler à la places des gens c'est tant mieux, y'a même plus de problème pour les retraites.
Devrions-nous risquer de perdre le contrôle de notre civilisation ?
En a t'on seulement le contrôle, et si oui, au vu du réchauffement climatique, c'est du même niveau que refuser les voitures autonome sous prétexte qu'elle conduit mieux que le commun des mortel.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Ça ne tient pas ton argumentation je pense. On en est pas là mais imaginons qu’on en arrive à une situation à la Skynet ou qu’on y risque. Ben … toi ici tu argumentes pour qu’on y arrive parce que c’est inévitable. Enfin je vois pas en quoi ton argument pourrait nous en sortir.
Alors y'a une constante dans l'histoire de l'humanité :
Si ça peut être utilisé comme arme, cela le sera. (note bien c'est pareil avec le porno) Le développement des armes chimique n'est pas autorisé, oui mais pour faire des contre mesures faut bien en faire pour les valider. La non prolifération des armes nucléaire, une vaste blague, les mines anti-personnel c'est même pas ratifié par tout le monde… On a même fait un business pour des mines qui périment… sauf que la péremption n'est pas fiable à 100%
Bref un quelconque moratoire n'aura lieu que sur les IAs plus avancés laissant les concurrent le temps d'essayer de les rattraper. Tout ce qui peut vouloir protéger de machin comme skynet, sera complètement ignoré par les armées des USA, Russes & Chine.
Si il suffisait de se mettre autour d'une table pour que la course à l'armement cesse, on en serait pas aux drones…
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Qu’une nation le fasse c’est pas pareil que l’humanité en entier qui se jette à corps perdu dans l’aventure.
Et les choses de l’humanité sont pas nécessairement si constantes : pendant un temps on avait une course aux armements entre l’allemagne et les états-unis, c’est plus vraiment le cas aujourd’hui. Il y a des directions de conflictualité mais aussi des directions d’apaisement.
effectivement, l'Allemagne à cessé réduit. Par contre elle participe à l'eurofighter et quelques autres projets.
par contre y'a toujours
la couse entre les USA et la Russie
la couse entre les USA et la Chine
la couse entre la Corée du Nord et le reste du monde
la couse entre l'Australie et la Chine…
la couse entre l'Iran et ses voisins
la couse entre Israël et ses voisins
la couse entre l'Arabie Saoudite et ses voisins
Et la France, même si elle en fait moins la pub, reste dans la course.
Le fait qu'il y'a un apaisement entre 2 nations, ne veut absolument pas dire que ces deux nations mettent leur développement militaire en pause. Les états unis n'ont jamais stoppé leur course aux armements. Y'a pas si longtemps la Russie se vantait de ses missiles hypersonique, ou de bombardier décollant de derrière Moscou pour faire une mission en Syrie (à part pour montrer une capacité de projection cela n'avait aucun sens).
Quand l'Iran avait abattu un drone ayant pénétré leur espace aérien c'était aussi une démonstration, lorsque les états unis ont assassiné un scientifique Iranien à coup de mitrailleuse téléguidé, c'était encore de l'innovation…
Et la liste d’anecdote pourrait continuer longtemps, et au vu des crises future (eau, nourriture, espace vivable…) je doute que la course à l'armement se finissent autrement que par la fin de l'humanité. Aussi il serait non pas pertinent de bloquer ce qui peut améliorer notre quotidien, mais essayer d'amener la paix et l'acceptation dans le monde (et pas par les armes)
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Posté par Thomas Douillard .
Évalué à 4.
Dernière modification le 31 mars 2023 à 11:26.
Aussi il serait non pas pertinent de bloquer ce qui peut améliorer notre quotidien, mais essayer d'amener la paix et l'acceptation dans le monde (et pas par les armes)
D’où l’intérêt d’analyser le bénéfice et le risque des technos, et c’est aussi une question politique sachant qu’on aura pas tous la même opinion sur ce qui améliore notre quotidien. On sait que laisser ça au seul marché n’est pas nécessairement pertinent, le marché non régulé aura tendance à exploiter les faiblesses de l’esprit humain à son profit sans nécessairement améliorer le quotidien de tous.
D’où l’intérêt d’analyser le bénéfice et le risque des technos
Non car les armés n'auront que faire de ton moratoire. Tu va juste limiter l'usage civile. Et même pire, si les voisins font la recherche et que tu as réussi à bloquer la tienne, tu seras en retard d'une guerre…
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Et moi je suis plutôt content que l'usage civil de certaines ondes ne soit pas réservé au radar ;)
Est-ce que tu pourrais détailler en quoi un IA pourrait faire légalement un truc plus dommageable qu'un humain? Hors usage militaire qui de toute façon ne sera pas couvert par le moratoire.
En quoi y'a t'il urgence à mettre en pause la recherche? À part pour laisser le temps au groupes ayant raté le train (au sauté au début) le temps de rattraper leur retard?
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Je dis pas que cette tribune est la bonne, mais quand on se retrouve avec des technos de fait contrôlées par des oligopôles comme les Gafams qui sont en pratique super dur à bouger une fois installés : https://www.cnbc.com/2023/03/28/google-not-preserving-chats-in-epic-case-merits-sanctions-judge-says-.html et très puissante du fait de l’intérêt comme les techniques d’IA, et qui sont un peu les seules, de fait, à pouvoir autoréguler en fonction de leur intérêt par exemple l’éthique de leurs algos … "Don’t be evil". Jusqu’au moment ou on est puissant et que les intérêts financiers en jeu prennent le pas.
Ben oui on a légitimité à se poser des questions. Mais ce n’est que mon avis.
Ôte mois d'un doute, tu as volontairement pointé un cas pu google ne conservait pas des données sur ses employés, alors que je justement c'est généralement l'inverse qu'on l'accuse (collecter et conserver trop de données).
Mais je vois surtout qu'on glisse d'une militarisation de l'outil (skynet & co) vers un usage purement commercial par les gafams qui utilisent déjà des outils de profiling bien avancé sur la quantité astronomique de données personnelle qu'on laisse volontairement (ou non) sur les réseaux.
Qu'il faille réglementer, probablement, certainement même, mais un moratoire sur la recherche & développement n'a aucun sens. D'autant que les sociétés que tu pointes, a juste titre du doigt dépassent largement les frontières et a pire délocaliseront la recherche dans des pays moins regardant; tout ce que tu risque c'est de bloquer la concurrence pour ne laisser que les pires du secteur.
Bref légiférer (intelligemment) oui, un moratoire, non.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Google conserve les données des autres quand ça l’arrange et pas les siennes quand a l’arrange pas, c’est parfaitement symétrique et non contradictoire :p
désolé j'ai repris le terme du premier commentaire, et du titre de l'article, où il est utilisé non dans son sens juridique, mais dans un sens délai ou suspension temporaire.
N'étant pas sur un forum de juriste, et ne parlant pas spécifiquement de loi ou d'article de loi je pensais, naïvement, qu'on se basais sur Moratoire
Un moratoire (du latin moratorius, de morari : retarder) est un terme juridique qui désigne une décision d'accorder un délai ou une suspension volontaire d'une action.
[…]
Le terme a évolué en sortant de la simple pratique juridique pour être maintenant de plus en plus utilisé dans le langage politique et diplomatique. C'est ainsi que sous le même terme peut être désigné soit une décision fixant un délai clair pour des raisons précises et objectives, soit une façon d'éviter de décider en repoussant le moment du choix, éventuellement indéfiniment.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Merci beaucoup :-| De l'importance de s'accorder sur ce dont on parle ; je ne comprenais pas une bonne partie des échanges car croyant qu'il s'agissait justement de légiférer intelligemment.
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
Tout ce qui peut être automatisé doit l'être, cela libère du temps pour des activités épanouissantes.
Tout, ça inclus le sexe, la cuisine, le fait de se balader, le fait de dessiner, de construire en fait globalement…
Y'a peu de chance, mais si elle peut travailler à la places des gens c'est tant mieux, y'a même plus de problème pour les retraites.
Uniquement si le modèle de société ne se base plus sur le travail et si les richesses sont suffisamment réparties pour que la subsistance de chacun soit assurée. J'ai pas l'impression que c'est ce vers quoi on se dirige. Supprimer le travail sans modifier notre perception de la valeur c'est mettre des gens dans une précarité absolue.
En a t'on seulement le contrôle, et si oui, au vu du réchauffement climatique, c'est du même niveau que refuser les voitures autonome sous prétexte qu'elle conduit mieux que le commun des mortel.
La question n'est pas de refuser toute automatisation, mais de ce demander ce vers quoi on voudrait aller. Se persuader que l'on a aucun contrôle sur rien et que de toute manière ça arrivera est une forme de laissé aller. On peut faire bien des choses et on sait décider collectivement sinon nous n'aurions pas survécu jusqu'à maintenant et nous n'aurions pas notre mode de vie. Oublier ce que l'on a su faire en restant dans une sorte de marasme c'est triste, très loin de l'épanouissement dont tu parle au début de ton commentaire.
C'est le truc qui me rassure pour l'IA. on peut peut-être imaginer qu'une machine puisse un jour être plus intelligente qu'un humain, mais plus débile, c'est impossible.
(le reste de sa chaine est géniale)
[/HS]
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
Si on demande un moratoire sur ce que "personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable" il faudrait peut-être en demander un sur l'intelligence humaine aussi.
a reçu la signature d’un bon millier d’ingénieurs et d’entrepreneurs parmi les plus importants de la technologie américaine. Parmi eux, Elon Musk, le patron de Tesla et SpaceX, Steve Wozniak, le cofondateur d’Apple, ou encore l’essayiste futuriste Yuval Noah Harari.
Aucun des noms n'est expert dans le domaine, un peu comme si on demandait à Jean-Pierre Coff ou Patrice Laffont de prendre position sur une technique de pêche. Et surtout je vois dans le cas d'Elon une aigreur du fait qu'il ait participé au fondement d'Open-AI par effet d'opportunisme, mais s'en est retiré pensant que ça ne rapporterai pas.
Il est à parier qu'aucun de ces trois là n'ait de compréhension du fonctionnement de GPT, ou des autre ia conversationnelles, ni de leur limites.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Si jamais on demandait uniquement aux experts qui comprennent vraiment tout ce qui se passe par leur avis sur toute les technos à impact sociétal … Euh wait on sait pas reverse ingénierer ces modèles vraiment en profondeur pour comprendre toutes les subtilités de leur fonctionnement … conclusion : on a pas d’experts assez compétents, on ne peut donc que les laisser vivre leur vie sans critique.
Plus sérieusement, tout le monde sent confusément qu’il se passe quelque chose et que ça impacte de nombreuses professions, qu’il y a un potentiel encore pas exploité, et qu’en plus tout va très vite. L’avis des ingénieurs d’OpenAI, c’est donc le seul qui vaudrait puisque maintenant en plus les modèles sont fermés j’ai cru comprendre.
On a donc des technos très puissante qu’il faudrait laisser entre les mains de quelques personnes, sans critiques parce que tu comprends on sait pas de quoi on parle, on est pas assez intelligent pour comprendre, potentiellement pourquoi on pourrait perdre son boulot ?
L’avis des ingénieurs d’OpenAI, c’est donc le seul qui vaudrait puisque maintenant en plus les modèles sont fermés j’ai cru comprendre.
Justement non y'en as pas mal de chercheur dans le sujet, que ce soit chez google, openAI, au cnrs… c'est dommage de ne sortir que les noms de personnes n'ayant que peu de compétences dans le domaine. Je rappel que le patron de Tesla nous vendait des voitures autonomes pour hier, ou un voyage habitable sur mars, et même des colonies pour demain; à ce niveau de prédiction Mme Soleil fait mieux.
C'est aussi le problème de considérer que la recherche doit être financé que par le privé, ce dernier n'a qu'un indicateur de retour sur investissement; je vois mal un ingénieur d'openAI disant qu'il faut arrêter le développement, c'est son gagne pain.
on pourrait perdre son boulot ?
Si un IA peut faire mon boulot mais tant mieux! Je ferai autre chose. Faudra juste revoir le fonctionnement de la société actuelle pour partager les ressources un peu mieux, mais bloquer les IAs parce qu'elles pourraient me remplacer au travail, est juste un mauvais débat; ou alors on revient sur les machines dans les usines, les poinçonneur du métro…
Personnellement je ne me définit pas par mon travail, qui, tout aussi intéressant soit il, est une nécessité pour vivre. Si je pouvais vivre sans ce serait mieux.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
Au delà des signataires mis en avant, c’est un peu toujours les noms connus que la presse met en avant, et oui effectivement on peu soupçonner un peu d’opportunisme pour certains, ça n’enlève rien à l’opportunité de discuter sur des technos qui ont le potentiel de remplacer des graphistes ou d’alimenter des fermes à troll en contenu avec une qualité encore jamais atteinte.
Tu pourras facilement trouver des chercheurs spécialistes qui sont assez critiques, qui ne seront pas les derniers à disqualifier la société civile pour discuter.
potentiellement pourquoi on pourrait perdre son boulot ?
Y'a pas à dire, c'est vachement épanouissant de faire à la main ce qu'une machine pourrait faire parce qu'une loi interdit le remplacement des hommes par des machines. Ça donne du sens à ce qu'on fait, c'est un beau projet de société.
(tout ceci n'exclut évidemment pas une réflexion sur le partage de la valeur ajoutée créee par les systèmes automatiques), et sur la redistribution des richesses de manière générale.
Je ne sais pas ce que tu appelles contenu trollesque, mais en tant que rédactrice, je peux te garantir qu'en ce qui me concerne, faire du contenu creux est pénible. C'est même assez déprimant parce que tu te sens assez inutile.
Alors oui, physiquement c'est moins pénible que d'être aide-soignante ou hôtesse de caisse par exemple et on ne se fait pas traiter de haut par des abrutis qui se sentent supérieurs parce qu'ils ont fait des études.
« Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.
La liste des signataires (parmi lesquels des scientifiques spécialisé·e·s dans le domaine ainsi que d'autres venant d'horizons variés, très connu·e·s ou "simples citoyen·ne·s"), ainsi que l'argumentaire de la lettre ouverte qu'iels ont signée ce trouve ici:
Il ne s'agit pas vraiment d'une critique violente visant à bannir les recherches sur les intelligences artificielles mais plutôt d'en questionner le but et d'en encadrer le fonctionnement et les recherches (un peu comme ce fût le cas concernant la génétique et les OGMs en particulier).
"
AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.
"
Posté par gUI (Mastodon) .
Évalué à 10.
Dernière modification le 30 mars 2023 à 16:19.
(Attention, gauchiste en vue)
Bon OK, admettons que ChatGPT un jour soit super fort et puisse remplacer une part importante de nos boulots. Je vous propose deux scénarios différents :
1/ ChatGPT appartient à une boîte privée, qui s'enrichit, et met au chômage (et à la pauvreté) des millions de gens, ChatGPT est un salaud
2/ ChatGPT appartient à l'humanité, on a moins besoin de bosser tout en produisant autant, toute l'humanité y a gagné, merci ChatGPT
ChatGPT fait (éventuellement) peur uniquement parce qu'il a été décidé que la seule source de revenus (du moins pour les gueux comme nous) était dans notre travail, et que si on nous pique le travail on n'a plus de revenus, donc la pauvreté. Mais si on regarde sur la production globale de quoi faire vivre (et même enrichir) l'humanité, l'automatisation est un bienfait tout court, il n'y a pas à débattre.
On est de plus en plus productifs et en laissant les revenus uniquement liés au travail, soit on fait produire plus (pour produire quoi ? de quoi manque-t-on vraiment ?) et c'est la cata écolo, soit on dit tant pis pour les nuls, et on laisse de plus en plus de gens sur le bas-côté.
(Je vous avais prévenu, je vous ai pas pris en traître)
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
Ce sera pas ChatGPT alors, ou alors va falloir aller faire la grève aux USA pour internationaliser (c’est comme nationaliser mais pour l’univers entier) OpenAI.
On est en plein dans le champs d'application du principe de précaution. On est face à une technologie potentiellement disruptive pour la société, pour laquelle on peut envisager de nombreuses applications formidables, mais aussi de nombreuses conséquences difficiles à prévoir.
On évoque des conséquences sur l'emploi, actuellement le principal vecteur d'intégration sociale, de conséquences sur la désinformation, sur le hacking social, sur l'équilibre des marchés, on pense éventuellement aux débouchés en matière d'armes autonomes, etc.
Aucune certitude, mais des dommages potentiellement très importants pour la société dans son ensemble, et un manque cruel de recul.
Les détracteurs du principe de précaution en font un synonyme d'interdiction et d'opposition au Progrès. Mais l'interdiction est juste une application simpl(ist)e et peu coûteuse de ce principe.
Les mesures d'applications du principe de précaution consistent à agir en amont des causes d'une catastrophe, en prenant le temps d'évaluer les conséquences d'une innovation, d'acquérir des données, d'avoir des projections suffisamment fiables pour permettre une prise de décision éclairée. Si l'innovation se répand trop rapidement face au temps de la réflexion, des mesures doivent être prises afin d'éviter des conséquences négatives : régulation restrictive, moratoire, voire éventuellement une interdiction. Mais une interdiction ou un moratoire n'ont de sens que si des recherches sur les impacts sociétaux sont entreprises en parallèles. Sinon, cela s'apparente effectivement à un obscurantisme.
Donc oui, je trouve cette lettre ouverte justifiée, j'aimerais croire que les pouvoirs publics sauront réagir à la fois rapidement, efficacement et modérément.
Je ne comprends pas trop comment tu peux évaluer les impacts sociétaux sans diffuser la technologie. Mais de toutes manières, cette technologie n'a pas vocation à être centralisée. Les algos sont plus ou moins connus, et les ressources nécessaires à la faire tourner sont à la portée de n'importe quelle grosse structure; ce n'est pas comme une centrale nucléaire. Tu veux proposer un moratoire sur quoi, sur les algos utilisés dans l'AI?
Et puis, est-il même pertinent de ne pas diffuser une technologie du fait de ses impacts sur la société? Combien d'emplois l'électricité a-t-elle fait disparaitre? Et le téléphone? Il a fallu 150 ans pour réaliser les problèmes liés à la combstion des énergies fossiles. Et combien de temps a-t-il fallu pour écarter les effets des GSM sur la santé? Sans compter que c'est les études épidémio qui ont permis ça, ça aurait donc été totalement impossible sans diffuser massivement cette technologie.
Sans compter que dans notre monde, les législations sont nationales. Tu vas mettre un moratoire, mais comment tu interdis l'accès à cette technologie, disponible librement dans d'autres pays? Tu mets en place un grand firewall, comme les régimes autoritaires? Tu empêches les entreprises d'accéder à des gains de productivité majeurs, en espérant quoi, que les entreprises étrangères vont bien attendre gentiment que tu aies mis 20 ans à tergiverser? Ce mode de fonctionnement semble totalement incompatible avec le monde tel qu'il existe en 2023.
Posté par sobriquet .
Évalué à 8.
Dernière modification le 30 mars 2023 à 19:34.
Tu veux proposer un moratoire sur quoi, sur les algos utilisés dans l'AI?
Comme je l'ai dit, le principe de précaution n'implique pas un moratoire mais, de manière plus adéquate, une régulation restrictive. D'une part, cela permet d'utiliser l'innovation là où le risque est faible et les bénéfices attendus élevés. D'autre part, cela permet une diffusion de l'innovation qui aidera à évaluer les impacts sociétaux.
Le moratoire, c'est un peu une solution de paresseux : face à une opinion publique polarisée, on fait passer une loi qui ne pèse pas sur les finances de l'Etat et on ne perd pas de temps dans des négociations interminables sur les petites lignes.
Il a fallu 150 ans pour réaliser les problèmes liés à la combustion des énergies fossiles
Non, les premiers signaux d'alerte ont été donnés au début du XXe siècle. L'idée du principe de précaution est justement de ne pas attendre d'avoir de certitude sur la nocivité d'une innovation.
Et combien de temps a-t-il fallu pour écarter les effets des GSM sur la santé ?
A vue de nez, je dirais de 1990 à 2010, soit 20 ans, une paille. Les limites sur le DAS ont aussi contribué à l'application (sans doute involontaire) du principe de précaution, sans empêcher la diffusion de la technologie. Si la recherche n'était pas autant portée par les promoteurs d'une technologie, mais plutôt par des institutions chargées de l'intérêt commun, des résultats fiables pourraient être obtenus plus rapidement.
cette technologie n'a pas vocation à être centralisée.
J'ai l'impression contraire mais je peux me tromper. Il faut des modèles de langage avec beaucoup de variables, d'immenses corpus d'apprentissage bien nettoyés, des serveurs qui supportent bien la charge. J'y vois une grosse similarité avec les moteurs de recherche, et force est de constater que c'est un marché très centralisé.
Ce qui nous attend actuellement, c'est une diffusion anarchique des IA, limitée seulement par les lois du marché. une régulation restrictive pourrait limiter les débouchés des IA à certaines applications, dans certaines conditions. Pour moi, l'idée serait d'encadrer la vente de texte produit par IA, comme ce que fait ChatGPT4 actuellement.
Je dois bien dire que c'est encore trop neuf pour que je me sente capable de donner des exemples d'application à limiter et d'autres applications à encourager.
Ce mode de fonctionnement semble totalement incompatible avec le monde tel qu'il existe en 2023
Je dis pas le contraire. Plus généralement, la régulation est souvent incompatible avec le monde actuel.
J'allais te répondre en détails mais en fait je trouve simplement fou les gens qui disent qu'il faut arrêter d'essayer de se gouverner et que laisser libre cours aux lubies des grandes sociétés est inéluctable.
On est pas encore dans cyberpunk, dans 54 ans je dis pas mais pour le moment Arasaka n'existe pas (ou est loin d'être aussi puissant) on a pas a baisser les bras.
Posté par arnaudus .
Évalué à 3.
Dernière modification le 31 mars 2023 à 09:54.
C'est pas du tout la même chose que d'arrêter de se gouverner. Il est tout à fait logique d'interdire ce qui est nuisible, dans une certaine mesure (dans les faits, tout est histoire de compromis et de contexte historique : la clope et l'alcool sont autorisés, la coke ne l'est pas, etc).
Là, on parle en gros d'interdire par défaut, et d'attendre l'avis de je ne sais pas trop qui, qui travailleraient sur on ne sait pas quelles données, pour autoriser une technologie. Un principe majeur de nos sociétés, c'est la liberté de faire ce qui n'est pas interdit par la loi.
Parce qu'avec ce raisonnement, qu'est-ce qui détermine quelle technologie mérite de passer par le principe de précaution? Est-ce que la GPL n'aurait pas du être interdite le temps d'évaluer ses impacts sur la société (et, du coup, peut-être interdite au vu des intérêts économiques en jeu?) Est-ce que Linux n'aurait pas dû être interdit? Et Internet, une porte ouverte à toutes les fenêtres, au pédo-terrorrisme etc? Et les barrages, qui empêchent les poissons de remonter les rivières? Et les éoliennes, qui tuent des oiseaux? Allez hop, on fait des études, des rapports, des milliers et des milliers de pages de rapports, des synthèses de rapports, des conférences, des méta-analyses, des synthèses de conférences qui donneront lieu à des rapports, rapports qui concluront évidemment que "ça dépend", qu'il y a des avantages et des inconvénients, que des gens vont perdre leur boulot alors que d'autres vont en gagner, que les entreprises vont perdre en compétitivité si on n'autorise pas, qu'il vaut peut-être mieux un accident nucléaire tous les 50 ans qu'un changement climatique mondial, mais peut-être pas, mais peut-être que si… Il faudra toujours des études de plus, quel est l'impact économique, l'impact écologique, l'impact social, quels sont les effets à long terme, les effets indirects, les effets sur les finances publiques…
Vous voulez vraiment vivre dans un monde où il faut remplir une demande d'autorisation pour aller pisser contre un arbre, avec l'autorisation du délégué aux études hydrologiques départementales qui va estimer le temps de passage dans la nappe phréatique, et une étude d'impact du bureau d'études botaniques qui va évaluer l'effet sur la croissance de l'arbre en fonction de si c'est un chêne ou un châtaigner? C'est de la folie. La technophobie ne peut pas remplacer les principes constitutionnels de base.
Sans compter qu'on peut constater tous les jours que tout le monde, au final, se branle copieusement du travail des scientifiques et des ingénieurs. Les études hydrologiques montrent que les "mégabassines" utilisées conformément au protocole augmenterait les niveaux des nappes phréatiques et les débits des cours d'eau pendant l'été? C'est pas grave, on crame tout quand même parce qu'on est contre quand même, et que peut-être si la sécheresse se généralise on ne pourra pas les remplir (et donc? du coup elles seront vides certaines années; c'est sûr que c'est un problème majeur). Aucune étude ne peut montrer un quelconque effet des ondes électromagnétiques des GSM? C'est pas grave, on délivre des certificats médicaux d'électrosensibilité. Tout le monde se contrefout des études, des rapports d'experts, des résultats scientifiques. Ce qui compte pour les technologies, c'est combien ça coûte, combien ça rapporte, combien de gens regarderaient mes vidéos si je suis caricaturellement pour ou contre, combien ça désavantagerait les entreprises françaises si on autorise ou qu'on interdise, à quel point ça embêterait les Russes, les Chinois, les Américains, les Allemands… Quel est le poids des rapports scientifiques dans l'établissement des quotas de pêche? Dans la régulation du trafic maritime? Du trafic aérien? Sur l'emplacement des autoroutes, des lignes de TGV, des aéroports, des parkings de supermarchés? Vous croyez que les cabinets ministériels écoutent les experts universitaires sur l'économie? Sur l'urbanisme? Sur les politiques publiques? Vous croyez que de brandir des rapports de 2000 pages va décourager les opposants à l'enfouissement des déchets nucléaires, aux mégabassines, aux OGM? C'est du flan. Le principe de précaution, c'est un buzzword pour technophobes. Quand on brandit le principe de précaution, on ne veut pas lire des rapports scientifiques, on voudrait juste qu'une technologie qui nous met mal à l'aise soit interdite, "parce que", sans raison (parce que justement, on n'en a aucune).
Posté par barmic 🦦 .
Évalué à 6.
Dernière modification le 31 mars 2023 à 10:14.
Tu te trompe. La question n'est pas d'interdire par défaut, ça n'est pas interdit à ce que je sache. La question c'est de choisir, maintenant que l'on commence à se demander l'impact que ça peut avoir sur notre société, comment est-ce qu'on l'autorise.
d'attendre l'avis de je ne sais pas trop qui
Celui du législateur qui fait une analyse dans la quelle il interroge qui lui semble pertinent d'interroger.
Parce qu'avec ce raisonnement, qu'est-ce qui détermine quelle technologie mérite de passer par le principe de précaution?
Quand l'opinion publique ou le législateur pense que c'est important de se pencher sur la question.
Tu peux dire que "les gens" sont inaptes à se demander si une techno est nocive ou pas, mais va bien falloir les écouter si on veut vivre en démocratie. En soit ils sont impacter donc c'est normal qu'ils aient leur mot à dire.
Le fait que le sujet soit pris par le législateur est vital. Il n'est pas obligé de décider un moratoire, il peut aussi simplement prendre en compte et voir qu'est-ce qui doit être changé ailleurs pour que ça cause moins de dommages.
Vous voulez vraiment vivre dans un monde où il faut remplir une demande d'autorisation pour aller pisser contre un arbre[…]
Je veux vivre dans un monde où l'on peut décider collectivement de ce qu'on considère comme acceptable ou non.
Posté par Big Pete .
Évalué à 4.
Dernière modification le 31 mars 2023 à 10:59.
Tu peux dire que "les gens" sont inaptes à se demander si une techno est nocive ou pas, mais va bien falloir les écouter si on veut vivre en démocratie. En soit ils sont impacter donc c'est normal qu'ils aient leur mot à dire.
À mon avis, l'erreur de compréhension est là. On parle d'éthique et de "morale" en fait. Et la question que l'on se pose, et qui est une question vraiment complexe, c'est est-ce qu'une techno est bonne ou mauvaise.
C'est bien là le problème. Car il n'y a pas de réponse à cette question. D'où l'incompréhension qui se constitue et les dialogues à son sujet qui n'aboutissent jamais. La question est simplement mal posée.
Ce n'est pas la techno le problème, mais l'usage qui en est fait, sa mise en oeuvre qui doit être encadrée. Nécessairement.
Une techno n'est ni bonne ni mauvaise. Généralement pour démontrer ce point, je prend l'exemple simple d'une lame de rasoir. Dans les mains d'un chirurgien, une lame peut sauver une vie, dans celle d'un assassin, elle peut la prendre.
Et même dit comme ça, ce n'est pas simple, si le chirurgien sauve la vie du pire dictateur de la planète ou si l'assassin le tue, on voit bien que la notion de bien ou mal, ne dépend pas simplement de la techno mise en oeuvre (la lame), mais du cadre dans laquelle elle est mise en oeuvre (médecine ou assassinat) et du contexte lui-même (usage sur un dictateur malfaisant ou sur un "innocent").
Alors, ce que je dit là ne constitue pas vraiment une réponse au problème posé : L'éthique de l'IA, qu'on soit bien clair. C'est simplement une tentative (plus ou moins maladroite) de poser correctement celui-ci. Un problème mal posé trouve rarement une solution, et au pire, ce sera une mauvaise solution qui constituera en soi un nouveau problème à résoudre.
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
La technologie n’est pas neutre, c’est effectivement un argument souvent employé pour justifier qu’il faut aller dans toutes les directions : il y a potentiellement un bon usage de tout. Pour autant, les risques associés sont potentiellement très grands. On peut par exemple penser à l’augmentation de fonction des pathogènes dans les labos de recherches et des risques d’échappements, qu’il n’est pas du tout illégitime de discuter avant de financer.
Cette question a une longue histoire, on peut probablement en troller longtemps en restant dans des positions caricaturales qui sont malheureusement trop populaires et probablement en pratique finalement pas si appliquées …
Hum, a mon avis, c'est bien parce qu'on focus sur la technologie elle-même qu'on passe a côté du fait que c'est son usage qui pose problème et pas la technologie intrinsèquement.
Et c'est là le problème principal, à mon sens en tout cas.
Alors si tu veux une ébauche de réflexion a ce sujet : l'approche ce serait plutôt de dire que toute nouvelle technologie pose fondamentalement un problème du fait simplement qu'elle est nouvelle et que son cadre d'usage n'est pas encore clairement défini dans une société donnée.
Et de fait, certaines personne défendent le point de vue tout a fait rationnel (a mon sens) qu'il faut éviter de diffuser massivement dans une société une nouvelle technologie dont le cadre d'usage n'est pas encore clairement défini. (Du fait même de sa nouveauté).
De toute façon, le débat sur les usages bon et mauvais d'une techno et le cadre éthique de son usage est inévitable. Il doit avoir lieu, même si ce n'est jamais "agréable" comme sujet, surtout pour les experts du domaine qui sont confronté a des utilisateurs pas forcément expert.
Et non seulement ce débat doit avoir lieu, mais il ne prendra jamais vraiment fin. Les systèmes de valeur des société humaines ne sont pas figés dans le temps, d'une part et on des implication culturelles fortes, et particulièrement complexe. (Prendre par exemple le rapport des américains aux armes à feu).
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
Une technologie ayant pour vocation d’être appliquée, par définition il me semble, ça me parait spécieux de vouloir faire une différence stricte entre la techno et son usage. La techno n’aurait pas de sens sans usage, on l’imagine avec des usages en tête.
Si on veut faire une différence, on peut plus se tourner vers la notion de science. Le savoir est plus facilement distinguable des applications parce qu’on peut vouloir comprendre rien que pour comprendre.
Je me doutais qu'on finirait par qualifier ma réflexion de spécieuse en soutenant que c'est évident qu'on parle de l'usage quand on parle des danger de l'IA dans les journaux et que c'est moi qui suit surement un peu idiot de penser qu'on puisse passer a coté du fait que quand on dit ça, on parle implicitement des danger des usages de l'IA et pas du danger de l'IA en tant que telle.
Le contexte c'est que les usages d'une techno n'existent pas au moment où la techno emerge. Et c'est ça qui pose problème, c'est a dire comment une société peut définir un cadre d'usage d'une techno quand ces usages restent à inventer ?
L'idée c'est qu'il ne faudrait pas aller trop vite pour que le cadre d'usage puisse émerger en même temps que la techno. Mais c'est généralement incompatible avec un autre problème, qui est que nos société récompensent avant tout ceux qui innovent le plus vite dans un cadre ou la régulation est vécu généralement plutôt comme un frein a l'innovation. (frein économique).
De là a dire qu'il faudrait un système économique qui arrive à être aussi éthique qu'il est libéral, il y a un pas que mon éthique des vendredi sur LinuxFr me permet de franchir :)
(la question subsidiaire étant celle de l'éthique du troll :-) )
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
On a pas grand chose qui force les acteurs économiques à être éthiques dans un monde ou on cherche l’efficacité financière à tout prix, quoi que ça veuille dire.
Oui, et a mon avis, c'est surtout ça le problème. Et ça ne concerne pas que l'IA, loin de là. Les problèmes que pose l'IA actuellement du fait de son emergence rapide dans un cadre d'usage mal défini sont symptomatique d'un problème plus grave, et plus général.
On veut aller trop vite, et lorsqu'on veut courir plus vite que ses pieds, on se retrouve vite avec le nez par terre. Normalement, les petit humains apprennent ça juste après avoir appris à marcher. ça peut nous donner une idée de notre "age mental" en tant que civilisation :)
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
Tu avais donc un doute sur le but recherché par les applications de ces recherches ? Ben c’est facile, faire de l’argent par tous les moyens possibles :)
Mais en fait il y a pas de mystère sur les applications de chatGPT, au moins l’application immédiate. Il s’agit de faire un chatbot qui a un savoir universel. On connait les risques immédiats rien qu’à savoir comment ça marche, ça avale des textes dans tous les domaines de diverses sources. On a anticipé divers risques avant même que chatGPT existe, au point qu’ils se sont sentis obligés d’afficher qu’ils allaient faire les choses de manière ouverte et éthique. Et sans surprise, quand l’argent arrive, on recule sur ces points …
Tu sors un peu ma phrase de son contexte (pas de souci). La question c'est comment on aborde une nouveauté. Comme je le dis à la fin de mon commentaire, la question n'est pas d'interdire ou de laisser libre court, mais de ce demander s'il faut encadrer si oui comment ou s'il faut faire évoluer autre chose (ou s'il faut rien faire). On est pas dans une binarité interdiction/liberté totale.
la question n'est pas d'interdire ou de laisser libre court, mais de ce demander s'il faut encadrer si oui comment
Je manque sûrement d'imagination mais j'ai justement du mal à voir le "comment". Il s'agit d'algorithmes connus à priori de tous. La différence entre les acteurs est sûrement dans l'implémentation et les données d'entraînement. Est-ce qu'on a des exemples de mathématiques interdites ? D'algorithme interdit ? À ma connaissance il n'y a même rien qui interdise de coder un trojan, juste de l'utiliser sur le PC de qqun sans son autorisation. On peut même les vendre très cher. On pourrait plutôt légiférer selon l'angle des données, genre interdiction de fournir un accès à un programme entraîné sur X péta-octets ? Mais toute interdiction serait forcément locale donc facile à transgresser.
On ne peut pas interdire un objet mathématiques d'exister, il est de l'ordre de l'idée. Tout comme le fais d'avoir des idées racistes n'est pas interdit. Ce qui est interdit c'est le fait d'avoir des actions racistes. De la même manière on peut choisir quel type d'algo peuvent ou ne peuvent pas être utilisé dans quel cadre avec quels contraintes.
Et oui comme la lutte contre le racisme on ne peut pas garantir qu'il n'y en a pas, mais on peut sanctionner les cas où c'est avéré.
genre interdiction de fournir un accès à un programme entraîné sur X péta-octets ?
Tu veux interdire les moteurs de recherche? Les analyses de données scientifiques?
Par exemple, ce qu'on peut encadrer, c'est d'interdire le recours à de tels outils sans que l'utilisateur final ne soit au courant. Par exemple, quand on tombe sur un standard téléphonique, il faudrait rendre obligatoire le fait d'expliquer très clairement qu'on discute avec une IA. On peut aussi faciliter la mise en place d'interdictions ponctuelles de l'utilisation d'un tel outil : dans des copies d'examen, par exemple. Ou même rendre obligatoire une mention du type "ce texte a été en partie rédigé à l'aide d'une technologie d'intelligence artificielle", ce qui éviterait (un peu) les cabinets de conseil d'y avoir recours démesurément.
Sur le fond, comme de nombreux sites proposant ce type de service moyennant finances ou moyennant cookies existeront, il faudrait complètement brider l'ensemble d'Internet pour empêcher les français d'utiliser un tel outil… Ça me semble toujours aussi délirant, comme idée, en fait. On ne peut pas revenir en arrière, ça existe, et ça existera de plus en plus. Il faut travailler à rendre nos sociétés vivables avec cet outil, plutôt que de rêver à vivre à une époque où il n'existait pas encore.
Tout à fait c'est comme si on disait que maintenant les utilisateurs avaient un droit de regard sur leur données. On obligerait les entreprises à ne pas faire n'importe quoi avec les données de leurs utilisateurs, ils devraient demander le droit avant de faire des croisements problématiques, l'utilisateur pourrait demander à connaître l'ensemble de ses données et il pourrait demander de les supprimer ! Du délire pur et dur !
Tout à fait c'est comme si on disait que maintenant les utilisateurs avaient un droit de regard sur leur données
Ça n'a absolument aucun rapport. Là, tu veux juste interdire à des entreprises de mettre en place un service parce que… parce que quoi exactement? Parce que des grand-mères à moustaches pensent que c'est peut-être dangereux pour la société. Il n'y a aucun problème de données, de vie privée, de consentement, il y a juste une sorte de vague peur de l'inconnu.
À ma connaissance, il n'y a aucun projet de loi pour obliger qui que ce soit à utiliser ChatGPT. Je ne vois pas en quoi ceux qui ne souhaitent pas utiliser un tel outil seraient en droit d'empêcher ceux qui souhaitent l'utiliser de le faire.
Encore une fois, les sites qui proposeront (gratuitement ou non) de tels services vont exister. Ça ne fait aucun doute. Comment veux tu procéder? Tu crées un Firewall national pour empêcher les gens d'accéder à ces URLs? Tu crées un délit d'utilisation de chatbot?
Parce que des grand-mères à moustaches pensent que c'est peut-être dangereux pour la société.
Déjà calme-toi.
Il n'y a aucun problème de données, de vie privée, de consentement, il y a juste une sorte de vague peur de l'inconnu.
Des usages débiles et problématiques de ce genre de technologies, on commence à en avoir une certaines collection. Le réglementer n'est pas une ineptie contrairement à ce que tu t'obstine à affirmer.
Je ne vois pas en quoi ceux qui ne souhaitent pas utiliser un tel outil seraient en droit d'empêcher ceux qui souhaitent l'utiliser de le faire.
Le législateur italien en a trouvé.
Encore une fois[…]
Et encore une fois arrêter d'essayer de faire peur avec la Chine. Brandir la Chine comme un totem à chaque fois qu'on se demande s'il ne faudrait pas légiférer, c'est fatigant. On interdit pleins de pratiques sans pour autant en arriver là.
Les libertariens prêts à tout pour pousser la tech sans contrôle avec la croyance que c'est ineluctable me semblent avoir le même schema n'importe quel intégriste : « ma croyance est la bonne et toute "ingérence" de l'État est un sacrilège (ajouter le grand méchant qui convient : satan, la Chine ou autre) ».
Des usages débiles et problématiques de ce genre de technologies, on commence à en avoir une certaines collection. Le réglementer n'est pas une ineptie contrairement à ce que tu t'obstine à affirmer.
Quel usage souhaiterais-tu réglementer, qui ne le soit pas déja? Il est déja illégal de diffuser un montage photographique diffamatoire, de produire un faux document, ou de tricher aux examens.
Quel usage souhaiterais-tu réglementer, qui ne le soit pas déja?
Sans passer plus de temps que ça a y réfléchir, il semble que le respect des droits d'auteur1 pour l'apprentissage est à minima dans une zone grise ou mériterait d'être éclaircis voir de revoir comment il est sanctionné (à quel moment, avec quels moyens et avec quelle sanction). Mais aussi comment est perçu le plagia au travers de ce genre d'outils ?
Et c'est le premier exemple que j'ai en tête. C'est toi qui t'oppose de base à ce qu'on y réfléchisse parce que la concurrence, parce que la Chine, etc.
Étudier prend du temps. Quand des gens peuvent être victime, ça vaut le coup de se poser pour réfléchir. C'est mon avis et c'est clairement une discussion classique de savoir si comme tu semble le penser, la course à la technologie/innovation est le plus important (il y a des arguments à ça) ou si comme moi je pense qu'il est plus important de prendre le temps de comprendre les externalités négatives avant d'aller trop loin.
droit d'auteurs, droits voisins, droit à l'image, droit lié au copyright, etc… ↩
Pour les droits d'auteur, il n'y a pas besoin de loi, il y a besoin d'une jurisprudence. Le respect des droits d'auteur, ça a toujours été individuel. Tu penses que tes droits d'auteur n'ont pas été respectés? Alors tu portes plainte pour contrefaçon. C'est comme ça que ça marche si quelqu'un diffuse un de tes logiciels sous GPL sans respecter la licence par exemple. Il n'y a pas besoin de loi, la loi existe déja. Du coup, si tu penses qu'un système automatique produit un travail dérivé à partir de ton travail, tu peux te plaindre. La loi te protège déja. Par contre ça va être un sacré boulot de prouver que le travail est dérivé.
Ce que je ne sais pas, à vrai dire, c'est la "propreté" de la base de données. Quand tu publies sur Facebook, tu donnes tes droits à Facebook selon les conditions d'utilisation du site. Quand Facebook les revend, il peut le faire parce que tu as donné tes droits. Si tout s'est fait "proprement", je ne vois pas trop comment tu peux te plaindre. Si par contre la base d'apprentissage de chatGPT n'est pas propre, alors tu peux faire valoir tes droits. Mais je ne vois pas à quoi ça sert d'attendre : les lois sont là.
si comme moi je pense qu'il est plus important de prendre le temps de comprendre les externalités négatives avant d'aller trop loin.
Je pense qu'on est d'accord sur notre désaccord, donc. 1) je ne pense pas que ça soit possible (c'est un peu comme si tu disais "la sécheresse c'est mal, et ça serait bien que la pluie tombe plus en été"), et 2) je ne pense pas que ça soit une bonne idée du tout (parce que des dizaines de milliards de parents ont toujours dit à leurs enfants "ne met pas tes doigts dans la prise", et que ça a toujours donné l'idée à des dizaines de milliards d'enfants de mettre les doigts dans la prise, c'est la nature humaine de mettre les doigts dans la prise, et le jour où on ne mettra plus les doigts dans les prises c'est que notre espèce aura disparu—peut-être d'ailleurs après avoir mis les doigts dans la mauvaise prise).
Peut être, mais elle est complexe a appliquer en l'état. C'est des choses qui peuvent évoluer. Mais je doute que la loi aujourd'hui soit adapté pour pouvoir porter plainte contre OpenAI parce qu'ils ont repris tes écris, tu va avoir du mal à constitué un dossier. Qu'une entreprise puisse faire fit de la loi parce qu'elle sait qu'elle va tellement loin dans le nom respect pour que ce soit impossible de même intenter un procès, ça ne me paraît pas être une loi qui te protège.
Quand Facebook les revend, il peut le faire parce que tu as donné tes droits.
Non. Les conditions d'utilisation ne sont pas un blanc sein et ne permettent pas de tout faire, même si c'est inscrit dedans et en France tu as des droits qui sont inaliénables. Les conditions d'utilisation sont pas utilisables en l'état. Elles sont trop complexes pour être lu par l'utilisateur, mais c'est quelque chose qui peut être changé parce exemple si tu était obligé de demander l'accord avant chaque vente.
parce que des dizaines de milliards de parents ont toujours dit à leurs enfants "ne met pas tes doigts dans la prise", et que ça a toujours donné l'idée à des dizaines de milliards d'enfants de mettre les doigts dans la prise, c'est la nature humaine de mettre les doigts dans la prise, et le jour où on ne mettra plus les doigts dans les prises c'est que notre espèce aura disparu—peut-être d'ailleurs après avoir mis les doigts dans la mauvaise prise).
Et donc tu trouve que c'est une ignominie les normes qui définissent des prises dans les quels il est impossible de mettre les doigts parce que c'est dans l'ordre naturel des choses qu'il ne faudrait pas intervenir dans ce que les moires ont tissé ?
Je pense qu'on est d'accord sur notre désaccord
Tout à fait refuser a priori de se gouverner est et sera toujours à l'encontre de mes opinions.
# Autre lien sur GPT-4
Posté par Maderios . Évalué à 3.
GPT-4. Un millier d’experts de la tech demandent un moratoire sur la recherche en IA
https://www.courrierinternational.com/article/gpt-4-un-millier-d-experts-de-la-tech-demandent-un-moratoire-sur-la-recherche-en-ia
[^] # Re: Autre lien sur GPT-4
Posté par fearan . Évalué à 3.
Lu dans le texte
Tout ce qui peut être automatisé doit l'être, cela libère du temps pour des activités épanouissantes.
Y'a peu de chance, mais si elle peut travailler à la places des gens c'est tant mieux, y'a même plus de problème pour les retraites.
En a t'on seulement le contrôle, et si oui, au vu du réchauffement climatique, c'est du même niveau que refuser les voitures autonome sous prétexte qu'elle conduit mieux que le commun des mortel.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . Évalué à 2.
Ça ne tient pas ton argumentation je pense. On en est pas là mais imaginons qu’on en arrive à une situation à la Skynet ou qu’on y risque. Ben … toi ici tu argumentes pour qu’on y arrive parce que c’est inévitable. Enfin je vois pas en quoi ton argument pourrait nous en sortir.
[^] # Re: Autre lien sur GPT-4
Posté par fearan . Évalué à 7.
Alors y'a une constante dans l'histoire de l'humanité :
Si ça peut être utilisé comme arme, cela le sera. (note bien c'est pareil avec le porno) Le développement des armes chimique n'est pas autorisé, oui mais pour faire des contre mesures faut bien en faire pour les valider. La non prolifération des armes nucléaire, une vaste blague, les mines anti-personnel c'est même pas ratifié par tout le monde… On a même fait un business pour des mines qui périment… sauf que la péremption n'est pas fiable à 100%
Bref un quelconque moratoire n'aura lieu que sur les IAs plus avancés laissant les concurrent le temps d'essayer de les rattraper. Tout ce qui peut vouloir protéger de machin comme skynet, sera complètement ignoré par les armées des USA, Russes & Chine.
Si il suffisait de se mettre autour d'une table pour que la course à l'armement cesse, on en serait pas aux drones…
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . Évalué à 2.
Qu’une nation le fasse c’est pas pareil que l’humanité en entier qui se jette à corps perdu dans l’aventure.
Et les choses de l’humanité sont pas nécessairement si constantes : pendant un temps on avait une course aux armements entre l’allemagne et les états-unis, c’est plus vraiment le cas aujourd’hui. Il y a des directions de conflictualité mais aussi des directions d’apaisement.
[^] # Re: Autre lien sur GPT-4
Posté par fearan . Évalué à 5.
effectivement, l'Allemagne à
cesséréduit. Par contre elle participe à l'eurofighter et quelques autres projets.par contre y'a toujours
la couse entre les USA et la Russie
la couse entre les USA et la Chine
la couse entre la Corée du Nord et le reste du monde
la couse entre l'Australie et la Chine…
la couse entre l'Iran et ses voisins
la couse entre Israël et ses voisins
la couse entre l'Arabie Saoudite et ses voisins
Et la France, même si elle en fait moins la pub, reste dans la course.
Le fait qu'il y'a un apaisement entre 2 nations, ne veut absolument pas dire que ces deux nations mettent leur développement militaire en pause. Les états unis n'ont jamais stoppé leur course aux armements. Y'a pas si longtemps la Russie se vantait de ses missiles hypersonique, ou de bombardier décollant de derrière Moscou pour faire une mission en Syrie (à part pour montrer une capacité de projection cela n'avait aucun sens).
Quand l'Iran avait abattu un drone ayant pénétré leur espace aérien c'était aussi une démonstration, lorsque les états unis ont assassiné un scientifique Iranien à coup de mitrailleuse téléguidé, c'était encore de l'innovation…
Et la liste d’anecdote pourrait continuer longtemps, et au vu des crises future (eau, nourriture, espace vivable…) je doute que la course à l'armement se finissent autrement que par la fin de l'humanité. Aussi il serait non pas pertinent de bloquer ce qui peut améliorer notre quotidien, mais essayer d'amener la paix et l'acceptation dans le monde (et pas par les armes)
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . Évalué à 4. Dernière modification le 31 mars 2023 à 11:26.
D’où l’intérêt d’analyser le bénéfice et le risque des technos, et c’est aussi une question politique sachant qu’on aura pas tous la même opinion sur ce qui améliore notre quotidien. On sait que laisser ça au seul marché n’est pas nécessairement pertinent, le marché non régulé aura tendance à exploiter les faiblesses de l’esprit humain à son profit sans nécessairement améliorer le quotidien de tous.
[^] # Re: Autre lien sur GPT-4
Posté par fearan . Évalué à 3.
Non car les armés n'auront que faire de ton moratoire. Tu va juste limiter l'usage civile. Et même pire, si les voisins font la recherche et que tu as réussi à bloquer la tienne, tu seras en retard d'une guerre…
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . Évalué à 3.
Je suis très content que l’usage civil des armes à feu soit limité en Europe comparé aux USA.
[^] # Re: Autre lien sur GPT-4
Posté par fearan . Évalué à 2.
Et moi je suis plutôt content que l'usage civil de certaines ondes ne soit pas réservé au radar ;)
Est-ce que tu pourrais détailler en quoi un IA pourrait faire légalement un truc plus dommageable qu'un humain? Hors usage militaire qui de toute façon ne sera pas couvert par le moratoire.
En quoi y'a t'il urgence à mettre en pause la recherche? À part pour laisser le temps au groupes ayant raté le train (au sauté au début) le temps de rattraper leur retard?
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . Évalué à 5.
Je dis pas que cette tribune est la bonne, mais quand on se retrouve avec des technos de fait contrôlées par des oligopôles comme les Gafams qui sont en pratique super dur à bouger une fois installés : https://www.cnbc.com/2023/03/28/google-not-preserving-chats-in-epic-case-merits-sanctions-judge-says-.html et très puissante du fait de l’intérêt comme les techniques d’IA, et qui sont un peu les seules, de fait, à pouvoir autoréguler en fonction de leur intérêt par exemple l’éthique de leurs algos … "Don’t be evil". Jusqu’au moment ou on est puissant et que les intérêts financiers en jeu prennent le pas.
Ben oui on a légitimité à se poser des questions. Mais ce n’est que mon avis.
[^] # Re: Autre lien sur GPT-4
Posté par fearan . Évalué à 3.
Ôte mois d'un doute, tu as volontairement pointé un cas pu google ne conservait pas des données sur ses employés, alors que je justement c'est généralement l'inverse qu'on l'accuse (collecter et conserver trop de données).
Mais je vois surtout qu'on glisse d'une militarisation de l'outil (skynet & co) vers un usage purement commercial par les gafams qui utilisent déjà des outils de profiling bien avancé sur la quantité astronomique de données personnelle qu'on laisse volontairement (ou non) sur les réseaux.
Qu'il faille réglementer, probablement, certainement même, mais un moratoire sur la recherche & développement n'a aucun sens. D'autant que les sociétés que tu pointes, a juste titre du doigt dépassent largement les frontières et a pire délocaliseront la recherche dans des pays moins regardant; tout ce que tu risque c'est de bloquer la concurrence pour ne laisser que les pires du secteur.
Bref légiférer (intelligemment) oui, un moratoire, non.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Autre lien sur GPT-4
Posté par Thomas Douillard . Évalué à 5.
Google conserve les données des autres quand ça l’arrange et pas les siennes quand a l’arrange pas, c’est parfaitement symétrique et non contradictoire :p
[^] # Re: Autre lien sur GPT-4
Posté par Ysabeau 🧶 (site web personnel, Mastodon) . Évalué à 5.
Et, de toute façon, il est soumis au Cloud Act !
« Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.
[^] # Re: Autre lien sur GPT-4
Posté par Gil Cot ✔ (site web personnel, Mastodon) . Évalué à 3.
Ôtez moi d'un doute : qu'est-ce qu'un moratoire ?
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
[^] # Re: Autre lien sur GPT-4
Posté par fearan . Évalué à 3.
désolé j'ai repris le terme du premier commentaire, et du titre de l'article, où il est utilisé non dans son sens juridique, mais dans un sens délai ou suspension temporaire.
N'étant pas sur un forum de juriste, et ne parlant pas spécifiquement de loi ou d'article de loi je pensais, naïvement, qu'on se basais sur Moratoire
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: Autre lien sur GPT-4
Posté par Gil Cot ✔ (site web personnel, Mastodon) . Évalué à 3.
Merci beaucoup :-| De l'importance de s'accorder sur ce dont on parle ; je ne comprenais pas une bonne partie des échanges car croyant qu'il s'agissait justement de légiférer intelligemment.
“It is seldom that liberty of any kind is lost all at once.” ― David Hume
[^] # Re: Autre lien sur GPT-4
Posté par barmic 🦦 . Évalué à 9.
Tout, ça inclus le sexe, la cuisine, le fait de se balader, le fait de dessiner, de construire en fait globalement…
Uniquement si le modèle de société ne se base plus sur le travail et si les richesses sont suffisamment réparties pour que la subsistance de chacun soit assurée. J'ai pas l'impression que c'est ce vers quoi on se dirige. Supprimer le travail sans modifier notre perception de la valeur c'est mettre des gens dans une précarité absolue.
La question n'est pas de refuser toute automatisation, mais de ce demander ce vers quoi on voudrait aller. Se persuader que l'on a aucun contrôle sur rien et que de toute manière ça arrivera est une forme de laissé aller. On peut faire bien des choses et on sait décider collectivement sinon nous n'aurions pas survécu jusqu'à maintenant et nous n'aurions pas notre mode de vie. Oublier ce que l'on a su faire en restant dans une sorte de marasme c'est triste, très loin de l'épanouissement dont tu parle au début de ton commentaire.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Autre lien sur GPT-4
Posté par Big Pete . Évalué à 2.
[HS]
C'est presque vendredi et je suis désolé par avance, mais y a un youtubeur spécialisé la dedans :
A machine to destroy an iPhone?! | Joseph's Machines
C'est le truc qui me rassure pour l'IA. on peut peut-être imaginer qu'une machine puisse un jour être plus intelligente qu'un humain, mais plus débile, c'est impossible.
(le reste de sa chaine est géniale)
[/HS]
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
[^] # Re: Autre lien sur GPT-4
Posté par wilk . Évalué à 5.
Si on demande un moratoire sur ce que "personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable" il faudrait peut-être en demander un sur l'intelligence humaine aussi.
# euh...
Posté par fearan . Évalué à 6.
Aucun des noms n'est expert dans le domaine, un peu comme si on demandait à Jean-Pierre Coff ou Patrice Laffont de prendre position sur une technique de pêche. Et surtout je vois dans le cas d'Elon une aigreur du fait qu'il ait participé au fondement d'Open-AI par effet d'opportunisme, mais s'en est retiré pensant que ça ne rapporterai pas.
Il est à parier qu'aucun de ces trois là n'ait de compréhension du fonctionnement de GPT, ou des autre ia conversationnelles, ni de leur limites.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: euh...
Posté par Thomas Douillard . Évalué à 9.
Si jamais on demandait uniquement aux experts qui comprennent vraiment tout ce qui se passe par leur avis sur toute les technos à impact sociétal … Euh wait on sait pas reverse ingénierer ces modèles vraiment en profondeur pour comprendre toutes les subtilités de leur fonctionnement … conclusion : on a pas d’experts assez compétents, on ne peut donc que les laisser vivre leur vie sans critique.
Plus sérieusement, tout le monde sent confusément qu’il se passe quelque chose et que ça impacte de nombreuses professions, qu’il y a un potentiel encore pas exploité, et qu’en plus tout va très vite. L’avis des ingénieurs d’OpenAI, c’est donc le seul qui vaudrait puisque maintenant en plus les modèles sont fermés j’ai cru comprendre.
On a donc des technos très puissante qu’il faudrait laisser entre les mains de quelques personnes, sans critiques parce que tu comprends on sait pas de quoi on parle, on est pas assez intelligent pour comprendre, potentiellement pourquoi on pourrait perdre son boulot ?
[^] # Re: euh...
Posté par fearan . Évalué à 9.
Justement non y'en as pas mal de chercheur dans le sujet, que ce soit chez google, openAI, au cnrs… c'est dommage de ne sortir que les noms de personnes n'ayant que peu de compétences dans le domaine. Je rappel que le patron de Tesla nous vendait des voitures autonomes pour hier, ou un voyage habitable sur mars, et même des colonies pour demain; à ce niveau de prédiction Mme Soleil fait mieux.
C'est aussi le problème de considérer que la recherche doit être financé que par le privé, ce dernier n'a qu'un indicateur de retour sur investissement; je vois mal un ingénieur d'openAI disant qu'il faut arrêter le développement, c'est son gagne pain.
Si un IA peut faire mon boulot mais tant mieux! Je ferai autre chose. Faudra juste revoir le fonctionnement de la société actuelle pour partager les ressources un peu mieux, mais bloquer les IAs parce qu'elles pourraient me remplacer au travail, est juste un mauvais débat; ou alors on revient sur les machines dans les usines, les poinçonneur du métro…
Personnellement je ne me définit pas par mon travail, qui, tout aussi intéressant soit il, est une nécessité pour vivre. Si je pouvais vivre sans ce serait mieux.
Il ne faut pas décorner les boeufs avant d'avoir semé le vent
[^] # Re: euh...
Posté par Thomas Douillard . Évalué à 6.
Au delà des signataires mis en avant, c’est un peu toujours les noms connus que la presse met en avant, et oui effectivement on peu soupçonner un peu d’opportunisme pour certains, ça n’enlève rien à l’opportunité de discuter sur des technos qui ont le potentiel de remplacer des graphistes ou d’alimenter des fermes à troll en contenu avec une qualité encore jamais atteinte.
Tu pourras facilement trouver des chercheurs spécialistes qui sont assez critiques, qui ne seront pas les derniers à disqualifier la société civile pour discuter.
[^] # Re: euh...
Posté par Faya . Évalué à 9.
Pire que ça… Cette lettre est un cheval de Troie. Elle est publiée par le Futur of Life Institute, une association de "longtermists" : des gens qui pensent qu'il faut protéger le futur des trillions d'humains de demain et ne pas essayer de régler les problèmes des humains d'aujourd'hui. Leur crédo c'est la conquête spatiale et le transhumanisme. Quelques figures de ce mouvement prônent également l’accumulation de richesses pour faire infléchir des politiques publiques Bien sûr Musk est du nombre. D'ailleurs c'est cocasse que l'un des arguments soit "Devons-nous laisser les machines inonder nos canaux d'information de propagande et de contre-vérité ?" alors que l'un des signataires est propriétaire de Twitter ! Cette lettre fait surtout de la pub au principe d'Intelligence Forte et donne l'occasion (6 mois) à d'autres de rattraper leur retard sur OpenAI.
Certes mais ce n'est peut-être pas avec des hébergeurs de trolls qu'il faut en discuter ;-)
[^] # Re: euh...
Posté par arnaudus . Évalué à 7.
Y'a pas à dire, c'est vachement épanouissant de faire à la main ce qu'une machine pourrait faire parce qu'une loi interdit le remplacement des hommes par des machines. Ça donne du sens à ce qu'on fait, c'est un beau projet de société.
(tout ceci n'exclut évidemment pas une réflexion sur le partage de la valeur ajoutée créee par les systèmes automatiques), et sur la redistribution des richesses de manière générale.
[^] # Re: euh...
Posté par Ysabeau 🧶 (site web personnel, Mastodon) . Évalué à 9.
Ça dépend de ce qui est fait à la main ! Si c'est pour que les humains deviennent les servants des machines, quel intérêt.
« Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.
[^] # Re: euh...
Posté par Thomas Douillard . Évalué à 4.
C’est vrai que c’est ultra pénible comme boulot de générer du contenu trollesque quand tu bosses pour Wagner, c’est un boulot à automatiser.
[^] # Re: euh...
Posté par Ysabeau 🧶 (site web personnel, Mastodon) . Évalué à 4.
Je ne sais pas ce que tu appelles contenu trollesque, mais en tant que rédactrice, je peux te garantir qu'en ce qui me concerne, faire du contenu creux est pénible. C'est même assez déprimant parce que tu te sens assez inutile.
Alors oui, physiquement c'est moins pénible que d'être aide-soignante ou hôtesse de caisse par exemple et on ne se fait pas traiter de haut par des abrutis qui se sentent supérieurs parce qu'ils ont fait des études.
« Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.
[^] # Re: euh...
Posté par Thomas Douillard . Évalué à 4.
Je faisais référence au Groupe_Wagner et aux fermes à troll russes, dont l’utilité pour l’humanité est, on va dire, pire que discutable.
[^] # Re: euh...
Posté par Papey . Évalué à 7.
Ce qui était assez culotté !
# lien sur le site d'origine de la lettre ouverte
Posté par bistouille . Évalué à 6.
La liste des signataires (parmi lesquels des scientifiques spécialisé·e·s dans le domaine ainsi que d'autres venant d'horizons variés, très connu·e·s ou "simples citoyen·ne·s"), ainsi que l'argumentaire de la lettre ouverte qu'iels ont signée ce trouve ici:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Il ne s'agit pas vraiment d'une critique violente visant à bannir les recherches sur les intelligences artificielles mais plutôt d'en questionner le but et d'en encadrer le fonctionnement et les recherches (un peu comme ce fût le cas concernant la génétique et les OGMs en particulier).
"
AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.
"
# La réflexion va plus loin
Posté par gUI (Mastodon) . Évalué à 10. Dernière modification le 30 mars 2023 à 16:19.
(Attention, gauchiste en vue)
Bon OK, admettons que ChatGPT un jour soit super fort et puisse remplacer une part importante de nos boulots. Je vous propose deux scénarios différents :
ChatGPT fait (éventuellement) peur uniquement parce qu'il a été décidé que la seule source de revenus (du moins pour les gueux comme nous) était dans notre travail, et que si on nous pique le travail on n'a plus de revenus, donc la pauvreté. Mais si on regarde sur la production globale de quoi faire vivre (et même enrichir) l'humanité, l'automatisation est un bienfait tout court, il n'y a pas à débattre.
On est de plus en plus productifs et en laissant les revenus uniquement liés au travail, soit on fait produire plus (pour produire quoi ? de quoi manque-t-on vraiment ?) et c'est la cata écolo, soit on dit tant pis pour les nuls, et on laisse de plus en plus de gens sur le bas-côté.
(Je vous avais prévenu, je vous ai pas pris en traître)
En théorie, la théorie et la pratique c'est pareil. En pratique c'est pas vrai.
[^] # Re: La réflexion va plus loin
Posté par Thomas Douillard . Évalué à 4.
Ce sera pas ChatGPT alors, ou alors va falloir aller faire la grève aux USA pour internationaliser (c’est comme nationaliser mais pour l’univers entier) OpenAI.
# Principe de précaution
Posté par sobriquet . Évalué à 6.
On est en plein dans le champs d'application du principe de précaution. On est face à une technologie potentiellement disruptive pour la société, pour laquelle on peut envisager de nombreuses applications formidables, mais aussi de nombreuses conséquences difficiles à prévoir.
On évoque des conséquences sur l'emploi, actuellement le principal vecteur d'intégration sociale, de conséquences sur la désinformation, sur le hacking social, sur l'équilibre des marchés, on pense éventuellement aux débouchés en matière d'armes autonomes, etc.
Aucune certitude, mais des dommages potentiellement très importants pour la société dans son ensemble, et un manque cruel de recul.
Les détracteurs du principe de précaution en font un synonyme d'interdiction et d'opposition au Progrès. Mais l'interdiction est juste une application simpl(ist)e et peu coûteuse de ce principe.
Les mesures d'applications du principe de précaution consistent à agir en amont des causes d'une catastrophe, en prenant le temps d'évaluer les conséquences d'une innovation, d'acquérir des données, d'avoir des projections suffisamment fiables pour permettre une prise de décision éclairée. Si l'innovation se répand trop rapidement face au temps de la réflexion, des mesures doivent être prises afin d'éviter des conséquences négatives : régulation restrictive, moratoire, voire éventuellement une interdiction. Mais une interdiction ou un moratoire n'ont de sens que si des recherches sur les impacts sociétaux sont entreprises en parallèles. Sinon, cela s'apparente effectivement à un obscurantisme.
Donc oui, je trouve cette lettre ouverte justifiée, j'aimerais croire que les pouvoirs publics sauront réagir à la fois rapidement, efficacement et modérément.
[^] # Re: Principe de précaution
Posté par arnaudus . Évalué à 8.
Je ne comprends pas trop comment tu peux évaluer les impacts sociétaux sans diffuser la technologie. Mais de toutes manières, cette technologie n'a pas vocation à être centralisée. Les algos sont plus ou moins connus, et les ressources nécessaires à la faire tourner sont à la portée de n'importe quelle grosse structure; ce n'est pas comme une centrale nucléaire. Tu veux proposer un moratoire sur quoi, sur les algos utilisés dans l'AI?
Et puis, est-il même pertinent de ne pas diffuser une technologie du fait de ses impacts sur la société? Combien d'emplois l'électricité a-t-elle fait disparaitre? Et le téléphone? Il a fallu 150 ans pour réaliser les problèmes liés à la combstion des énergies fossiles. Et combien de temps a-t-il fallu pour écarter les effets des GSM sur la santé? Sans compter que c'est les études épidémio qui ont permis ça, ça aurait donc été totalement impossible sans diffuser massivement cette technologie.
Sans compter que dans notre monde, les législations sont nationales. Tu vas mettre un moratoire, mais comment tu interdis l'accès à cette technologie, disponible librement dans d'autres pays? Tu mets en place un grand firewall, comme les régimes autoritaires? Tu empêches les entreprises d'accéder à des gains de productivité majeurs, en espérant quoi, que les entreprises étrangères vont bien attendre gentiment que tu aies mis 20 ans à tergiverser? Ce mode de fonctionnement semble totalement incompatible avec le monde tel qu'il existe en 2023.
[^] # Re: Principe de précaution
Posté par sobriquet . Évalué à 8. Dernière modification le 30 mars 2023 à 19:34.
Comme je l'ai dit, le principe de précaution n'implique pas un moratoire mais, de manière plus adéquate, une régulation restrictive. D'une part, cela permet d'utiliser l'innovation là où le risque est faible et les bénéfices attendus élevés. D'autre part, cela permet une diffusion de l'innovation qui aidera à évaluer les impacts sociétaux.
Le moratoire, c'est un peu une solution de paresseux : face à une opinion publique polarisée, on fait passer une loi qui ne pèse pas sur les finances de l'Etat et on ne perd pas de temps dans des négociations interminables sur les petites lignes.
Non, les premiers signaux d'alerte ont été donnés au début du XXe siècle. L'idée du principe de précaution est justement de ne pas attendre d'avoir de certitude sur la nocivité d'une innovation.
A vue de nez, je dirais de 1990 à 2010, soit 20 ans, une paille. Les limites sur le DAS ont aussi contribué à l'application (sans doute involontaire) du principe de précaution, sans empêcher la diffusion de la technologie. Si la recherche n'était pas autant portée par les promoteurs d'une technologie, mais plutôt par des institutions chargées de l'intérêt commun, des résultats fiables pourraient être obtenus plus rapidement.
J'ai l'impression contraire mais je peux me tromper. Il faut des modèles de langage avec beaucoup de variables, d'immenses corpus d'apprentissage bien nettoyés, des serveurs qui supportent bien la charge. J'y vois une grosse similarité avec les moteurs de recherche, et force est de constater que c'est un marché très centralisé.
Ce qui nous attend actuellement, c'est une diffusion anarchique des IA, limitée seulement par les lois du marché. une régulation restrictive pourrait limiter les débouchés des IA à certaines applications, dans certaines conditions. Pour moi, l'idée serait d'encadrer la vente de texte produit par IA, comme ce que fait ChatGPT4 actuellement.
Je dois bien dire que c'est encore trop neuf pour que je me sente capable de donner des exemples d'application à limiter et d'autres applications à encourager.
Je dis pas le contraire. Plus généralement, la régulation est souvent incompatible avec le monde actuel.
[^] # Re: Principe de précaution
Posté par barmic 🦦 . Évalué à 6.
J'allais te répondre en détails mais en fait je trouve simplement fou les gens qui disent qu'il faut arrêter d'essayer de se gouverner et que laisser libre cours aux lubies des grandes sociétés est inéluctable.
On est pas encore dans cyberpunk, dans 54 ans je dis pas mais pour le moment Arasaka n'existe pas (ou est loin d'être aussi puissant) on a pas a baisser les bras.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Principe de précaution
Posté par arnaudus . Évalué à 3. Dernière modification le 31 mars 2023 à 09:54.
C'est pas du tout la même chose que d'arrêter de se gouverner. Il est tout à fait logique d'interdire ce qui est nuisible, dans une certaine mesure (dans les faits, tout est histoire de compromis et de contexte historique : la clope et l'alcool sont autorisés, la coke ne l'est pas, etc).
Là, on parle en gros d'interdire par défaut, et d'attendre l'avis de je ne sais pas trop qui, qui travailleraient sur on ne sait pas quelles données, pour autoriser une technologie. Un principe majeur de nos sociétés, c'est la liberté de faire ce qui n'est pas interdit par la loi.
Parce qu'avec ce raisonnement, qu'est-ce qui détermine quelle technologie mérite de passer par le principe de précaution? Est-ce que la GPL n'aurait pas du être interdite le temps d'évaluer ses impacts sur la société (et, du coup, peut-être interdite au vu des intérêts économiques en jeu?) Est-ce que Linux n'aurait pas dû être interdit? Et Internet, une porte ouverte à toutes les fenêtres, au pédo-terrorrisme etc? Et les barrages, qui empêchent les poissons de remonter les rivières? Et les éoliennes, qui tuent des oiseaux? Allez hop, on fait des études, des rapports, des milliers et des milliers de pages de rapports, des synthèses de rapports, des conférences, des méta-analyses, des synthèses de conférences qui donneront lieu à des rapports, rapports qui concluront évidemment que "ça dépend", qu'il y a des avantages et des inconvénients, que des gens vont perdre leur boulot alors que d'autres vont en gagner, que les entreprises vont perdre en compétitivité si on n'autorise pas, qu'il vaut peut-être mieux un accident nucléaire tous les 50 ans qu'un changement climatique mondial, mais peut-être pas, mais peut-être que si… Il faudra toujours des études de plus, quel est l'impact économique, l'impact écologique, l'impact social, quels sont les effets à long terme, les effets indirects, les effets sur les finances publiques…
Vous voulez vraiment vivre dans un monde où il faut remplir une demande d'autorisation pour aller pisser contre un arbre, avec l'autorisation du délégué aux études hydrologiques départementales qui va estimer le temps de passage dans la nappe phréatique, et une étude d'impact du bureau d'études botaniques qui va évaluer l'effet sur la croissance de l'arbre en fonction de si c'est un chêne ou un châtaigner? C'est de la folie. La technophobie ne peut pas remplacer les principes constitutionnels de base.
Sans compter qu'on peut constater tous les jours que tout le monde, au final, se branle copieusement du travail des scientifiques et des ingénieurs. Les études hydrologiques montrent que les "mégabassines" utilisées conformément au protocole augmenterait les niveaux des nappes phréatiques et les débits des cours d'eau pendant l'été? C'est pas grave, on crame tout quand même parce qu'on est contre quand même, et que peut-être si la sécheresse se généralise on ne pourra pas les remplir (et donc? du coup elles seront vides certaines années; c'est sûr que c'est un problème majeur). Aucune étude ne peut montrer un quelconque effet des ondes électromagnétiques des GSM? C'est pas grave, on délivre des certificats médicaux d'électrosensibilité. Tout le monde se contrefout des études, des rapports d'experts, des résultats scientifiques. Ce qui compte pour les technologies, c'est combien ça coûte, combien ça rapporte, combien de gens regarderaient mes vidéos si je suis caricaturellement pour ou contre, combien ça désavantagerait les entreprises françaises si on autorise ou qu'on interdise, à quel point ça embêterait les Russes, les Chinois, les Américains, les Allemands… Quel est le poids des rapports scientifiques dans l'établissement des quotas de pêche? Dans la régulation du trafic maritime? Du trafic aérien? Sur l'emplacement des autoroutes, des lignes de TGV, des aéroports, des parkings de supermarchés? Vous croyez que les cabinets ministériels écoutent les experts universitaires sur l'économie? Sur l'urbanisme? Sur les politiques publiques? Vous croyez que de brandir des rapports de 2000 pages va décourager les opposants à l'enfouissement des déchets nucléaires, aux mégabassines, aux OGM? C'est du flan. Le principe de précaution, c'est un buzzword pour technophobes. Quand on brandit le principe de précaution, on ne veut pas lire des rapports scientifiques, on voudrait juste qu'une technologie qui nous met mal à l'aise soit interdite, "parce que", sans raison (parce que justement, on n'en a aucune).
[^] # Re: Principe de précaution
Posté par barmic 🦦 . Évalué à 6. Dernière modification le 31 mars 2023 à 10:14.
Tu te trompe. La question n'est pas d'interdire par défaut, ça n'est pas interdit à ce que je sache. La question c'est de choisir, maintenant que l'on commence à se demander l'impact que ça peut avoir sur notre société, comment est-ce qu'on l'autorise.
Celui du législateur qui fait une analyse dans la quelle il interroge qui lui semble pertinent d'interroger.
Quand l'opinion publique ou le législateur pense que c'est important de se pencher sur la question.
Tu peux dire que "les gens" sont inaptes à se demander si une techno est nocive ou pas, mais va bien falloir les écouter si on veut vivre en démocratie. En soit ils sont impacter donc c'est normal qu'ils aient leur mot à dire.
Le fait que le sujet soit pris par le législateur est vital. Il n'est pas obligé de décider un moratoire, il peut aussi simplement prendre en compte et voir qu'est-ce qui doit être changé ailleurs pour que ça cause moins de dommages.
Je veux vivre dans un monde où l'on peut décider collectivement de ce qu'on considère comme acceptable ou non.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Principe de précaution
Posté par Big Pete . Évalué à 4. Dernière modification le 31 mars 2023 à 10:59.
À mon avis, l'erreur de compréhension est là. On parle d'éthique et de "morale" en fait. Et la question que l'on se pose, et qui est une question vraiment complexe, c'est est-ce qu'une techno est bonne ou mauvaise.
C'est bien là le problème. Car il n'y a pas de réponse à cette question. D'où l'incompréhension qui se constitue et les dialogues à son sujet qui n'aboutissent jamais. La question est simplement mal posée.
Ce n'est pas la techno le problème, mais l'usage qui en est fait, sa mise en oeuvre qui doit être encadrée. Nécessairement.
Une techno n'est ni bonne ni mauvaise. Généralement pour démontrer ce point, je prend l'exemple simple d'une lame de rasoir. Dans les mains d'un chirurgien, une lame peut sauver une vie, dans celle d'un assassin, elle peut la prendre.
Et même dit comme ça, ce n'est pas simple, si le chirurgien sauve la vie du pire dictateur de la planète ou si l'assassin le tue, on voit bien que la notion de bien ou mal, ne dépend pas simplement de la techno mise en oeuvre (la lame), mais du cadre dans laquelle elle est mise en oeuvre (médecine ou assassinat) et du contexte lui-même (usage sur un dictateur malfaisant ou sur un "innocent").
Alors, ce que je dit là ne constitue pas vraiment une réponse au problème posé : L'éthique de l'IA, qu'on soit bien clair. C'est simplement une tentative (plus ou moins maladroite) de poser correctement celui-ci. Un problème mal posé trouve rarement une solution, et au pire, ce sera une mauvaise solution qui constituera en soi un nouveau problème à résoudre.
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
[^] # Re: Principe de précaution
Posté par Thomas Douillard . Évalué à 2.
La technologie n’est pas neutre, c’est effectivement un argument souvent employé pour justifier qu’il faut aller dans toutes les directions : il y a potentiellement un bon usage de tout. Pour autant, les risques associés sont potentiellement très grands. On peut par exemple penser à l’augmentation de fonction des pathogènes dans les labos de recherches et des risques d’échappements, qu’il n’est pas du tout illégitime de discuter avant de financer.
Cette question a une longue histoire, on peut probablement en troller longtemps en restant dans des positions caricaturales qui sont malheureusement trop populaires et probablement en pratique finalement pas si appliquées …
[^] # Re: Principe de précaution
Posté par Big Pete . Évalué à 4.
Hum, a mon avis, c'est bien parce qu'on focus sur la technologie elle-même qu'on passe a côté du fait que c'est son usage qui pose problème et pas la technologie intrinsèquement.
Et c'est là le problème principal, à mon sens en tout cas.
Alors si tu veux une ébauche de réflexion a ce sujet : l'approche ce serait plutôt de dire que toute nouvelle technologie pose fondamentalement un problème du fait simplement qu'elle est nouvelle et que son cadre d'usage n'est pas encore clairement défini dans une société donnée.
Et de fait, certaines personne défendent le point de vue tout a fait rationnel (a mon sens) qu'il faut éviter de diffuser massivement dans une société une nouvelle technologie dont le cadre d'usage n'est pas encore clairement défini. (Du fait même de sa nouveauté).
De toute façon, le débat sur les usages bon et mauvais d'une techno et le cadre éthique de son usage est inévitable. Il doit avoir lieu, même si ce n'est jamais "agréable" comme sujet, surtout pour les experts du domaine qui sont confronté a des utilisateurs pas forcément expert.
Et non seulement ce débat doit avoir lieu, mais il ne prendra jamais vraiment fin. Les systèmes de valeur des société humaines ne sont pas figés dans le temps, d'une part et on des implication culturelles fortes, et particulièrement complexe. (Prendre par exemple le rapport des américains aux armes à feu).
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
[^] # Re: Principe de précaution
Posté par Thomas Douillard . Évalué à 3.
Une technologie ayant pour vocation d’être appliquée, par définition il me semble, ça me parait spécieux de vouloir faire une différence stricte entre la techno et son usage. La techno n’aurait pas de sens sans usage, on l’imagine avec des usages en tête.
Si on veut faire une différence, on peut plus se tourner vers la notion de science. Le savoir est plus facilement distinguable des applications parce qu’on peut vouloir comprendre rien que pour comprendre.
[^] # Re: Principe de précaution
Posté par Big Pete . Évalué à 3.
Je me doutais qu'on finirait par qualifier ma réflexion de spécieuse en soutenant que c'est évident qu'on parle de l'usage quand on parle des danger de l'IA dans les journaux et que c'est moi qui suit surement un peu idiot de penser qu'on puisse passer a coté du fait que quand on dit ça, on parle implicitement des danger des usages de l'IA et pas du danger de l'IA en tant que telle.
Le contexte c'est que les usages d'une techno n'existent pas au moment où la techno emerge. Et c'est ça qui pose problème, c'est a dire comment une société peut définir un cadre d'usage d'une techno quand ces usages restent à inventer ?
L'idée c'est qu'il ne faudrait pas aller trop vite pour que le cadre d'usage puisse émerger en même temps que la techno. Mais c'est généralement incompatible avec un autre problème, qui est que nos société récompensent avant tout ceux qui innovent le plus vite dans un cadre ou la régulation est vécu généralement plutôt comme un frein a l'innovation. (frein économique).
De là a dire qu'il faudrait un système économique qui arrive à être aussi éthique qu'il est libéral, il y a un pas que mon éthique des vendredi sur LinuxFr me permet de franchir :)
(la question subsidiaire étant celle de l'éthique du troll :-) )
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
[^] # Re: Principe de précaution
Posté par Thomas Douillard . Évalué à 3.
On a pas grand chose qui force les acteurs économiques à être éthiques dans un monde ou on cherche l’efficacité financière à tout prix, quoi que ça veuille dire.
[^] # Re: Principe de précaution
Posté par Big Pete . Évalué à 3.
Oui, et a mon avis, c'est surtout ça le problème. Et ça ne concerne pas que l'IA, loin de là. Les problèmes que pose l'IA actuellement du fait de son emergence rapide dans un cadre d'usage mal défini sont symptomatique d'un problème plus grave, et plus général.
On veut aller trop vite, et lorsqu'on veut courir plus vite que ses pieds, on se retrouve vite avec le nez par terre. Normalement, les petit humains apprennent ça juste après avoir appris à marcher. ça peut nous donner une idée de notre "age mental" en tant que civilisation :)
Faut pas gonfler Gérard Lambert quand il répare sa mobylette.
[^] # Re: Principe de précaution
Posté par Thomas Douillard . Évalué à 2.
Tu avais donc un doute sur le but recherché par les applications de ces recherches ? Ben c’est facile, faire de l’argent par tous les moyens possibles :)
Mais en fait il y a pas de mystère sur les applications de chatGPT, au moins l’application immédiate. Il s’agit de faire un chatbot qui a un savoir universel. On connait les risques immédiats rien qu’à savoir comment ça marche, ça avale des textes dans tous les domaines de diverses sources. On a anticipé divers risques avant même que chatGPT existe, au point qu’ils se sont sentis obligés d’afficher qu’ils allaient faire les choses de manière ouverte et éthique. Et sans surprise, quand l’argent arrive, on recule sur ces points …
[^] # Re: Principe de précaution
Posté par barmic 🦦 . Évalué à 3.
Tu sors un peu ma phrase de son contexte (pas de souci). La question c'est comment on aborde une nouveauté. Comme je le dis à la fin de mon commentaire, la question n'est pas d'interdire ou de laisser libre court, mais de ce demander s'il faut encadrer si oui comment ou s'il faut faire évoluer autre chose (ou s'il faut rien faire). On est pas dans une binarité interdiction/liberté totale.
Mais on est globalement du même avis.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Principe de précaution
Posté par Faya . Évalué à 2.
Je manque sûrement d'imagination mais j'ai justement du mal à voir le "comment". Il s'agit d'algorithmes connus à priori de tous. La différence entre les acteurs est sûrement dans l'implémentation et les données d'entraînement. Est-ce qu'on a des exemples de mathématiques interdites ? D'algorithme interdit ? À ma connaissance il n'y a même rien qui interdise de coder un trojan, juste de l'utiliser sur le PC de qqun sans son autorisation. On peut même les vendre très cher. On pourrait plutôt légiférer selon l'angle des données, genre interdiction de fournir un accès à un programme entraîné sur X péta-octets ? Mais toute interdiction serait forcément locale donc facile à transgresser.
(il y a bien eu du chiffrement interdit et ça pourrait revenir)
[^] # Re: Principe de précaution
Posté par barmic 🦦 . Évalué à 6.
On ne peut pas interdire un objet mathématiques d'exister, il est de l'ordre de l'idée. Tout comme le fais d'avoir des idées racistes n'est pas interdit. Ce qui est interdit c'est le fait d'avoir des actions racistes. De la même manière on peut choisir quel type d'algo peuvent ou ne peuvent pas être utilisé dans quel cadre avec quels contraintes.
Et oui comme la lutte contre le racisme on ne peut pas garantir qu'il n'y en a pas, mais on peut sanctionner les cas où c'est avéré.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Principe de précaution
Posté par arnaudus . Évalué à 4.
Tu veux interdire les moteurs de recherche? Les analyses de données scientifiques?
Par exemple, ce qu'on peut encadrer, c'est d'interdire le recours à de tels outils sans que l'utilisateur final ne soit au courant. Par exemple, quand on tombe sur un standard téléphonique, il faudrait rendre obligatoire le fait d'expliquer très clairement qu'on discute avec une IA. On peut aussi faciliter la mise en place d'interdictions ponctuelles de l'utilisation d'un tel outil : dans des copies d'examen, par exemple. Ou même rendre obligatoire une mention du type "ce texte a été en partie rédigé à l'aide d'une technologie d'intelligence artificielle", ce qui éviterait (un peu) les cabinets de conseil d'y avoir recours démesurément.
Sur le fond, comme de nombreux sites proposant ce type de service moyennant finances ou moyennant cookies existeront, il faudrait complètement brider l'ensemble d'Internet pour empêcher les français d'utiliser un tel outil… Ça me semble toujours aussi délirant, comme idée, en fait. On ne peut pas revenir en arrière, ça existe, et ça existera de plus en plus. Il faut travailler à rendre nos sociétés vivables avec cet outil, plutôt que de rêver à vivre à une époque où il n'existait pas encore.
[^] # Re: Principe de précaution
Posté par barmic 🦦 . Évalué à 5.
Tout à fait c'est comme si on disait que maintenant les utilisateurs avaient un droit de regard sur leur données. On obligerait les entreprises à ne pas faire n'importe quoi avec les données de leurs utilisateurs, ils devraient demander le droit avant de faire des croisements problématiques, l'utilisateur pourrait demander à connaître l'ensemble de ses données et il pourrait demander de les supprimer ! Du délire pur et dur !
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Principe de précaution
Posté par arnaudus . Évalué à 4.
Ça n'a absolument aucun rapport. Là, tu veux juste interdire à des entreprises de mettre en place un service parce que… parce que quoi exactement? Parce que des grand-mères à moustaches pensent que c'est peut-être dangereux pour la société. Il n'y a aucun problème de données, de vie privée, de consentement, il y a juste une sorte de vague peur de l'inconnu.
À ma connaissance, il n'y a aucun projet de loi pour obliger qui que ce soit à utiliser ChatGPT. Je ne vois pas en quoi ceux qui ne souhaitent pas utiliser un tel outil seraient en droit d'empêcher ceux qui souhaitent l'utiliser de le faire.
Encore une fois, les sites qui proposeront (gratuitement ou non) de tels services vont exister. Ça ne fait aucun doute. Comment veux tu procéder? Tu crées un Firewall national pour empêcher les gens d'accéder à ces URLs? Tu crées un délit d'utilisation de chatbot?
[^] # Re: Principe de précaution
Posté par barmic 🦦 . Évalué à 3.
Déjà calme-toi.
Des usages débiles et problématiques de ce genre de technologies, on commence à en avoir une certaines collection. Le réglementer n'est pas une ineptie contrairement à ce que tu t'obstine à affirmer.
Le législateur italien en a trouvé.
Et encore une fois arrêter d'essayer de faire peur avec la Chine. Brandir la Chine comme un totem à chaque fois qu'on se demande s'il ne faudrait pas légiférer, c'est fatigant. On interdit pleins de pratiques sans pour autant en arriver là.
Les libertariens prêts à tout pour pousser la tech sans contrôle avec la croyance que c'est ineluctable me semblent avoir le même schema n'importe quel intégriste : « ma croyance est la bonne et toute "ingérence" de l'État est un sacrilège (ajouter le grand méchant qui convient : satan, la Chine ou autre) ».
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Principe de précaution
Posté par arnaudus . Évalué à 3.
Quel usage souhaiterais-tu réglementer, qui ne le soit pas déja? Il est déja illégal de diffuser un montage photographique diffamatoire, de produire un faux document, ou de tricher aux examens.
[^] # Re: Principe de précaution
Posté par barmic 🦦 . Évalué à 2.
Sans passer plus de temps que ça a y réfléchir, il semble que le respect des droits d'auteur1 pour l'apprentissage est à minima dans une zone grise ou mériterait d'être éclaircis voir de revoir comment il est sanctionné (à quel moment, avec quels moyens et avec quelle sanction). Mais aussi comment est perçu le plagia au travers de ce genre d'outils ?
Et c'est le premier exemple que j'ai en tête. C'est toi qui t'oppose de base à ce qu'on y réfléchisse parce que la concurrence, parce que la Chine, etc.
Étudier prend du temps. Quand des gens peuvent être victime, ça vaut le coup de se poser pour réfléchir. C'est mon avis et c'est clairement une discussion classique de savoir si comme tu semble le penser, la course à la technologie/innovation est le plus important (il y a des arguments à ça) ou si comme moi je pense qu'il est plus important de prendre le temps de comprendre les externalités négatives avant d'aller trop loin.
droit d'auteurs, droits voisins, droit à l'image, droit lié au copyright, etc… ↩
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Principe de précaution
Posté par arnaudus . Évalué à 3.
Pour les droits d'auteur, il n'y a pas besoin de loi, il y a besoin d'une jurisprudence. Le respect des droits d'auteur, ça a toujours été individuel. Tu penses que tes droits d'auteur n'ont pas été respectés? Alors tu portes plainte pour contrefaçon. C'est comme ça que ça marche si quelqu'un diffuse un de tes logiciels sous GPL sans respecter la licence par exemple. Il n'y a pas besoin de loi, la loi existe déja. Du coup, si tu penses qu'un système automatique produit un travail dérivé à partir de ton travail, tu peux te plaindre. La loi te protège déja. Par contre ça va être un sacré boulot de prouver que le travail est dérivé.
Ce que je ne sais pas, à vrai dire, c'est la "propreté" de la base de données. Quand tu publies sur Facebook, tu donnes tes droits à Facebook selon les conditions d'utilisation du site. Quand Facebook les revend, il peut le faire parce que tu as donné tes droits. Si tout s'est fait "proprement", je ne vois pas trop comment tu peux te plaindre. Si par contre la base d'apprentissage de chatGPT n'est pas propre, alors tu peux faire valoir tes droits. Mais je ne vois pas à quoi ça sert d'attendre : les lois sont là.
Je pense qu'on est d'accord sur notre désaccord, donc. 1) je ne pense pas que ça soit possible (c'est un peu comme si tu disais "la sécheresse c'est mal, et ça serait bien que la pluie tombe plus en été"), et 2) je ne pense pas que ça soit une bonne idée du tout (parce que des dizaines de milliards de parents ont toujours dit à leurs enfants "ne met pas tes doigts dans la prise", et que ça a toujours donné l'idée à des dizaines de milliards d'enfants de mettre les doigts dans la prise, c'est la nature humaine de mettre les doigts dans la prise, et le jour où on ne mettra plus les doigts dans les prises c'est que notre espèce aura disparu—peut-être d'ailleurs après avoir mis les doigts dans la mauvaise prise).
[^] # Re: Principe de précaution
Posté par barmic 🦦 . Évalué à 2.
Peut être, mais elle est complexe a appliquer en l'état. C'est des choses qui peuvent évoluer. Mais je doute que la loi aujourd'hui soit adapté pour pouvoir porter plainte contre OpenAI parce qu'ils ont repris tes écris, tu va avoir du mal à constitué un dossier. Qu'une entreprise puisse faire fit de la loi parce qu'elle sait qu'elle va tellement loin dans le nom respect pour que ce soit impossible de même intenter un procès, ça ne me paraît pas être une loi qui te protège.
Non. Les conditions d'utilisation ne sont pas un blanc sein et ne permettent pas de tout faire, même si c'est inscrit dedans et en France tu as des droits qui sont inaliénables. Les conditions d'utilisation sont pas utilisables en l'état. Elles sont trop complexes pour être lu par l'utilisateur, mais c'est quelque chose qui peut être changé parce exemple si tu était obligé de demander l'accord avant chaque vente.
Et donc tu trouve que c'est une ignominie les normes qui définissent des prises dans les quels il est impossible de mettre les doigts parce que c'est dans l'ordre naturel des choses qu'il ne faudrait pas intervenir dans ce que les moires ont tissé ?
Tout à fait refuser a priori de se gouverner est et sera toujours à l'encontre de mes opinions.
https://linuxfr.org/users/barmic/journaux/y-en-a-marre-de-ce-gros-troll
[^] # Re: Principe de précaution
Posté par ǝpɐןƃu∀ nǝıɥʇʇɐW-ǝɹɹǝıԀ (site web personnel) . Évalué à 4.
Paradoxal pour l’un des princes de starlink de signer une tribune que l’on puisse lier au principe de précaution.
« IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace
# Alors l'IA ...
Posté par El Titi . Évalué à 2. Dernière modification le 30 mars 2023 à 23:16.
boule noire, blanche ou grise ?
[^] # Re: Alors l'IA ...
Posté par El Titi . Évalué à 2.
Ca s'apparente quand même pas mal à une vulnérabilité de type 2B.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.