En gros, le tribunal rejette l'idée du modèle de Google. On pourrait prendre une analogie : par exemple, Carrefour invente un modèle où les produits deviennent gratuits : les usagers du supermarché ne sont plus des clients, ils deviennent la "marchandise" vendue, et en échange, ils se servent à l'œil. Eh bien la décision du tribunal consiste à interdire un tel modèle, et à estimer que les concurrents méritent d'être dédommagés.
Je pense que la raison est simplement le conservatisme ambiant, ainsi qu'un ensemble législatif archaïque. On ajoute là-dessus un bon coup de nationalisme, un chantage à l'emploi, et l'idée que de toutes manières Google a plein de thunes. On est à la limite de l'État de droit.
Le plus inquiétant à mon avis, c'est que l'innovation est pénalisée au profit du conservatisme, et la boîte qui crée des richesses est parasitée par des entreprises moribondes mais scélérates (un peu comme SCO).
J'ai lu, et je trouve l'argumentaire sans aucun intérêt. En gros, ça dit "ouhlala, toute entreprise avec une position dominante est un danger, donc il faut éclater la gueule de Google, peu importe la raison". Moi dans l'histoire je vois que Google se fait en... à sec avec du verre pilé par une boîte à la SCO dont l'activité principale consiste à soutirer du fric aux entreprises qui créent de la richesse. Le fait qu'un tribunal français soit utilisé à ces fins me fait plutôt honte.
Boostez le R.O.I de vos campagnes de MD avec des plans personnalisés one to one.
Je n'ai pas d'affinités particulières pour les grosses boites comme Google, mais se faire soutirer un demi million d'euros par des trous de balle de cette nature, ça me scie. Le tribunal de commerce de Paris va se taper une honte internationale avec des décisions hallucinantes comme ça -- on s'est longtemps moqué de la justice américaine, avec ses condamnations débiles, mais visiblement les décisions de justice françaises peuvent rivaliser.
Sauf que ce n'est pas un combat à armes égales. Sony veut faire du pognon, la SFC veut faire respecter la loi pour des raisons éthiques. Bon, du coup, pour faire respecter la loi, elle emploie des techniques juridiques pas propres, et prend des décisions pour des tiers qui n'ont rien demandé. Du coup, elle se décrédibilise sur le plan éthique, et il ne lui reste plus rien.
Demander de respecter la loi si on veut bénéficier d'une licence c'est "malsain" comme démarche ?
Dans la mesure où ça ne te regarde pas, oui(1). C'est d'ailleurs pour ça que la loi ne t'autorise pas à porter plainte si tu n'es pas victime. X vend à Y un logiciel sous GPL écrit par Z sans lui filer les sources, X peut se plaindre, Z peut se plaindre, mais toi tu n'as rien à dire, ce n'est pas ton problème, ça ne te regarde pas. En tout cas, même si tu penses que c'est une escroquerie, tu peux avertir la presse, communiquer dessus, mais en aucun cas t'immiscer dans les relations entre auteurs, clients, et vendeur.
Et donc ne pas respecter la loi c'est "sain" ?
Le beau raisonnement fallacieux que voila.
Qu'elle soit le fruit d'une astuce juridique non voulue, ça ne le rend pas malsain pour autant.
Ouais, la fin justifie les moyens? C'est ça ton raisonnement? La GPL n'est pas seulement un texte juridique, c'est aussi une philosophie. Ne pas respecter la GPL, c'est mal. Mais faire semblant de ne pas comprendre la GPL pour soutirer au vendeur plus ce que tu avais le droit de lui demander, c'est du racket juridique. Tu penses que c'est sain que les tribunaux soient devenus des rings pour avocats cupides enculeurs de mouches? On ne peut pas cautionner ce genre de méthodes mafieuses quand c'est une assoc de soutien du LL qui les utilise, et les condamner quand c'est Microsoft. Ce sont des techniques de caniveau dans tous les cas.
Si les gens du noyau Linux ou d'autres softs distribués voulaient défendre leurs droits, ils peuvent adhérer à l'assoc qu'ils veulent, ou prendre une assistance juridique. S'ils ne le font pas, c'est qu'ils s'en foutent ou n'en voient pas l'intérêt, et je ne vois pas de quel droit on peut penser qu'il est légitime de les "défendre" contre leur volonté.
(1) et qu'il ne s'agit pas d'un crime, évidemment.
OK, alors j'ai lu rapidement les liens, et voici ce que je comprends : en gros, les gentils ne sont pas forcément ceux que l'on pourrait croire...
Le truc est que la SFC semble vouloir utiliser une faille dans la GPL v2. La GPL v2 dit que le contrat de licence se termine si la GPL est violée, mais ne dit pas que la licence est de nouveau valide si les clauses sont respectées de nouveau. Du coup, la SFC ne réautorise la redistribution de BusyBox seulement si la boîte qui redistribue publie le code de BusyBox (OK, puisque la SFC a le droit de défendre les auteurs de la BusyBox), mais aussi des autres logiciels (pour lesquels la SFC n'a pas de droits particuliers). La raison de cette demande est simplmeent que puisque les droits ont été violés, la licence s'est terminée, et que pour la revalider, la SFC peut demander n'importe quoi -- y compris de respecter des clauses qui n'étaient pas dans la GPL.
Je ne veux pas dire que Sony sont des gentils, loin de là. Mais je ne crois pas que la SFC sont des gentils non plus. Ils outrepassent largement leur rôle (défendre les droits des auteurs de BusyBox) pour faire respecter le droit des autres auteurs de soft sous GPL dont la licence a été violée. Ça pose une vraie question, quand on code un soft sous GPL, on veut évidemment que la licence soit respectée, mais si on garde les droits en tant que simple auteur, on souhaite également faire valoir ses droits en personne. Que quelqu'un ou quelque chose décide de faire valoir vos droits à votre place sans que vous ne lui ayez rien demandé est quand même quelque chose d'assez étrange...
À noter également que la GPL v3 a éclaicit cette clause pour donner au distributeur le temps de respecter la licence, ce qui la rend valide automatiquement -- autrement dit, la "faille" n'a jamais été désirée. Ce qui me conforte dans l'idée que la démarche de la SFC est malsaine sur le fond comme sur la forme.
le papier n’est plus adapté à l’information jetable à l’heure d’Internet, par contre pour de l’analyse et de la reflexion il y a encore de quoi faire tourner les rotatives !
Donc les journaux qui coulent n'apportent pas assez de réflexion et d'analyse par rapport aux sources gratuites. CQFD.
Mouais, je ne vois pas pourquoi ne pas reprocher exactement la même chose aux journaux papiers qu'aux maisons de disque et aux producteurs de cinéma : le monde tourne, et si vous ne tournez pas avec, vous êtes morts, et c'est normal.
J'ai l'impression qu'il existe encore de la place pour les journaux papiers, mais pour vendre un journal, il faut offrir une plus-value importante. Les résultats financiers du Canard Enchaîné sont impressionnants, et ils démontrent que ceux qui pensent que la presse papier est finie sont des clowns.
Je suis très curieux de revoir fleurir trrès régulièrement l'idée que la presse est le poumon de la démocratie et que c'est triste de voir les journaux mourir. J'ai parfois l'impression qie ceux qui disent ça ne les lisent pas. Prenons par exemple le dernier truc du Monde sur Wikipédia : c'est bourré d'erreurs, certaines infos datent de plusieurs années, des choses sont mêmes présentes dans la FAQ "journalistes" de Wikipédia, qui n'a visiblement pas été lue. Il s'agit pourtant d'un grand journal à la réputation sérieuse, mais le boulot n'est que vaguement superficiel. Évidemment, pour réaliser une vraie enquête sur Wikipédia, il faudrait des semaines de boulot, mais c'est peut-être ça qu'on attend d'un journal. La démocratisation d'Internet a aussi permis de mettre à jour la superficialité du travail des journalistes, qui produisent un papier léger tous les jours, et dont la source d'info principale est l'AFP et Twitter. D'ailleurs, ouvrez n'importe quel journal, et regardez la place faite à Twitter : il y a eu plus de reportages sur Twitter que sur Google, Megaupload, et Wikipédia réunis! Pourtant, personne n'utilise vraiment twitter, c'est un média superficiel sans intéret réel... sauf pour les journalistes, qui ont vraiment été à l'origine de l'engouement pour ce truc.
Bref, nous vivons dans un monde qui nous abreuve d'infos ; on se réveille sur France Info, regandons BFM TV pendant le petit dej, on est connectés aux fils d'info toute la journée, on a même les dépèches AFP sur Android. Évidemment, dans un tel contexte, personne ne veut payer pour un quotidien qui ne fait que répéter tout ça : le modèle du quotidien papier a vécu. Pour survivre, il faut simplement évoluer.
Citer un article « fermé » c'est compromettre le travail du relecteur.
Parce que ne pas citer les travaux antérieurs, c'est faciliter son travail? C'est n'importe quoi. Une fois publiés, tous les articles ont le même statut et le même droit à être cités. Un article scientifique, ce n'est pas une dépèche AFP reprise par 50 journaux avec des formulations et des images différentes. La plupart des articles scientifiques sont des travaux uniques et irremplaçables, on ne peut pas choisir ceux qu'on veut citer ou pas.
L'accessibilité des grandes revues est un problème pour certains établissements de recherche, mais les reviewers ne sont pas là pour être gentils. Quand un auteur loupe sa biblio et démontre son inculture du sujet en ne citant que partiellement l'historique du problème, l'article est rejeté ou le reviewer balance (s'il est gentil) une liste de références à lire et à citer (moi j'ai plutôt tendance à virer avec un commentaire du style "the authors failed to replace their work into the relevant literature" et basta). Si ton employeur ne met pas à ta disposition l'accès aux journaux dont tu as besoin, c'est votre problème à tous les deux, pas celui de l'éditeur ou des reviewers.
La recherche ce 'nest pas non plus bisounoursland ou tout le monde fait ce qu'il veut. Tu publies où tu peux, et tu cites ce que tu dois. Si tu veux boycotter Total ou Danone, tu le fais chez toi, avec ta femme et tes gosses. Au boulot, tu peux discuter de ça avec tes collègues et les encourager à privilégier les journaux OpenAccess. Mais franchement, écrire des articles merdiques qui ne citent que la moitié de la biblio parce que les autres articles sont dans des revues que tu n'aimes pas, c'est une faute professionnelle et ça n'est pas acceptable. Publier tes trucs dans "Jounal of ethical science" parce que Nature ça ne te plait pas, ça te concerne toi et ton avancement de carrière si tu vis tout seul dans ton monde de bisounours, mais si tu as des collaborateurs et un labo qui doit rendre des comptes c'est une autre histoire, et tu ne vas pas garder longtemps tes collaborateurs.
Un problème insidieux par exemple, mais très concret, c'est le transfert de budget. L'accès aux grandes revues au format électronique est souvent négocié par ton institut, c'est de l'argent qui ne passe jamais par le labo. Au contraire, les frais de publication en OpenAccess c'est en général le pognon pour la recherche. À 2000€ l'article (voire plus), tu ne peux pas publier plus d'un ou deux articles par an en OpenAccess avec un financement de base, et il ne faut pas devoir acheter 2 ordinateurs par an. Donc tu fais comme tout le monde en période de vaches maigres, tu gardes ton fric pour les choses qui sont vraiment importantes. C'est malheureux mais c'est comme ça, on vit dans un monde réel où ton employeur attend de toi que tu ne te comportes pas comme un gamin et où certains choix professionnels peuvent écorner tes sentiments politiques.
Arnaudus, on pourrait résumer tes messages à "Résignez-vous !!"
C'est que tu as mal lu, ou que je n'ai pas été clair. Le système de revue par les pairs n'est pas idéal, il me fait penser à ce qu'on dit de la démocratie : pour l'instant, c'est le moins pire. Mais quoi qu'il en soit, ce système ne repose pas nécessairement sur des éditeurs privés qui font de grosses marges.
Il faut aussi comprendre un peu le contexte. Il y a 30 ou 40 ans, la publication scientifique était assurée par des presses universitaires. Avec la rationalisation des moyens donnés aux université (restrictions budgétaires et externalisation des services), la plupart des titres scientifiques ont été revendus à quelques acteurs majeurs de l'édition. La privatisation de la littérature scientifique est donc issue de choix politiques, d'ailleurs pas forcément irrationnels : en règle générale, une entreprise privée rationalise mieux ses couts et maitrise mieux sa communication, et il est tout à fait possible de dépenser moins en externalisant un tel service qu'on gérant tout en interne. Par ailleurs, un organisme privé offre une garantie d'indépendance ; il est a priori plus difficile de publier dans Nature que dans les presses universitaires du Nord-pas-de-Calais.
Mais bon, de toutes manières, le paysage n'est pas si noir. Le monde de la publication offre maintenant de très nombreux titres qui fonctionnent selon le principe de l'OpenAccess payant à la publication et gratuit à la consultation, souvent sous licence CC. Parmi les éditeurs OpenAccess, on trouve de tout ; pas mal de "parasites" qui ont tendance à être assez agressifs sur la pub, le spam, et assez permissifs sur la qualité (puisqu'on paye seulement les articles acceptés, mieux vaut accepter beaucoup), mais il y a également pas mal d'éditeurs académiques ou sans but lucratif, je connais au moins les PLoS (http://en.wikipedia.org/wiki/Public_Library_of_Science), et les Frontiers (http://en.wikipedia.org/wiki/Frontiers_Research_Foundation). L'avantage des fondations non-profit c'est que même si on paye, ça ne va pas dans les poches des fondateurs, c'est dépensé (peut-être bien ou mal, mais ça n'est pas la question). On a aussi des éditeurs OpenAccess qui font des profits, comme la série des BioMedCentral, mais à ma connaissance ils sont sérieux. La plupart de ces éditeurs ont des titres prestigieux avec un facteur d'impact très haut, tout à fait reconnus dans le monde académique. Ils constituent donc des alternatives tout à fait crédibles à Elsevier et al (parce que je ne comprends pas pourquoi désigner particulièrement Elsevier, Springer ou Blackwell sont au moins aussi pourris). Cette alternative me semble beaucoup plus crédible qu'un improbable mix entre Arxiv et Facebook ; moi je suis biologiste et le modèle Arxiv n'a jamais percé dans mon domaine.
comme on ne peut pas tout lire et tout citer, on lit d'abord ceux qui sont le plus facilement accessibles.
C'est clair, c'est surtout vrai pour les revues, les articles de perspectives, ou les trucs qu'on cite comme exemple ("Il est aussi possible de faire ça avec la méthode X, comme Machin et Truc 2004"), mais il faut bien l'avouer, citer des articles remplaçables comme ça n'est pas forcément la meilleure manière d'écrire un article scientifique (c'est un peu "je n'ai pas eu le temps de faire la biblio, voici deux ou trois trucs et creusez plus loin si ça vous intéresse").
Il est évident que dans ce genre de cas, on a tendance à citer les articles qui sont sur notre bureau, mais ce ne sont pas nécessairement des articles OpenAccess : ça peut être l'article d'un collègue, un article que l'on a reviewé peu de temps auparavant, les articles d'un journal que l'on suit régulièrement ou dont on a récupéré un numéro gratos à une conférence, etc. Mais par facilité, on risque par exemple d'exclure des articles un peu anciens qui n'ont pas été numérisés (alors que les vieux articles sont souvent plus pertinents et ont beaucoup plus d'intérêt historique), les articles un peu techniques et un peu longs, etc; bref, c'est clair que le choix va être biaisé et qu'on n'a pas à être exhaustifs sur le sujet, mais il n'empêche que la démarche de choisir consciemment le journal ou le type de journal reste un comportement assez malsain.
La bibliométrie étant devenue un index d'évaluation pour la qualité de la recherche, on n'est pas prêt de changer le système.
Pour info, beaucoup d'éditeurs scientifiques (openaccess principalement) ont mis en place sur le site la possibilité de commenter les articles. Ça ne marche absolument pas, les gens ont d'autre chose à faire que d'aller reviewer sans aucune raison des articles aléatoires sur Internet. Le peer-review marche sur la base du bénévolat, mais les gens ne le font que parce qu'on leur demande personnellement, ces demandes sont des signes de reconnaissance, et en général, ce signe suffit à la motivation. L'autre motivation c'est le rôle de filtre, c'est important de ne pas laisser passer les mauvais papiers. Si l'article est déja publié, lui mettre une mauvaise notre ou un commentaire négatif n'a pas du tout le même impact. Bref, la review "a posteriori" n'a aucun avenir.
Ce qui fonctionne un peu mieux, c'est les "revues de presse" a posteriori, des sélections d'articles intéressants après leur publication. C'est sur ce principe que fonctionne la "Faculty of 1000", qui propose des listes d'articles choisis par des scientifiques éminents... et payés pour ce service. Donc l'accès aux listes est payant, ce sont les institutions qui payent, et ça ne résoud pas du tout le problème.
Le principal obstacle à mon avis à l'évaluation ouverte est l'effet de réseau, le même qui génèrent 90% de "j'aime" aux vidéos de Dédé en vacances sur les réseaux sociaux. Il va se mettre en place très rapidement des communautés d'amis qui ont des affinités scientifiques ou méthodologiques et qui vont s'autocongratuler en boucle. Par contre, les gens qui vont vraiment prendre leur rôle au sérieux et fournir des critiques plus argumentées vont se retrouver rapidement exclues des réseaux et leur boulot ne sera jamais reconnu. En plus de ça, il existe simplement des facteurs humains qui gênent l'honnêteté du processus : il est socialement inadéquat de descendre gratuitement le travail de quelqu'un qu'on ne connait pas quand on ne nous a rien demandé.
Bref, les réseaux Facebook, dans le monde de la recherche, je ne vois pas comment ça peut fonctionner. Il y a quelques principes auxquels le remplaçant du système actuel ne pourra pas déroger : (i) l'utilisation et la reconnaissance institutionnelle de facteurs quantitatifs comme proxys de la qualité et de l'intérêt d'un travail scientifique, (ii) l'aspect gratifiant du travail "gratuit" et son efficacité (par exemple son influence sur le devenir d'un article), et (iii) la possibilité de bloquer (ou de reléguer dans une seconde zone, comme "Arxiv") les travaux sans intérêt, de manière à contenir le nombre de publications significatives dans un domaine.
J'aimerais bien savoir dans quel domaine tu bosses. Tous les articles (accessibles ou non accessibles) sont référencés dans les bases de données et les moteurs de recherche ; quand tu fais ta biblio, tu tombes sur une série d'articles sur ton sujet de recherche, et tu sais que tu dois lire ces articles. Tu vas à la bibliothèque, tu envoies un mail à leur auteur, tu payes un service de repro pour récupérer une copie des articles rares et vieux, mais tu as le devoir de faire ta biblio correctement : comment peux-tu penser que ton approche est originale si tu ne connais pas le travail de tes collègues? Comment peux-tu écrire une introduction si tu ne connais pas bien l'historique de ton domaine de recherche? C'est juste impossible.
Une fois que tu as lu les papiers, tu dois décider lesquels sont pertinents et lesquels le sont moins. À part dans le cas des articles remplaçables (revues...), la plupart du temps, cette décision est basée sur le contenu de l'article, et pas sur le journal dans lequel il est publié. Pire, les articles à gros facteur d'impact sont en général ceux que tu n'as pas le droit d'oublier de citer.
Bref, trier les articles à lire et à citer en fonction du journal, c'est au choix
* l'idée de quelqu'un qui ne fait pas de recherche et qui croit que citer un article scientifique c'est comme citer un papier de Libération ou du Figaro, au contenu quasiment identique et interchangeable
* la pratique de quelqu'un qui fait sa bibliographie comme un porc
* la partique de quelqu'un qui n'a aucune conscience professionnelle et qui dégrade volontairement la qualité de ses publications par militantisme
Bref, c'est simplement inapplicable. Quand on écrit un papier, on cite les articles pertinents auxquels on a eu accès. En général, dans les instituts de recherche, on a accès à tous les gros journaux de notre domaine (il y a des exceptions), et au pire, on peut toujours trouver ces articles dans Google ou en écrivant aux auteurs. Il est juste éthiquement et pratiquement impossible de choisir les journaux des articles que l'on cite, c'est une pratique que je ne trouve pas admissible (et à ma connaissance, elle n'est pas admise).
Non, je pense que ça arrive un peu dans tous les domaines. Il me semble que PNAS prend dans les 200$ la page, et d'autres journaux le font. Ils ont mis ça en place avec l'avènement des lois américaines sur la publication ouverte des résultats financés par la recherche publique ; les articles sont mis à la disposition de tous un an après leur publication originale, mais en contrepartie il y a des frais de publication.
Il faut aussi condamner le double racket des journaux qui proposent l'openaccess optionnel. On paye dans les 2000$ pour avoir l'article en openaccess ; il devient disponible pour tout le monde, mais de toutes manières les gens ont déja payé pour avoir l'accès à la revue.
refuser de citer des articles qui ne sont pas en libre accès.
Bien sûr, compromettre son intégrité scientifique en faveur de ses prises de position politiques. Genre, tu ne cites pas tes concurrents parce qu'ils ont publié dans un journal que tu n'aimes pas... Il y a quand même des limites.
Bah, je pense qu'on veut tous un système quelque part entre les deux :
* Un internet traçable pour pouvoir chopper les vilains pédophiles
* Une structure souple pour garantir la liberté d'expression dans tous les pays et quel que soit le régime, y compris le notre
À mon avis, les deux aspects sont contradictoires, ce qui fait qu'on est tous un peu schizo quand on défend la liberté d'expression -- au final, ça se termine sur des arguments du type "vous défendez les pédophiles et les pirates" "et vous êtes un nazi".
Disons que le problème de la représentativité est le vote par "paquet". Quand tu votes pour un gusse ou un parti, tu votes pour un "forfait" incluant des trucs et des machins. Tu es d'accord sur certains, tu t'en fous pas mal d'autres, et tu n'est pas d'accord sur quelques autres. Si tu es contre la sortie du nucléaire, pour le mariage homo, pour les logiciels libres, pour la TVA sociale, pour le fédéralisme européen, et contre l'augmentation du nombre de fonctionnaires, tu risques fort de ne pas trouver de candidat qui reprend ça. Je pense que c'est un vrai problème de représentation démocratique.
Un autre problème réel est l'alignement des candidats sur une position intermédiaire, qui est inhérente à la démocratie participative. Chaque candidat a un bloc de soutien populaire robuste, la différence entre candidats se fait sur les gens qui ont des opinions un peu intermédiaires. Pour gagner, il faut convaincre ces électeurs intermédiaires minoritaires, et donc tordre les programmes vers eux. De fait, les programmes se ressemblent énormément, le choix démocratique en est beaucoup plus difficile (et le risque de voter en fonction de critères non-objectifs augmente), et la ligne suivie par un gouvernement n'est pas représentative des électeurs de ce gouvernement.
Bref, il y a quand même des défauts inhérents au système de représentation, et je ne suis absolument pas convaincu que ça soit 100% démocratique. Là comme ça, je dirais que nos sociétés sont, allez, 20 à 30% démocratiques (c'est à dire que 20 à 30% des décisions politiques qui sont prises seraient soutenues par le peuple si on lui demandait de s'exprimer). Ça veut quand même dire que 70% des décisions sont prises contre le peuple par ses représentants, si tu trouves ça acceptable moralement, j'aimerais bien entendre tes arguments.
Disons que c'est un peu complexe quand même. Quand il y avait eu une moilisation contre le projet de loi visant à permettre à toute personne d'imposer un rectificatif s'il se sentait diffamé, seule la Wikipédia italophone avait réagi. Il semble un peu disproportionné de stopper Wikipédia en espéranto pour une histoire de projet de loi américain. On n'arrête pas de dire qu'on en a marre de tous ces gens qui considèrent que les USA sont le centre du monde, on n'est pas obligés de réagir de la même manière.
L'autre aspect du débat, c'est que la loi en question n'affecte pas directement Wikipédia. C'est certain, la loi SOPA est une loi liberticide et potentiellement très dangereuse pour la liberté d'expression et pour Internet. Cependant, les sites qui sont directement visés sont les hébergeurs de contenu (youtube, dailymotion) et les sites de streaming et de direct download. Pour eux, en effet, il s'agit d'un véritable projet de censure, avec une coupure non sélective qui les menace à chaque infraction constatée, ce qui remet réellement en cause leur modèle d'existence, puisqu'ils n'ont pas les moyens de valider un par un leur contenu.
Par contre, pour Wikipédia, les conséquences sont très indirectes. Wikipédia est modéré par des utilisateurs a posteriori, et on parle de plus en plus d'une modération a priori (la fonction existe, je me demande si elle n'est pas activée sur WP allemande depuis quelques années d'ailleurs), les visiteurs non-identifiés tombant sur une version "validée" des articles. Bref, étant donné son mode de fonctionnement, le risque que Wikipédia puisse subir une fermeture automatique du fait de cette loi est assez faible, elle n'est pas la première concernée, et de loin. Bref, pour résumer les discussions sur WP francophone, la fermeture est avant tout un acte politique, pas un réflexe de défense des intérets immédiats de WP. Il est donc raisonnable que les différentes versions linguistiques soient libres de réagir indépendamment.
Ouais, enfin tu es quand même en train de discuter les micro-avantages d'un forfait qui te coûte 1200% plus cher. À moins d'être super-riche, je pense que tu devrais t'interroger sur un petit syndrome de Stockholm...
Si tu réponds pas à un RDV téléponique, tu es radié. Ils s'en foutent totalement de tes conneries de numéro masqué.
Ils ont d'ailleurs une bonne raison de masquer le numéro, le point d'entrée n'est pas le même que le point de sortie. C'est ton conseiller qui va t'appeler, mais il fait ça quand il n'est pas en RDV. Quand il est en RDV, il ne veut pas être appelé par Duchemol qui n'était pas là ce matin ; pour l'appeler, tu passes par le standard avec la petite musique. De manière générale d'ailleurs, dans de très nombreuses entreprises, les numéros de postes internes sont masqués : un poste interne peut appeler directement un client, mais le client passe par le standard pour rentrer. Il me semble que ce type d'organisation est totalement légitime ; y compris pour le client, qui est certain de tomber sur quelqu'un même si la personne qui a laissé un message la veille est en RTT.
??? Sur la Freebox, les numéros masqués sont virés avec un message, ils ne tombent pas sur le répondeur.
Si le banquier appelle d'un numéro masqué, ce n'est pas par plaisir, c'est parce que c'est un centre d'appel. Par exemple les services 24/24, genre les services d'opposition. Les banques peuvent appeler par exemple pour confirmer une transaction inhabituelle sur une Visa (comme un gros achat en Russie), c'est une téléopératrice qui appelle, elle n'a pas de numéro parce qu'on ne peut pas l'appeler, ça passe par un numéro à la con en 08, et on tombe sur des gens qui répondent, qui ne sont pas les mêmes que les gens qui appellent.
Bref, moi non plus je n'aime pas les numéros masqués, mais il est franchement stupide et dangereux de les refuser par principe. Tu appelles le 115, ça coupe, ils essayent de te rappeler, et forcément ils sont bloqués. On a cité assez d'exemples ici, un numéro de téléphone, ce n'est pas une adresse IP, et il est tout à fait légitime dans certains cas de ne pas avoir de numéro à afficher quand on appelle -- le téléphone, ce n'est pas fait que pour les discussions avec ton pote Dédé.
Mais pour un scientiste, ça doit être réellement difficile à percevoir qu'il peut exister autre chose que la science.
Bien sûr que si. Je suis scientifique, et j'admets qu'il existe énormément de raisonnements non scientifiques -- comme le gloubiboulga pseudo-scientifique de tes commentaires par exemple, plein de concepts (comme l'incomplétude) que tu ne maitrises pas. Bref, j'admets parfaitement que de tels raisonnements existent.
Tous les scientifiques admettent qu'il existe beaucoup de manières de raisonner. Le scientisme revient à dire que seul le raisonnement scientifique est valide. Beaucoup de scientifiques ne sont pas scientistes. Par exemple, dans un tribunal, on mélange des arguments scientifiques et des arguments non-scientifiques. La décision de condamner quelqu'un, quand on manque de preuves matérielles, se prend sur la base de l'absence de doute raisonnable -- un conncept qui, formulé de cette manière, est peu scientifique, et que pourtant je trouve acceptable.
Un autre exemple classique est le recours à la démocratie. Le raisonnement rationnel est nécessaire pour mettre en lumière les tenants et les aboutissants d'un enjeu politique, par exemple l'arrêt du nucléaire. On peu échanger des arguments économiques, politiques, éthiques, etc., pour au final devoir prendre une décision par la voie des urnes. Il est tout à fait envisageable que le raisonnement conduisant à la décision collective démocratique ne soit pas scientifique (comment comparer scientifiquement un problème économique et le risque de danger pour la santé?). Pourtant, la plupart des scientifiques admettent la prise de décision démocratique.
Il y a donc de nombreux exemples où un raisonnement non-scientifique est préféré au raisonnement scientifique.
Ça peut aussi vouloir dire : j'y ai réfléchi mais je ne trouve pas de réponse satisfaisante. Donc pour l'instant je n'en sais rien.
L'agnosticisme est une position scientifique tout à fait acceptable dans certains contextes. Pour reprendre l'exemple donné par Dawkins dans son excellent "The God delusion", la plupart des scientifiques est agnostique sur la question de l'existence de la vie extraterrestres: on ne les a pas encore trouvés, donc on n'a pas démontré qu'ils existaient, mais en même temps, on ne peut pas rejeter leur existence sur la base d'un raisonnement probabiliste. Chacun place le curseur un peu où il veut sur le segment ]0-1[ de la probabilité d'existence des ETs, mais la position de Dawkins (plus près de 0.5 que des extrêmes) est raisonnable.
Pour l'existence de Dieu, l'argument est de dire que la science expérimentale a détruit la quasi-totalité des propositions réfutables émises à partir des mythes des différentes religions, et qu'il n'y a aucune indication que le mouvement puisse s'inverser dans l'avenir. Par exemple, si on prend la Bible, on peut y trouver des propositions scientifiquement réfutables : l'ordre de création de l'Univers (la terre avant les étoiles, etc), l'âge de la terre, sa forme ("aux quatre coins du monde"), etc. Ces propositions reflètent l'état des connaissances des gens qui ont écrit la Bible, et s'ils ont par chance écrit des choses vaguement semblables aux théories scientifiques actuelles, ils se sont magistralement planté la plupart du temps (et il a même souvent été dit que l'aspect "scientifique" de la Bible aurait pu être bien meilleur si ses rédacteurs avaient eu une culture scientifique à l'époque).
Alors oui, certains théologiens utilisent le joker "suprême" de la métaphore : ah oui mais en fait, les 7 jours de la création, c'est une métaphore, et c'est compatible avec 4.5 milliards d'années d'évolution. L'argument est imparable, surtout qu'on redéfinit ce qui est métaphorique ou ce qui ne l'est pas en fonction du progrès des connaissances : Quand Jésus marche sur l'eau, c'est une métaphore, mais quand on dit de cramer les homos, ça c'est sérieux (genre, Dieu ne pouvais pas mettre en italique ce qui était métaphorique, il laisse le choix aux mortels de cramer les pécheurs jusqu'à ce que la science suggère qu'on aurait peut-être mieux fait de pas les cramer). Bref, il y a 200 ans, la création du monde telle que relatée dans la Bible, c'était la vérité vraie, maintenant, c'est une métaphore. Par contre, la création de l'Univers dans la bible, ça doit être le big bang -- je parie que ça va devenir une métaphore un de ces jours.
Mais à mon avis, ce qui est le plus frappant, c'est le renoncement par la plupart des théologiens à la nature interventionniste de Dieu. Si on essaye d'estimer l'effet d'une prière sur la guérison de la même manière que l'effet d'un médicament, on ne trouve rien d'autre que l'effet Placébo habituel : prier pour quelqu'un ne sert donc absolument à rien, soit Dieu n'entend rien, soit il ne fait rien, soit il traite de la même manière les malades cathos, boudhistes ou athées, qu'on prie pour eux ou non (donc il se fout totalement des prières). Dans le même temps, malgré les progrès techniques, on n'a jamais réussi à enregistrer ou reproduire un miracle de manière scientifique ; personne n'a filmé de manière convaincante une guérison miraculause ou l'apparition de la Vierge dans une grotte. Il n'y a pas non plus aucune trace statistique de miracles ; par exemple, le nombre de survivants dans les catastrophes aériennes suit exactement les lois statistiques attendues -- si Dieu sauve des gens, il les sauve selon les lois de la statistique et de la physique (par exemple, il sauve les passagers installés dans l'axe des ailes, la partie la plus renforcée d'un avion). Soit Dieu fait bien attention à réaliser ses miracles loin d'un smartphone, soit il n'y a pas plus de miracles que de poils sur un œuf dur. Bref, la science a démontré au moins deux choses qui n'étaient pas du tout évidentes il y a 2000 ans : 1) Rien ne soutient le caractère surnaturel de la Bible (c'est juste un bouquin écrit par des Hommes et inspiré de légendes plus anciennes), et 2) Rien ne soutient le caractère interventionniste de Dieu. Bref, si il y a même 500 ans des gens intelligents et raisonnables plaçaient le curseur à mi-chemin entre 0 et 1, chaque nouvelle constatation scientifique a déplacé année après année le curseur vers le 0. Actuellement, n'importe qui disposant d'une culture scientifique moyenne et d'une liberté d'esprit pas trop engoncée dans ses croyances familiales admet que le curseur est tellement proche de 0 qu'il est probablement plus sage de le mettre carrément à 0 plutôt que d'espérer qu'une expérience scientifique aille dans le sens contraire des millions de précédentes dans les années qui viennent.
Alors bon, la théologie accorde bien entendu une place à un Dieu non-interventionniste, un observateur bienveillant qui n'agit pas sur le monde (par choix, autrement s'il ne peut pas agir du tout, ce n'est pas un Dieu). Parfois, on peut lire des trucs comme "Dieu a créé l'univers parfait avec le Big Bang, il n'a plus à intervenir", mais évidemment, c'est un argument magique seulement en apparence : il n'y a aucune différence entre "ne pas exister" et "exister mais de manière parfaitement indétectable et irréfutable". Les trucs basés sur un Dieu non-interventionniste finissent toujours sur des problèmes de sémantique superficiellement profonds, par exemple à la question de l'existence de Dieu au moment du big bang (comment Dieu peut-il provoquer quelque chose sans exister, puisque rien ne peut exister avant le big bang), on entend souvent des réponses comme "Dieu existe hors du temps et de l'espace". Ce n'est pas profond du tout, c'est simplement des mots qui n'ont pas de sens. Je peux aussi dire que ma carte mère transcende le processeur, ou que le Dalaï Lama aurait quand même existé s'il y avait eu plus d'antimatière que de matière dans l'univers ; quand on arrive à des réponses qui n'ont pas de sens, c'est simplement qu'on s'est coincé dans un raisonnement fallacieux.
Ah si, un classique : Dieu existe pour ceux qui y croient, c'est donc une manière d'exister. L'avantage, c'est que ça marche aussi avec le père Noël :-)
[^] # Re: Jugement à côté de la plaque
Posté par arnaudus . En réponse au journal Google condamné pour son service Gmaps à cause de sa gratuité. Évalué à 5.
En gros, le tribunal rejette l'idée du modèle de Google. On pourrait prendre une analogie : par exemple, Carrefour invente un modèle où les produits deviennent gratuits : les usagers du supermarché ne sont plus des clients, ils deviennent la "marchandise" vendue, et en échange, ils se servent à l'œil. Eh bien la décision du tribunal consiste à interdire un tel modèle, et à estimer que les concurrents méritent d'être dédommagés.
Je pense que la raison est simplement le conservatisme ambiant, ainsi qu'un ensemble législatif archaïque. On ajoute là-dessus un bon coup de nationalisme, un chantage à l'emploi, et l'idée que de toutes manières Google a plein de thunes. On est à la limite de l'État de droit.
Le plus inquiétant à mon avis, c'est que l'innovation est pénalisée au profit du conservatisme, et la boîte qui crée des richesses est parasitée par des entreprises moribondes mais scélérates (un peu comme SCO).
[^] # Re: À lire aussi
Posté par arnaudus . En réponse au journal Google condamné pour son service Gmaps à cause de sa gratuité. Évalué à 5.
J'ai lu, et je trouve l'argumentaire sans aucun intérêt. En gros, ça dit "ouhlala, toute entreprise avec une position dominante est un danger, donc il faut éclater la gueule de Google, peu importe la raison". Moi dans l'histoire je vois que Google se fait en... à sec avec du verre pilé par une boîte à la SCO dont l'activité principale consiste à soutirer du fric aux entreprises qui créent de la richesse. Le fait qu'un tribunal français soit utilisé à ces fins me fait plutôt honte.
# La tronche de la pub...
Posté par arnaudus . En réponse au journal Google condamné pour son service Gmaps à cause de sa gratuité. Évalué à 8.
... sur le site de Bottin-machin:
Je n'ai pas d'affinités particulières pour les grosses boites comme Google, mais se faire soutirer un demi million d'euros par des trous de balle de cette nature, ça me scie. Le tribunal de commerce de Paris va se taper une honte internationale avec des décisions hallucinantes comme ça -- on s'est longtemps moqué de la justice américaine, avec ses condamnations débiles, mais visiblement les décisions de justice françaises peuvent rivaliser.
[^] # Re: Mmm... de quel côté sont les gentils?
Posté par arnaudus . En réponse à la dépêche Sony : Ma propriété intellectuelle vaut plus que la vôtre. Évalué à 3.
Sauf que ce n'est pas un combat à armes égales. Sony veut faire du pognon, la SFC veut faire respecter la loi pour des raisons éthiques. Bon, du coup, pour faire respecter la loi, elle emploie des techniques juridiques pas propres, et prend des décisions pour des tiers qui n'ont rien demandé. Du coup, elle se décrédibilise sur le plan éthique, et il ne lui reste plus rien.
[^] # Re: Mmm... de quel côté sont les gentils?
Posté par arnaudus . En réponse à la dépêche Sony : Ma propriété intellectuelle vaut plus que la vôtre. Évalué à 5.
Nan mais de toutes manières, il est obligatoire de dénoncer les crimes. C'est bien de délits dont on parle.
[^] # Re: Mmm... de quel côté sont les gentils?
Posté par arnaudus . En réponse à la dépêche Sony : Ma propriété intellectuelle vaut plus que la vôtre. Évalué à 10.
Dans la mesure où ça ne te regarde pas, oui(1). C'est d'ailleurs pour ça que la loi ne t'autorise pas à porter plainte si tu n'es pas victime. X vend à Y un logiciel sous GPL écrit par Z sans lui filer les sources, X peut se plaindre, Z peut se plaindre, mais toi tu n'as rien à dire, ce n'est pas ton problème, ça ne te regarde pas. En tout cas, même si tu penses que c'est une escroquerie, tu peux avertir la presse, communiquer dessus, mais en aucun cas t'immiscer dans les relations entre auteurs, clients, et vendeur.
Le beau raisonnement fallacieux que voila.
Ouais, la fin justifie les moyens? C'est ça ton raisonnement? La GPL n'est pas seulement un texte juridique, c'est aussi une philosophie. Ne pas respecter la GPL, c'est mal. Mais faire semblant de ne pas comprendre la GPL pour soutirer au vendeur plus ce que tu avais le droit de lui demander, c'est du racket juridique. Tu penses que c'est sain que les tribunaux soient devenus des rings pour avocats cupides enculeurs de mouches? On ne peut pas cautionner ce genre de méthodes mafieuses quand c'est une assoc de soutien du LL qui les utilise, et les condamner quand c'est Microsoft. Ce sont des techniques de caniveau dans tous les cas.
Si les gens du noyau Linux ou d'autres softs distribués voulaient défendre leurs droits, ils peuvent adhérer à l'assoc qu'ils veulent, ou prendre une assistance juridique. S'ils ne le font pas, c'est qu'ils s'en foutent ou n'en voient pas l'intérêt, et je ne vois pas de quel droit on peut penser qu'il est légitime de les "défendre" contre leur volonté.
(1) et qu'il ne s'agit pas d'un crime, évidemment.
# Mmm... de quel côté sont les gentils?
Posté par arnaudus . En réponse à la dépêche Sony : Ma propriété intellectuelle vaut plus que la vôtre. Évalué à 6.
OK, alors j'ai lu rapidement les liens, et voici ce que je comprends : en gros, les gentils ne sont pas forcément ceux que l'on pourrait croire...
Le truc est que la SFC semble vouloir utiliser une faille dans la GPL v2. La GPL v2 dit que le contrat de licence se termine si la GPL est violée, mais ne dit pas que la licence est de nouveau valide si les clauses sont respectées de nouveau. Du coup, la SFC ne réautorise la redistribution de BusyBox seulement si la boîte qui redistribue publie le code de BusyBox (OK, puisque la SFC a le droit de défendre les auteurs de la BusyBox), mais aussi des autres logiciels (pour lesquels la SFC n'a pas de droits particuliers). La raison de cette demande est simplmeent que puisque les droits ont été violés, la licence s'est terminée, et que pour la revalider, la SFC peut demander n'importe quoi -- y compris de respecter des clauses qui n'étaient pas dans la GPL.
Je ne veux pas dire que Sony sont des gentils, loin de là. Mais je ne crois pas que la SFC sont des gentils non plus. Ils outrepassent largement leur rôle (défendre les droits des auteurs de BusyBox) pour faire respecter le droit des autres auteurs de soft sous GPL dont la licence a été violée. Ça pose une vraie question, quand on code un soft sous GPL, on veut évidemment que la licence soit respectée, mais si on garde les droits en tant que simple auteur, on souhaite également faire valoir ses droits en personne. Que quelqu'un ou quelque chose décide de faire valoir vos droits à votre place sans que vous ne lui ayez rien demandé est quand même quelque chose d'assez étrange...
À noter également que la GPL v3 a éclaicit cette clause pour donner au distributeur le temps de respecter la licence, ce qui la rend valide automatiquement -- autrement dit, la "faille" n'a jamais été désirée. Ce qui me conforte dans l'idée que la démarche de la SFC est malsaine sur le fond comme sur la forme.
[^] # Re: Journaux
Posté par arnaudus . En réponse au journal Fermeture de la tribune. Évalué à 2.
Donc les journaux qui coulent n'apportent pas assez de réflexion et d'analyse par rapport aux sources gratuites. CQFD.
[^] # Re: Journaux
Posté par arnaudus . En réponse au journal Fermeture de la tribune. Évalué à 10.
Mouais, je ne vois pas pourquoi ne pas reprocher exactement la même chose aux journaux papiers qu'aux maisons de disque et aux producteurs de cinéma : le monde tourne, et si vous ne tournez pas avec, vous êtes morts, et c'est normal.
J'ai l'impression qu'il existe encore de la place pour les journaux papiers, mais pour vendre un journal, il faut offrir une plus-value importante. Les résultats financiers du Canard Enchaîné sont impressionnants, et ils démontrent que ceux qui pensent que la presse papier est finie sont des clowns.
Je suis très curieux de revoir fleurir trrès régulièrement l'idée que la presse est le poumon de la démocratie et que c'est triste de voir les journaux mourir. J'ai parfois l'impression qie ceux qui disent ça ne les lisent pas. Prenons par exemple le dernier truc du Monde sur Wikipédia : c'est bourré d'erreurs, certaines infos datent de plusieurs années, des choses sont mêmes présentes dans la FAQ "journalistes" de Wikipédia, qui n'a visiblement pas été lue. Il s'agit pourtant d'un grand journal à la réputation sérieuse, mais le boulot n'est que vaguement superficiel. Évidemment, pour réaliser une vraie enquête sur Wikipédia, il faudrait des semaines de boulot, mais c'est peut-être ça qu'on attend d'un journal. La démocratisation d'Internet a aussi permis de mettre à jour la superficialité du travail des journalistes, qui produisent un papier léger tous les jours, et dont la source d'info principale est l'AFP et Twitter. D'ailleurs, ouvrez n'importe quel journal, et regardez la place faite à Twitter : il y a eu plus de reportages sur Twitter que sur Google, Megaupload, et Wikipédia réunis! Pourtant, personne n'utilise vraiment twitter, c'est un média superficiel sans intéret réel... sauf pour les journalistes, qui ont vraiment été à l'origine de l'engouement pour ce truc.
Bref, nous vivons dans un monde qui nous abreuve d'infos ; on se réveille sur France Info, regandons BFM TV pendant le petit dej, on est connectés aux fils d'info toute la journée, on a même les dépèches AFP sur Android. Évidemment, dans un tel contexte, personne ne veut payer pour un quotidien qui ne fait que répéter tout ça : le modèle du quotidien papier a vécu. Pour survivre, il faut simplement évoluer.
[^] # Re: boycotter … jusqu'où ?
Posté par arnaudus . En réponse à la dépêche Le libre accès et l'appel au boycott contre Elsevier. Évalué à 2.
Parce que ne pas citer les travaux antérieurs, c'est faciliter son travail? C'est n'importe quoi. Une fois publiés, tous les articles ont le même statut et le même droit à être cités. Un article scientifique, ce n'est pas une dépèche AFP reprise par 50 journaux avec des formulations et des images différentes. La plupart des articles scientifiques sont des travaux uniques et irremplaçables, on ne peut pas choisir ceux qu'on veut citer ou pas.
L'accessibilité des grandes revues est un problème pour certains établissements de recherche, mais les reviewers ne sont pas là pour être gentils. Quand un auteur loupe sa biblio et démontre son inculture du sujet en ne citant que partiellement l'historique du problème, l'article est rejeté ou le reviewer balance (s'il est gentil) une liste de références à lire et à citer (moi j'ai plutôt tendance à virer avec un commentaire du style "the authors failed to replace their work into the relevant literature" et basta). Si ton employeur ne met pas à ta disposition l'accès aux journaux dont tu as besoin, c'est votre problème à tous les deux, pas celui de l'éditeur ou des reviewers.
La recherche ce 'nest pas non plus bisounoursland ou tout le monde fait ce qu'il veut. Tu publies où tu peux, et tu cites ce que tu dois. Si tu veux boycotter Total ou Danone, tu le fais chez toi, avec ta femme et tes gosses. Au boulot, tu peux discuter de ça avec tes collègues et les encourager à privilégier les journaux OpenAccess. Mais franchement, écrire des articles merdiques qui ne citent que la moitié de la biblio parce que les autres articles sont dans des revues que tu n'aimes pas, c'est une faute professionnelle et ça n'est pas acceptable. Publier tes trucs dans "Jounal of ethical science" parce que Nature ça ne te plait pas, ça te concerne toi et ton avancement de carrière si tu vis tout seul dans ton monde de bisounours, mais si tu as des collaborateurs et un labo qui doit rendre des comptes c'est une autre histoire, et tu ne vas pas garder longtemps tes collaborateurs.
Un problème insidieux par exemple, mais très concret, c'est le transfert de budget. L'accès aux grandes revues au format électronique est souvent négocié par ton institut, c'est de l'argent qui ne passe jamais par le labo. Au contraire, les frais de publication en OpenAccess c'est en général le pognon pour la recherche. À 2000€ l'article (voire plus), tu ne peux pas publier plus d'un ou deux articles par an en OpenAccess avec un financement de base, et il ne faut pas devoir acheter 2 ordinateurs par an. Donc tu fais comme tout le monde en période de vaches maigres, tu gardes ton fric pour les choses qui sont vraiment importantes. C'est malheureux mais c'est comme ça, on vit dans un monde réel où ton employeur attend de toi que tu ne te comportes pas comme un gamin et où certains choix professionnels peuvent écorner tes sentiments politiques.
[^] # Re: Réseau social
Posté par arnaudus . En réponse à la dépêche Le libre accès et l'appel au boycott contre Elsevier. Évalué à 5.
C'est que tu as mal lu, ou que je n'ai pas été clair. Le système de revue par les pairs n'est pas idéal, il me fait penser à ce qu'on dit de la démocratie : pour l'instant, c'est le moins pire. Mais quoi qu'il en soit, ce système ne repose pas nécessairement sur des éditeurs privés qui font de grosses marges.
Il faut aussi comprendre un peu le contexte. Il y a 30 ou 40 ans, la publication scientifique était assurée par des presses universitaires. Avec la rationalisation des moyens donnés aux université (restrictions budgétaires et externalisation des services), la plupart des titres scientifiques ont été revendus à quelques acteurs majeurs de l'édition. La privatisation de la littérature scientifique est donc issue de choix politiques, d'ailleurs pas forcément irrationnels : en règle générale, une entreprise privée rationalise mieux ses couts et maitrise mieux sa communication, et il est tout à fait possible de dépenser moins en externalisant un tel service qu'on gérant tout en interne. Par ailleurs, un organisme privé offre une garantie d'indépendance ; il est a priori plus difficile de publier dans Nature que dans les presses universitaires du Nord-pas-de-Calais.
Mais bon, de toutes manières, le paysage n'est pas si noir. Le monde de la publication offre maintenant de très nombreux titres qui fonctionnent selon le principe de l'OpenAccess payant à la publication et gratuit à la consultation, souvent sous licence CC. Parmi les éditeurs OpenAccess, on trouve de tout ; pas mal de "parasites" qui ont tendance à être assez agressifs sur la pub, le spam, et assez permissifs sur la qualité (puisqu'on paye seulement les articles acceptés, mieux vaut accepter beaucoup), mais il y a également pas mal d'éditeurs académiques ou sans but lucratif, je connais au moins les PLoS (http://en.wikipedia.org/wiki/Public_Library_of_Science), et les Frontiers (http://en.wikipedia.org/wiki/Frontiers_Research_Foundation). L'avantage des fondations non-profit c'est que même si on paye, ça ne va pas dans les poches des fondateurs, c'est dépensé (peut-être bien ou mal, mais ça n'est pas la question). On a aussi des éditeurs OpenAccess qui font des profits, comme la série des BioMedCentral, mais à ma connaissance ils sont sérieux. La plupart de ces éditeurs ont des titres prestigieux avec un facteur d'impact très haut, tout à fait reconnus dans le monde académique. Ils constituent donc des alternatives tout à fait crédibles à Elsevier et al (parce que je ne comprends pas pourquoi désigner particulièrement Elsevier, Springer ou Blackwell sont au moins aussi pourris). Cette alternative me semble beaucoup plus crédible qu'un improbable mix entre Arxiv et Facebook ; moi je suis biologiste et le modèle Arxiv n'a jamais percé dans mon domaine.
[^] # Re: boycotter … jusqu'où ?
Posté par arnaudus . En réponse à la dépêche Le libre accès et l'appel au boycott contre Elsevier. Évalué à 2.
C'est clair, c'est surtout vrai pour les revues, les articles de perspectives, ou les trucs qu'on cite comme exemple ("Il est aussi possible de faire ça avec la méthode X, comme Machin et Truc 2004"), mais il faut bien l'avouer, citer des articles remplaçables comme ça n'est pas forcément la meilleure manière d'écrire un article scientifique (c'est un peu "je n'ai pas eu le temps de faire la biblio, voici deux ou trois trucs et creusez plus loin si ça vous intéresse").
Il est évident que dans ce genre de cas, on a tendance à citer les articles qui sont sur notre bureau, mais ce ne sont pas nécessairement des articles OpenAccess : ça peut être l'article d'un collègue, un article que l'on a reviewé peu de temps auparavant, les articles d'un journal que l'on suit régulièrement ou dont on a récupéré un numéro gratos à une conférence, etc. Mais par facilité, on risque par exemple d'exclure des articles un peu anciens qui n'ont pas été numérisés (alors que les vieux articles sont souvent plus pertinents et ont beaucoup plus d'intérêt historique), les articles un peu techniques et un peu longs, etc; bref, c'est clair que le choix va être biaisé et qu'on n'a pas à être exhaustifs sur le sujet, mais il n'empêche que la démarche de choisir consciemment le journal ou le type de journal reste un comportement assez malsain.
[^] # Re: Réseau social
Posté par arnaudus . En réponse à la dépêche Le libre accès et l'appel au boycott contre Elsevier. Évalué à 9.
La bibliométrie étant devenue un index d'évaluation pour la qualité de la recherche, on n'est pas prêt de changer le système.
Pour info, beaucoup d'éditeurs scientifiques (openaccess principalement) ont mis en place sur le site la possibilité de commenter les articles. Ça ne marche absolument pas, les gens ont d'autre chose à faire que d'aller reviewer sans aucune raison des articles aléatoires sur Internet. Le peer-review marche sur la base du bénévolat, mais les gens ne le font que parce qu'on leur demande personnellement, ces demandes sont des signes de reconnaissance, et en général, ce signe suffit à la motivation. L'autre motivation c'est le rôle de filtre, c'est important de ne pas laisser passer les mauvais papiers. Si l'article est déja publié, lui mettre une mauvaise notre ou un commentaire négatif n'a pas du tout le même impact. Bref, la review "a posteriori" n'a aucun avenir.
Ce qui fonctionne un peu mieux, c'est les "revues de presse" a posteriori, des sélections d'articles intéressants après leur publication. C'est sur ce principe que fonctionne la "Faculty of 1000", qui propose des listes d'articles choisis par des scientifiques éminents... et payés pour ce service. Donc l'accès aux listes est payant, ce sont les institutions qui payent, et ça ne résoud pas du tout le problème.
Le principal obstacle à mon avis à l'évaluation ouverte est l'effet de réseau, le même qui génèrent 90% de "j'aime" aux vidéos de Dédé en vacances sur les réseaux sociaux. Il va se mettre en place très rapidement des communautés d'amis qui ont des affinités scientifiques ou méthodologiques et qui vont s'autocongratuler en boucle. Par contre, les gens qui vont vraiment prendre leur rôle au sérieux et fournir des critiques plus argumentées vont se retrouver rapidement exclues des réseaux et leur boulot ne sera jamais reconnu. En plus de ça, il existe simplement des facteurs humains qui gênent l'honnêteté du processus : il est socialement inadéquat de descendre gratuitement le travail de quelqu'un qu'on ne connait pas quand on ne nous a rien demandé.
Bref, les réseaux Facebook, dans le monde de la recherche, je ne vois pas comment ça peut fonctionner. Il y a quelques principes auxquels le remplaçant du système actuel ne pourra pas déroger : (i) l'utilisation et la reconnaissance institutionnelle de facteurs quantitatifs comme proxys de la qualité et de l'intérêt d'un travail scientifique, (ii) l'aspect gratifiant du travail "gratuit" et son efficacité (par exemple son influence sur le devenir d'un article), et (iii) la possibilité de bloquer (ou de reléguer dans une seconde zone, comme "Arxiv") les travaux sans intérêt, de manière à contenir le nombre de publications significatives dans un domaine.
[^] # Re: boycotter … jusqu'où ?
Posté par arnaudus . En réponse à la dépêche Le libre accès et l'appel au boycott contre Elsevier. Évalué à 10.
J'aimerais bien savoir dans quel domaine tu bosses. Tous les articles (accessibles ou non accessibles) sont référencés dans les bases de données et les moteurs de recherche ; quand tu fais ta biblio, tu tombes sur une série d'articles sur ton sujet de recherche, et tu sais que tu dois lire ces articles. Tu vas à la bibliothèque, tu envoies un mail à leur auteur, tu payes un service de repro pour récupérer une copie des articles rares et vieux, mais tu as le devoir de faire ta biblio correctement : comment peux-tu penser que ton approche est originale si tu ne connais pas le travail de tes collègues? Comment peux-tu écrire une introduction si tu ne connais pas bien l'historique de ton domaine de recherche? C'est juste impossible.
Une fois que tu as lu les papiers, tu dois décider lesquels sont pertinents et lesquels le sont moins. À part dans le cas des articles remplaçables (revues...), la plupart du temps, cette décision est basée sur le contenu de l'article, et pas sur le journal dans lequel il est publié. Pire, les articles à gros facteur d'impact sont en général ceux que tu n'as pas le droit d'oublier de citer.
Bref, trier les articles à lire et à citer en fonction du journal, c'est au choix
* l'idée de quelqu'un qui ne fait pas de recherche et qui croit que citer un article scientifique c'est comme citer un papier de Libération ou du Figaro, au contenu quasiment identique et interchangeable
* la pratique de quelqu'un qui fait sa bibliographie comme un porc
* la partique de quelqu'un qui n'a aucune conscience professionnelle et qui dégrade volontairement la qualité de ses publications par militantisme
Bref, c'est simplement inapplicable. Quand on écrit un papier, on cite les articles pertinents auxquels on a eu accès. En général, dans les instituts de recherche, on a accès à tous les gros journaux de notre domaine (il y a des exceptions), et au pire, on peut toujours trouver ces articles dans Google ou en écrivant aux auteurs. Il est juste éthiquement et pratiquement impossible de choisir les journaux des articles que l'on cite, c'est une pratique que je ne trouve pas admissible (et à ma connaissance, elle n'est pas admise).
[^] # Re: pourquoi pas les autres ?
Posté par arnaudus . En réponse à la dépêche Le libre accès et l'appel au boycott contre Elsevier. Évalué à 2.
Non, je pense que ça arrive un peu dans tous les domaines. Il me semble que PNAS prend dans les 200$ la page, et d'autres journaux le font. Ils ont mis ça en place avec l'avènement des lois américaines sur la publication ouverte des résultats financés par la recherche publique ; les articles sont mis à la disposition de tous un an après leur publication originale, mais en contrepartie il y a des frais de publication.
Il faut aussi condamner le double racket des journaux qui proposent l'openaccess optionnel. On paye dans les 2000$ pour avoir l'article en openaccess ; il devient disponible pour tout le monde, mais de toutes manières les gens ont déja payé pour avoir l'accès à la revue.
[^] # Re: boycotter … jusqu'où ?
Posté par arnaudus . En réponse à la dépêche Le libre accès et l'appel au boycott contre Elsevier. Évalué à 8.
Bien sûr, compromettre son intégrité scientifique en faveur de ses prises de position politiques. Genre, tu ne cites pas tes concurrents parce qu'ils ont publié dans un journal que tu n'aimes pas... Il y a quand même des limites.
[^] # Re: La décentralisation est déjà effective
Posté par arnaudus . En réponse au journal De la possibilité de décentralisation de la gestion des noms de domaine. Évalué à 4.
Bah, je pense qu'on veut tous un système quelque part entre les deux :
* Un internet traçable pour pouvoir chopper les vilains pédophiles
* Une structure souple pour garantir la liberté d'expression dans tous les pays et quel que soit le régime, y compris le notre
À mon avis, les deux aspects sont contradictoires, ce qui fait qu'on est tous un peu schizo quand on défend la liberté d'expression -- au final, ça se termine sur des arguments du type "vous défendez les pédophiles et les pirates" "et vous êtes un nazi".
[^] # Re: Durex sed lex
Posté par arnaudus . En réponse au journal megafermeture.fbi. Évalué à 8.
Disons que le problème de la représentativité est le vote par "paquet". Quand tu votes pour un gusse ou un parti, tu votes pour un "forfait" incluant des trucs et des machins. Tu es d'accord sur certains, tu t'en fous pas mal d'autres, et tu n'est pas d'accord sur quelques autres. Si tu es contre la sortie du nucléaire, pour le mariage homo, pour les logiciels libres, pour la TVA sociale, pour le fédéralisme européen, et contre l'augmentation du nombre de fonctionnaires, tu risques fort de ne pas trouver de candidat qui reprend ça. Je pense que c'est un vrai problème de représentation démocratique.
Un autre problème réel est l'alignement des candidats sur une position intermédiaire, qui est inhérente à la démocratie participative. Chaque candidat a un bloc de soutien populaire robuste, la différence entre candidats se fait sur les gens qui ont des opinions un peu intermédiaires. Pour gagner, il faut convaincre ces électeurs intermédiaires minoritaires, et donc tordre les programmes vers eux. De fait, les programmes se ressemblent énormément, le choix démocratique en est beaucoup plus difficile (et le risque de voter en fonction de critères non-objectifs augmente), et la ligne suivie par un gouvernement n'est pas représentative des électeurs de ce gouvernement.
Bref, il y a quand même des défauts inhérents au système de représentation, et je ne suis absolument pas convaincu que ça soit 100% démocratique. Là comme ça, je dirais que nos sociétés sont, allez, 20 à 30% démocratiques (c'est à dire que 20 à 30% des décisions politiques qui sont prises seraient soutenues par le peuple si on lui demandait de s'exprimer). Ça veut quand même dire que 70% des décisions sont prises contre le peuple par ses représentants, si tu trouves ça acceptable moralement, j'aimerais bien entendre tes arguments.
[^] # Re: sauvegardes
Posté par arnaudus . En réponse au journal megafermeture.fbi. Évalué à 4.
Pourquoi pas? Rien ne t'interdit de stocker tes copies privées sur un serveur distant.
[^] # Re: Solidarité ?
Posté par arnaudus . En réponse au journal Blackout de Wikipedia pour protester contre le projet de loi américain SOPA. Évalué à 4.
Disons que c'est un peu complexe quand même. Quand il y avait eu une moilisation contre le projet de loi visant à permettre à toute personne d'imposer un rectificatif s'il se sentait diffamé, seule la Wikipédia italophone avait réagi. Il semble un peu disproportionné de stopper Wikipédia en espéranto pour une histoire de projet de loi américain. On n'arrête pas de dire qu'on en a marre de tous ces gens qui considèrent que les USA sont le centre du monde, on n'est pas obligés de réagir de la même manière.
L'autre aspect du débat, c'est que la loi en question n'affecte pas directement Wikipédia. C'est certain, la loi SOPA est une loi liberticide et potentiellement très dangereuse pour la liberté d'expression et pour Internet. Cependant, les sites qui sont directement visés sont les hébergeurs de contenu (youtube, dailymotion) et les sites de streaming et de direct download. Pour eux, en effet, il s'agit d'un véritable projet de censure, avec une coupure non sélective qui les menace à chaque infraction constatée, ce qui remet réellement en cause leur modèle d'existence, puisqu'ils n'ont pas les moyens de valider un par un leur contenu.
Par contre, pour Wikipédia, les conséquences sont très indirectes. Wikipédia est modéré par des utilisateurs a posteriori, et on parle de plus en plus d'une modération a priori (la fonction existe, je me demande si elle n'est pas activée sur WP allemande depuis quelques années d'ailleurs), les visiteurs non-identifiés tombant sur une version "validée" des articles. Bref, étant donné son mode de fonctionnement, le risque que Wikipédia puisse subir une fermeture automatique du fait de cette loi est assez faible, elle n'est pas la première concernée, et de loin. Bref, pour résumer les discussions sur WP francophone, la fermeture est avant tout un acte politique, pas un réflexe de défense des intérets immédiats de WP. Il est donc raisonnable que les différentes versions linguistiques soient libres de réagir indépendamment.
[^] # Re: huhu
Posté par arnaudus . En réponse au sondage Mon prochain opérateur de téléphonie mobile sera :. Évalué à 10. Dernière modification le 13 janvier 2012 à 10:52.
Ouais, enfin tu es quand même en train de discuter les micro-avantages d'un forfait qui te coûte 1200% plus cher. À moins d'être super-riche, je pense que tu devrais t'interroger sur un petit syndrome de Stockholm...
[^] # Re: Le forfait 2 euros
Posté par arnaudus . En réponse à la dépêche Free lance son offre mobile : ce que ça change. Évalué à 4.
Si tu réponds pas à un RDV téléponique, tu es radié. Ils s'en foutent totalement de tes conneries de numéro masqué.
Ils ont d'ailleurs une bonne raison de masquer le numéro, le point d'entrée n'est pas le même que le point de sortie. C'est ton conseiller qui va t'appeler, mais il fait ça quand il n'est pas en RDV. Quand il est en RDV, il ne veut pas être appelé par Duchemol qui n'était pas là ce matin ; pour l'appeler, tu passes par le standard avec la petite musique. De manière générale d'ailleurs, dans de très nombreuses entreprises, les numéros de postes internes sont masqués : un poste interne peut appeler directement un client, mais le client passe par le standard pour rentrer. Il me semble que ce type d'organisation est totalement légitime ; y compris pour le client, qui est certain de tomber sur quelqu'un même si la personne qui a laissé un message la veille est en RTT.
[^] # Re: Le forfait 2 euros
Posté par arnaudus . En réponse à la dépêche Free lance son offre mobile : ce que ça change. Évalué à 6.
??? Sur la Freebox, les numéros masqués sont virés avec un message, ils ne tombent pas sur le répondeur.
Si le banquier appelle d'un numéro masqué, ce n'est pas par plaisir, c'est parce que c'est un centre d'appel. Par exemple les services 24/24, genre les services d'opposition. Les banques peuvent appeler par exemple pour confirmer une transaction inhabituelle sur une Visa (comme un gros achat en Russie), c'est une téléopératrice qui appelle, elle n'a pas de numéro parce qu'on ne peut pas l'appeler, ça passe par un numéro à la con en 08, et on tombe sur des gens qui répondent, qui ne sont pas les mêmes que les gens qui appellent.
Bref, moi non plus je n'aime pas les numéros masqués, mais il est franchement stupide et dangereux de les refuser par principe. Tu appelles le 115, ça coupe, ils essayent de te rappeler, et forcément ils sont bloqués. On a cité assez d'exemples ici, un numéro de téléphone, ce n'est pas une adresse IP, et il est tout à fait légitime dans certains cas de ne pas avoir de numéro à afficher quand on appelle -- le téléphone, ce n'est pas fait que pour les discussions avec ton pote Dédé.
[^] # Re: C'est dingue... Donc, merci.
Posté par arnaudus . En réponse au journal Plaisir de lire, réjouissance du malheur d'autrui.. Évalué à 4.
Bien sûr que si. Je suis scientifique, et j'admets qu'il existe énormément de raisonnements non scientifiques -- comme le gloubiboulga pseudo-scientifique de tes commentaires par exemple, plein de concepts (comme l'incomplétude) que tu ne maitrises pas. Bref, j'admets parfaitement que de tels raisonnements existent.
Tous les scientifiques admettent qu'il existe beaucoup de manières de raisonner. Le scientisme revient à dire que seul le raisonnement scientifique est valide. Beaucoup de scientifiques ne sont pas scientistes. Par exemple, dans un tribunal, on mélange des arguments scientifiques et des arguments non-scientifiques. La décision de condamner quelqu'un, quand on manque de preuves matérielles, se prend sur la base de l'absence de doute raisonnable -- un conncept qui, formulé de cette manière, est peu scientifique, et que pourtant je trouve acceptable.
Un autre exemple classique est le recours à la démocratie. Le raisonnement rationnel est nécessaire pour mettre en lumière les tenants et les aboutissants d'un enjeu politique, par exemple l'arrêt du nucléaire. On peu échanger des arguments économiques, politiques, éthiques, etc., pour au final devoir prendre une décision par la voie des urnes. Il est tout à fait envisageable que le raisonnement conduisant à la décision collective démocratique ne soit pas scientifique (comment comparer scientifiquement un problème économique et le risque de danger pour la santé?). Pourtant, la plupart des scientifiques admettent la prise de décision démocratique.
Il y a donc de nombreux exemples où un raisonnement non-scientifique est préféré au raisonnement scientifique.
[^] # Re: C'est dingue... Donc, merci.
Posté par arnaudus . En réponse au journal Plaisir de lire, réjouissance du malheur d'autrui.. Évalué à 9.
L'agnosticisme est une position scientifique tout à fait acceptable dans certains contextes. Pour reprendre l'exemple donné par Dawkins dans son excellent "The God delusion", la plupart des scientifiques est agnostique sur la question de l'existence de la vie extraterrestres: on ne les a pas encore trouvés, donc on n'a pas démontré qu'ils existaient, mais en même temps, on ne peut pas rejeter leur existence sur la base d'un raisonnement probabiliste. Chacun place le curseur un peu où il veut sur le segment ]0-1[ de la probabilité d'existence des ETs, mais la position de Dawkins (plus près de 0.5 que des extrêmes) est raisonnable.
Pour l'existence de Dieu, l'argument est de dire que la science expérimentale a détruit la quasi-totalité des propositions réfutables émises à partir des mythes des différentes religions, et qu'il n'y a aucune indication que le mouvement puisse s'inverser dans l'avenir. Par exemple, si on prend la Bible, on peut y trouver des propositions scientifiquement réfutables : l'ordre de création de l'Univers (la terre avant les étoiles, etc), l'âge de la terre, sa forme ("aux quatre coins du monde"), etc. Ces propositions reflètent l'état des connaissances des gens qui ont écrit la Bible, et s'ils ont par chance écrit des choses vaguement semblables aux théories scientifiques actuelles, ils se sont magistralement planté la plupart du temps (et il a même souvent été dit que l'aspect "scientifique" de la Bible aurait pu être bien meilleur si ses rédacteurs avaient eu une culture scientifique à l'époque).
Alors oui, certains théologiens utilisent le joker "suprême" de la métaphore : ah oui mais en fait, les 7 jours de la création, c'est une métaphore, et c'est compatible avec 4.5 milliards d'années d'évolution. L'argument est imparable, surtout qu'on redéfinit ce qui est métaphorique ou ce qui ne l'est pas en fonction du progrès des connaissances : Quand Jésus marche sur l'eau, c'est une métaphore, mais quand on dit de cramer les homos, ça c'est sérieux (genre, Dieu ne pouvais pas mettre en italique ce qui était métaphorique, il laisse le choix aux mortels de cramer les pécheurs jusqu'à ce que la science suggère qu'on aurait peut-être mieux fait de pas les cramer). Bref, il y a 200 ans, la création du monde telle que relatée dans la Bible, c'était la vérité vraie, maintenant, c'est une métaphore. Par contre, la création de l'Univers dans la bible, ça doit être le big bang -- je parie que ça va devenir une métaphore un de ces jours.
Mais à mon avis, ce qui est le plus frappant, c'est le renoncement par la plupart des théologiens à la nature interventionniste de Dieu. Si on essaye d'estimer l'effet d'une prière sur la guérison de la même manière que l'effet d'un médicament, on ne trouve rien d'autre que l'effet Placébo habituel : prier pour quelqu'un ne sert donc absolument à rien, soit Dieu n'entend rien, soit il ne fait rien, soit il traite de la même manière les malades cathos, boudhistes ou athées, qu'on prie pour eux ou non (donc il se fout totalement des prières). Dans le même temps, malgré les progrès techniques, on n'a jamais réussi à enregistrer ou reproduire un miracle de manière scientifique ; personne n'a filmé de manière convaincante une guérison miraculause ou l'apparition de la Vierge dans une grotte. Il n'y a pas non plus aucune trace statistique de miracles ; par exemple, le nombre de survivants dans les catastrophes aériennes suit exactement les lois statistiques attendues -- si Dieu sauve des gens, il les sauve selon les lois de la statistique et de la physique (par exemple, il sauve les passagers installés dans l'axe des ailes, la partie la plus renforcée d'un avion). Soit Dieu fait bien attention à réaliser ses miracles loin d'un smartphone, soit il n'y a pas plus de miracles que de poils sur un œuf dur. Bref, la science a démontré au moins deux choses qui n'étaient pas du tout évidentes il y a 2000 ans : 1) Rien ne soutient le caractère surnaturel de la Bible (c'est juste un bouquin écrit par des Hommes et inspiré de légendes plus anciennes), et 2) Rien ne soutient le caractère interventionniste de Dieu. Bref, si il y a même 500 ans des gens intelligents et raisonnables plaçaient le curseur à mi-chemin entre 0 et 1, chaque nouvelle constatation scientifique a déplacé année après année le curseur vers le 0. Actuellement, n'importe qui disposant d'une culture scientifique moyenne et d'une liberté d'esprit pas trop engoncée dans ses croyances familiales admet que le curseur est tellement proche de 0 qu'il est probablement plus sage de le mettre carrément à 0 plutôt que d'espérer qu'une expérience scientifique aille dans le sens contraire des millions de précédentes dans les années qui viennent.
Alors bon, la théologie accorde bien entendu une place à un Dieu non-interventionniste, un observateur bienveillant qui n'agit pas sur le monde (par choix, autrement s'il ne peut pas agir du tout, ce n'est pas un Dieu). Parfois, on peut lire des trucs comme "Dieu a créé l'univers parfait avec le Big Bang, il n'a plus à intervenir", mais évidemment, c'est un argument magique seulement en apparence : il n'y a aucune différence entre "ne pas exister" et "exister mais de manière parfaitement indétectable et irréfutable". Les trucs basés sur un Dieu non-interventionniste finissent toujours sur des problèmes de sémantique superficiellement profonds, par exemple à la question de l'existence de Dieu au moment du big bang (comment Dieu peut-il provoquer quelque chose sans exister, puisque rien ne peut exister avant le big bang), on entend souvent des réponses comme "Dieu existe hors du temps et de l'espace". Ce n'est pas profond du tout, c'est simplement des mots qui n'ont pas de sens. Je peux aussi dire que ma carte mère transcende le processeur, ou que le Dalaï Lama aurait quand même existé s'il y avait eu plus d'antimatière que de matière dans l'univers ; quand on arrive à des réponses qui n'ont pas de sens, c'est simplement qu'on s'est coincé dans un raisonnement fallacieux.
Ah si, un classique : Dieu existe pour ceux qui y croient, c'est donc une manière d'exister. L'avantage, c'est que ça marche aussi avec le père Noël :-)