Je pense que ce qui se passe, c'est qu'une bonne majorité de la population des pays développés a tout intérêt (ou a l'impression d'avoir intérêt) à ce que rien ne change. Du coup, ils mettent au pouvoir des gens qui ne souhaitent rien changer. Je n'y vois que les conséquences de vivre dans un système démocratique.
En fait, la question centrale est peut-être celle de l'utilité d'un type facteur dans un langage non-typé, puisque les facteurs vont forcément entrer en conflit avec les autres types de base. Il me semble tout à fait envisageable de laisser les fonctions transtyper en facteur quand elles en ont besoin (voire d'interpréter les strings comme des facteurs), alors que les routines de lecture/écriture/manipulation de données gèrent des chaines de caractères. Les problèmes de RAM sont évitables même avec les chaînes de caractère, c'est juste une histoire d'optimisation interne.
De toutes manières, l'auto-typage génère des bugs, c'est inévitable. Quand il y a une erreur de saisie triviale, style un "Na" au lieu de "NA", alors c'est toute la colonne de nombres qui devient facteur ou catactère; au contraire, on peut changer le type en appliquant un filtre (par exemple un grep \d+ sur une chaine de caractères, et pouf, le sous-jeu de données n'a pas le même type). Le plus vicieux, c'est un as.numeric sur une colonne interprétée comme un facteur, ce qui risque d'arriver de manière silencieuse avec du code écrit pour R-4.0 interprété par un R plus ancien: as.numeric(c("10","12")) donne c(10,12), alors que as.numeric(factor(c("10","12))) fait c(1,2). De bonnes soirées de débuggage poilu en perspective.
Non non, pas de problème, je crois qu'on est plutôt d'accord. Je n'ai pas de solution non plus pour faire évoluer un langage sans tout péter.
Le choix d'interpréter les caractères comme des facteurs dans les jeux de données est problématique, puisque de toutes manières certains jeux de données peuvent contenir à la fois des colonnes de texte qui correspondent à des caractères et d'autres à des facteurs. Il aurait été tout à fait possible de développer des heuristiques pour se gourer le moins possible (par exemple, il est très peu probable qu'une colonne qui contienne des chaines de caractères toutes différentes puisse représenter un facteur), mais ça aurait été atroce en termes de maintenance. Un choix existait par défaut, il était critiquable, mais c'était comme ça. Ce qui est embêtant, c'est de changer, surtout qu'il existait quand même des arguments dans les deux sens, ansi qu'une option stringsAsFactors qui permettait de basculer entre les deux comportements. Mais bon, c'est fait, c'est fait…
Après, R possède de très nombreux bugs d'interface sur des fonctions de base; soit des noms de paramètres ou de fonctions incohérents (par exemple simplify dans sapply vs SIMPLIFY dans mapply, nrow mais row.names dans data.frame vs nrow() et rownames()), soit des interfaces hyper bugogènes (comme le premier paramètre dans sample() qui change de sens en fonction de sa longueur), soit des ordres de paramèters incohérents (do.call a la fonction qui vient en premier et qui s'appelle "what", lapply a la fonction qui vient en deuxième et qui s'appelle FUN…). Quitte à péter la compatibilité lors d'un changement majeur de version, autant le faire un bon coup et réparer plusieurs problèmes à la fois… La méthode choisie c'est plutôt de retirer le pansement millimètre par millimètre, je ne suis pas convaincu.
Oui oui, les metadata des systèmes de paquets sont très (trop) stricts avec les dépendances.
Ceci dit, ces histoires de versions de dépendances, c'est bien, mais ça n'est pas magique. Souvent ça encourage les développeurs à être très restrictifs (par exemple, si on utilise la version 1.2.3 du paquet Truc, alors on force la version 1.2.3, comme ça on est sûr que ça marche… et on est sûr d'emm* tous les utilisateurs).
En tant qu'utilisateur très régulier de R, je suis en désaccord sur un certain nombre de points avec la politique des dev de R core. Typiquement, les devs R considèrent que la "bonne manière" de faire les choses et de distribuer des paquets pour n'importe quel projet, ce qui, en effet, permet de bien structurer l'arborescence des projets, d'améliorer la reproductibilité, etc. Malheureusement, cette manière de travailler est aussi très rigide et très technique; pour qu'un paquet passe les checks il faut une documentation très rigide, et la moindre tâche devient pénible (par exemple, imaginons qu'on souhaite ajouter un paramètre optionnel à une fonction pour tester un truc : il faut modifier la fonction, modifier la doc, parfois modifier les metadata si on utilise une dépendance, reconstruire le paquet, le recharger dans son script de test (éventuellement avec les outils de R-devel si on ne veut pas réinstaller le nouveau paquet), et exécuter sa fonction. Zut, il y a une faute de frappe. Rebelotte, reconstruire le paquet, etc. C'est un workflow pourri de chez pourri, ça revient à perdre tous les avantages d'un langage de script où on colle ses constantes, ses dépendances, ses fonctions, et son code dans un même fichier, on exécute, et basta. Évidemment, il existe des utilitaires qui permettent d'automatiser un peu tout ça, mais ça revient à coller des pansements sur une jambe de bois.
Pourtant, les devs utilisent l'existence de ce système de paquets (qui est excellent pour, en effet, distribuer des paquets) pour nier l'évidence sur les besoins des utilisateurs. Par exemple, il semble que n'importe qui utilisant R pour des projets de taille moyenne (quelques mois de travail personnel par exemple) a besoin de structurer son code en plusieurs fichiers, qui peuvent s'appeler les uns les autres. Or, il n'existe aucune fonction dans R pour gérer les chemins d'appel des scripts de manière fiable (en gros, pour connaitre le chemin complet du script qu'on est en train d'exécuter, il faut sans utiliser des variables système-spécifiques cachées dans les paramètres environnementaux). La réponse des devs est systématiquement "vous n'avez qu'à utiliser les paquets", et je ne comprends pas pourquoi. C'est un peu la même chose pour la gestion des environnements (qui définissent la visibilité des variables), qui reste cryptique et incohérente, mais qui est sans cesse renvoyée dans les dents des gens qui se plaignent des incohérences du langage.
Je trouve ça un peu moche quand les devs d'un langage tellement utilisé ont du mal à comprendre les besoins de leurs utilisateurs (mais c'est souvent inévitable : les devs sont de très bons techniciens et ils connaissent parfaitement toutes les subtilités de leur outil, il est très difficile pour eux de comprendre pourquoi certaines procédures sont totalement hermétiques aux utilisateurs "normaux").
S'il faut faire de la recherche reproductible, il faut se mettre dans le même contexte d'exécution.
Oui, mais c'est en pratique infaisable (ne serait-ce que parce que seul le code R est en général fourni). On reste donc dans une définition faible de la reproductibilité : on exécute le truc, et on espère avoir à peu près le même résultat.
Il y a eu plein d'autres corrections de "bugs" dans R, qui font que tout n'est pas toujours reproductible.
Certes, mais c'est en général assez spécifique. C'est clair que R ne garantit aucunement la compatibilité (ni ascendante, ni descendante), mais en général les changements d'interface et de comportement font en sorte de minimiser les incompatibilités. Là c'est un changement qui potentiellement peut casser une grosse moitié de l'existant d'un coup.
Après, c'est vrai qu'à ma connaissance, il n'existe aucun mécanisme simple dans R pour vérifier les versions (de R et des paquets) dans un script. Il y a donc une nette distinction entre les paquets (qui, eux, ont des mécanismes forts pour gérer les dépendances) et les simples scripts.
Certes, mais ça va péter un certain nombre de scripts existants.
Le problème n'est pas vraiment dans le code maintenu (CRAN sait très bien faire ça, les mainteneurs de packages sont constamment obligés de maintenir la compatbilité lors des changements de versions. Le problème est plutôt que R est énormément utilisé pour de l'analyse de données scientifiques, et les scripts d'analyse sont publiés dans une optique de recherche reproductible. Pas question de mise à jour ici, non seulement c'est du code qui n'a pas vocation à être exécuté dans d'autres contextes, mais en plus ça serait même contraire à l'idée de base (reproduire les résultats d'un article scientifique, erreurs comprises). Et dans ce cas, bah paf, on perd la reproductibilité. C'est facheux.
Indépendemment de la position dominante de Google ou des problèmes de vie privée, après quelques tests, il me semble évident que privado retourne des résultats non-pertinents parmi certains résultats pertinents. Ça craint, parce que c'est un problème d'algorithme, pas un problème de taille de la base de données.
Par exemple, j'ai essayé avec "htop options" (ma dernière requête dans un moteur), et le 3e lien est "Most Active Stocks Options - Barchart.com". De mémoire, il faut que je retourne dans l'ère pré-Google (Lycos, Altavista—où je mettais systématiquement -$ -Pamela Anderson" à la fin de chaque requête) pour me rappeler de trucs comme ça.
Avec ou sans respect de la vie privée, malheureusement, je ne vois pas comment on peut espérer gagner des parts de marché dans un domaine aussi concurrentiel avec de tels problèmes de qualité vis-à-vis des concurrents.
Au final, ce décret remet aux médecins de décider de prescrire ou pas ce médoc, ce qui aurait toujours dû être le cas. Ça ne veut pas dire du tout que tous les patients vont être traités, et j'imagine qu'au vu du manque de preuves d'efficacité, il n'y a pas vraiment d'indication pour ce traitement.
Sur le fond, le papier de Didier Raoult ne vaut rien : non seulement l'étude est bancale, mais en plus les données sont traitées de manière plus que limite (voire frauduleuse). Scientifiquement, c'est comme si elle n'existait pas. Quand on sait que les autres études existantes ne montrent pas d'effet significatif, il semble assez sain de partir du principe que l'hydroxychloroquine n'est probablement pas un traitement de première intention pour le Covid-19. Bien sûr, de nouvelles données pourraient changer la donne, mais il est irrationnel à l'heure actuelle d'avoir un autre avis.
Quelques «trucs» pour la route :
La médecine (au moins la partie de la médecine basée sur une approche scientifique) repose sur des protocoles et des procédures strictes, pas sur des intuitions ou des coups de gueule. Dr House n'est pas un documentaire sur les pratiques hospitalières, c'est une série de fiction.
Il n'a jamais été ni ne sera jamais pertinent d'impliquer le grand public dans des décisions médicales. La situation actuelle est totalement ridicule, les gens réclament un traitement expérimental à leur médecins, alors que ça pourrait mettre leur vie en danger.
Indépendamment de l'histoire de la chloroquine, le Dr Raoult n'a pas du tout la bonne réputation que certains semblent lui prêter. Il a en effet eu beaucoup de problèmes avec sa hiérarchie et ses collègues, mais mettre ça sur le compte de la jalousie ou des conflits d'intérêts est une réécriture de l'histoire : ses problèmes sont principalement dûs à des manquements à l'éthique et à la déontologie.
Jusqu'avant l'histoire de la chloroquine, Didier Raoult était connu pour s'être complètement planté sur l'importance du Covid-19; il avait prétendu que c'était une grippette, que tout le monde en faisait trop, etc. Pour un infectiologue expert mondial, ça la fout mal. Les psychologues parmi vous pourraient peut-être trouver le nom du phénomène qui pourrait expliquer pourquoi, dans ce contexte, il est si important pour lui qu'il existe un médicament magique contre la maladie—tellement important que ça vaille le coup de bidouiller une étude médicale.
J'ai aussi oublié de mentionner le fait qu'un taux de mortalité élevé était le signe d'une maladaptation du virus à l'espèce humaine. Le virus n'a aucun intérêt à te tuer, en général, ça nuit à sa transmission (il vaut bien mieux que tu te sentes assez bien pour prendre le métro…). Le cas extrême c'est les virus sexuellement transmissibles; en général ils sont assez discrets pendant très longtemps, vu qu'il faut que tu te sentes assez bien pour… les transmettre. Du coup, les forts taux de mortalité, on les trouve souvent sur les virus qui viennent de passer chez l'Homme (grippe espagnole, Ebola…), et ces virus s'adaptent rapidement.
Je ne sais pas vraiment ce que tu appelles l'effondrement de l'espèce, mais a priori, non, notre espèce n'est pas du tout en danger, quelle que soit l'épidémie. Après, on a déja mangé grave (par exemple, les épidémies de peste du moyen-âge ont bousillé 1/3 de la population mondiale), mais c'est loin d'être assez pour nous mettre en danger vu les effectifs.
Le pire qui puisse arriver, c'est une maladie complètement mortelle sur laquelle le système immunitaire n'est pas efficace (par exemple, parce qu'on meurt avant de mettre en place une réponse immunitaire). Dans ce cas, seule une réponse «innée» (des prédispositions génétiques) permettent d'éviter la maladie. C'est la sélection Darwinienne qui va prendre le relai; la fréquence des gènes protecteurs va augmenter très rapidement en quelques générations jusqu'à ce que l'épidémie disparaisse (de la même manière qu'une épidémie disparait quand le nombre de personnes protégées par leur immunité atteint un certain seuil). C'est plus «douloureux» en termes de morts violentes, mais l'espèce n'est pas en danger. Les cas qui sont réellement problématiques seraient des cas où aucune résistance n'est possible (à part un virus fabriqué par des chercheurs fous, ça me parait peu crédible…), où la baisse de la densité de la population ne freine pas la transmission (alors que c'est assez mécanique), et où la population est tellement touchée que le taux de croissance naturel devient négatif. Ou alors, que le virus ait un réservoir énorme chez une autre espèce très fréquente (les rats?). C'est possible chez les espèces en voie de disparition, mais pour nous, on part de très haut, quand même.
C'est juste une hypothèse, mais je pense que ça peut avoir un lien avec le temps qu'il faut au système immunitaire pour mettre en place une réponse spécifique (multiplication des lymphocytes); en général, on dit trois jours. En première approximation, l'amplification du virus dans l'organisme est exponentielle, et il va donc falloir un certain temps pour que le nombre de virus présent puisse commencer à être problématique. Si on est contaminé par une poignée de virus, cette première phase va durer longtemps, peut-être suffisamment longtemps pour que le système immunitaire soit prêt quand il commence à y avoir beaucoup de virus. Par contre, si on est contaminé par des millions de virus d'un coup, les premières étapes de cette croissance exponentielle sont sautées, et ça peut faire «perdre» les heures ou les jours qu'il aurait fallu pour avoir une réponse immunitaire efficace.
Après, il est possible que le mécanisme soit complètement différent et plus subtil.
Bah du coup, ça colle, non? Dans les 5% de contaminés en moyenne pour une maladie qui a un R0 de 1.3 et un taux de susceptibilité de 10%, c'est dans l'épaisseur du trait, plus ou moins. J'ai cité le chiffre de mémoire, il me semble que 90% de la population présente des anticorps contre influenza (je ne me rappelle plus si c'est seulement contre la grippe A ou contre n'importe quel influenza). Après, on peut être contaminé même si on a des anticorps, on peut ne pas être malade même si on n'en a pas, il y a toute une palette de possibilités. On peut aussi avoir des anticorps contre une souche grippale qui ne circule pas, mais qui protègent partiellement de la souche qui circule…
De toutes manières, l'idée, c'est que la grippe arrive dans un contexte où la majorité de la population a des défenses immunitaires, alors que le coronavirus arrive dans une population "vierge" qui ne connait pas le virus. C'est pour ça qu'il peut y avoir beaucoup, beaucoup plus de malades, et que la contagion peut aller beaucoup plus vite.
De mon humble avis seul quelques malchanceux mourront
Alors déja, ton humble avis, il ne vaut que ce qu'il vaut, n'est-ce pas. Ensuite, en extrapolant ce qu'on connait du virus à la population française, on arriverait à plusieurs centaines de milliers de morts prématurées (pour info, il y a entre 500 000 et 600 000 morts en France chaque année; on part donc sur le même ordre de grandeur). Bien sûr, l'épidémie peut ralentir, bien sûr, on a pu mal évaluer les taux de mortalité, et bien sûr, une partie des personnes qui mourront du coronavirus seraient mortes d'autre chose dans l'année, mais c'est profondément débile, dans l'état actuel des connaissances, de prédire que "quelques malchanceux mourront". Tel que c'est parti, des dizaines ou des centaines de milliers de gens vont mourir de ce virus en France, et des millions dans le monde (ah oui, pardon, les gens qui sont pauvres et qui vivent dans des coins sans infrastructures médicales, ce sont des malchanceux).
une grippe un peu violente
Non.
* Ce n'est pas la grippe (c'est aussi bête que ça: la grippe est une maladie provoquée par un virus influenza, donc non, scientifiquement, ce n'est pas la grippe).
* Il existe un vaccin contre la grippe, pas contre le coronavirus
* La population est bien immunisée contre la grippe (moins de 10% des gens sont susceptibles), du fait de la vaccination et des infections précédentes. Le taux d'immunité au coronavirus est d'environ 0%. Ça fait une énorme différence
* 2% de mortalité, c'est 20 fois plus que la grippe.
Donc au final, 10 fois plus de personnes malades et 20 fois plus de mortalité, ça fait 200 fois plus de morts. Dans l'hypothèse où le système de santé tienne le coup. Parce que si les hopitaux sont dépassés et que les gens commencent à mourir chez eux sans assistance respiratoire, on va peut-être devoir revenir sur les 2% de mortalité…
Le grippe "normale", elle est mondiale aussi chaque année
Oui, à peu de choses près, mais elle s'est saisonnière (et problématique) que dans les zones tempérées. Le virus est sensible à la température, au delà de 20°C c'est beaucoup plus dur pour lui.
C'est la même souche qui tape dans le monde entier
Oui et non, c'est étonnant, la grippe circule dans l'hémisphère sud quand c'est l'été chez nous, et vice-versa. En général, on peut «prédire» quelle souche sévira l'hiver suivant en regardant ce qui traine dans le sud, ou bien en scrutant la Russie, qui a un hiver qui commence plus tôt. Ça n'est pas non plus une science exacte, et parfois la composition du vaccin est ratée.
Par contre, il y a les souches A (les plus dangereuses), qui émergent parfois à partir de souches animales, la grippe B ne cause pas trop de grosses épidémies, et la grippe C ne donne qu'une sorte de rhume. Les vaccins contiennent un cocktail de A et de B, en fonction du pifomètre des experts au moment où il faut produire le vaccin.
Elle se diffuse de la même manière
J'ai l'impression que ça ressemble pas mal. En particulier, le SRAS (déja un coronavirus) d'il y a 10 ans filait la diaripète et il se transmettait… de cette manière, quoi, alors que le covid semble ne se refiler que par les postillons.
Le taux de mortalité est quand même autour de 20x plus pour Covid19 que pour la grippe saisonnière. Donc oui, majoritairement des personnes âgées ou fragiles, mais plus de 15% de mortalité chez les plus de 80 ans, c'est assez glauque. Une épidémie dans une maison de retraite, et il va y avoir des lits bien vite libérés. C'est très Trumpien, l'argument de dire que ça n'est pas un problème pour les gens en bonne santé. Les gens en mauvaise santé ont aussi le droit de vivre quelques années de plus, hein…
À rajouter à cela quelques éléments un peu inquiétants:
* Les enfants ont l'air globalement asymptomatiques, ce qui veut dire qu'ils sont des vecteurs très probables, et c'est le pire des scénarios, parce que les virus circulent très vite dans les écoles.
* Pour l'instant, aucune preuve (dans un sens ou dans un autre) que le virus va disparaitre avec le printemps, comme le fait la grippe.
* Il y a très peu de coronavirus chez l'Homme, ce qui fait que notre système immunitaire est vierge, collectivement parlant. En gros, c'est possible qu'on l'attrappe à peu près tous. Bien sûr, on peut être asymptomatiques ou à peine malade (50% des cas positifs, apparemment), mais ça veut aussi dire que rien de va freiner la transmission de l'épidémie. À comparer avec la grippe par exemple, qui se casse les dents chez la plupart des gens (immunité acquise avec une maladie antérieure ou par vaccination).
* Ça a quand même l'air très contagieux. Les foyers d'infection explosent un peu partout.
* Il ne faut pas se voiler la face : le virus est déja un peu partout. Aux US, certainement plus qu'ailleurs, c'est sûr que quand on ne teste pas, on ne peut pas savoir…
Du coup, ça peut très bien se goupiller sans trop de soucis si la chance tourne dans le bon sens (déclin de l'épidémie au printemps, évolution du virus vers des formes moins agressives, traitement antiviral efficace déja existant—pour l'instant, absolument rien n'est avéré --, mise sur le marché d'un vaccin efficace avant fin 2020…). Mais ça peut aussi mal tourner, avec une épidémie exponentielle qui ferait des millions de malades simultanément, avec des hopitaux complètement dépassés et des gens qui meurent chez eux alors qu'ils auraient été sauvés sous assistance respiratoire.
D'autant que ça n'était pas compliqué de faire inclusif sans compliquer la lecture avec des points médians
Oui, et on peut aussi écrire «les Parisiens», qui incluent les hommes et les femmes habitant Paris selon les règles de grammaire en vigueur dans notre belle langue.
Je veux dire, bien sûr que les services secrets font tout pour collecter des informations tout en évitant que les autres pays le fassent. Du coup, c'est complètement logique que les US ne souhaitent pas utiliser les produits vérolés Chinois et encouragent à la fois leurs nationaux et les autres pays du monde à utiliser des produits qu'eux-mêmes contrôlent. Il n'y a rien de paradoxal là-dedans, ils ne disent pas "Honte aux Chinois de faire ça", ils disent "Les produits Chinois sont pleines de backdoor Chinoises, ne les utilisez pas".
Par contre, je n'ai jamais compris comment un service secret pouvait s'assurer de la fiabilité des informations, parce qu'il semble trivial d'intercepter les paquets et de les remplir avec n'importe quoi pour noyer l'info dans du bruit, non?
D'une manière générale j'ai l’impression que l'état est schizophrène.
Dans la mesure où l'État n'est pas une seule personne, c'est sûr que de nombreux avis coexistent, ce qui peut expliquer le manque de cohérence dans l'action publique.
mais ça ne fais pas gonfler le PIB
La manière dont on peut parfois présenter la fascination des politiques pour la croissance du PIB est excessive et caricaturale. Notre problème, en tant que société, est d'être shootés collectivement à la croissance du PIB. La seule manière de répondre aux demandes de la société simultanément (emploi, sécurité sociale, services publics, pouvoir d'achat) est de dépendre d'une croissance économique qui s'auto-entretient dans un équilibre fragile (pouvoir d'achat -> croissance -> pouvoir d'achat…) et destructeur à terme. Mais tant qu'on n'acceptera pas de renoncer à quoi que ce soit (par exemple en termes de niveau de vie), je ne vois pas comment on pourrait sortir de cette dépendance.
Le fait est que la réparation des biens de consommation pourrait être très bénéfique à l'économie : elle permettrait de créer des emplois locaux non-délocalisables (réparation, collecte, recyclage…). Il ne faut pas croire que le seul ressort de la croissance du PIB soit le gachis de ressources, on peut faire croitre le PIB tout en étant écologiquement vertueux.
Pas certain, ce qui met surtout le bazar, c'est l'irruption dans le débat de trop nombreuses opinions non-fondées techniquement, des deux côtés. Sur un sujet plus technique et plus confidentiel, on peut imaginer que les discussions puissent être plus constructives.
Comme d'habitude, ce qui pollue les débats ici, ça va rester le lobbying des industriels, qui vont essayer de déconstruire toute avancée en la présentant comme trop coûteuse, impossible à mettre en place, etc. Et c'est les compromis sur de telles questions qui vont rendre impossible l'application de la loi.
Ceci dit, j'ai des doutes sur les aspects opérationnels des principes de base. Typiquement, la mise à disposition de pièces détachées. Dans les faits, ça va obliger les industriels à fabriquer ces pièces, à les stocker, et à les commercialiser. Comme il va être difficile de prédire la dynamique de ce marché de la réparation, soit on va tomber en panne de pièces, soit il va y en avoir beaucoup trop (et donc, énorme gachis de matières premières, avec des bennes pleines de pièces neuves au bout de 5 ans). Fabriquer ces pièces et les stocker va coûter très cher, si les pièces sont facturées au prix coûtant, elles vont être plus chères que la valeur de l'appareil (et si on ajoute le coût de la réparation par un professionnel…). L'idéal serait de répercuter ce prix sur les appareils neufs, mais quel serait le modèle économique derrière la réparation?
Typiquement, en informatique, il serait idiot d'imposer la mise à disposition de pièces détachées à l'identique. Si tu fais remplacer ta RAM ou ton disque dur au bout de 4 ans, mieux vaut un modèle plus récent qu'une pièce qui a 4 ans.
Au delà de la loi, sans modèle économique, on risque de tout mettre en place pour la réparation sans que personne ne fasse réparer quoi que ce soit.
Une possibilité serait de favoriser l'implantation de commerces de proximité offrant ces services de réparation, en mode "low cost", avec derrière de la débrouille, du recyclage, de l'impression 3D… ça demanderait certainement d'assouplir le droit de brevets et le droit des marques, d'imposer de l'interopérabilité entre les produits de marques différentes, des contrôles pour éviter les terrains vagues remplis de machines qui rouillent… un gros chantier.
Ouais, ça sent aussi le biais du survivant à plein nez. Combien de personnes ruinées par des investissements foireux pour une qui a la chance de réussir, et qui pourra raconter à tout le monde qu'il faut se lancer dans n'importe quoi sans réfléchir puisque c'est cette stratégie qui lui a apporté gloire et réussite?
Le principe est conforme, mais je ne sais pas d'où tu tires tes chiffres. Par exemple, http://archives.lesechos.fr/archives/cercle/2014/08/19/cercle_107492.htm confirme à peu près ce qu'avance Picketti, environ 6% de rentabilité pour le capital après impôts, et 3% de croissance mondiale. Ça ne fait qu'un différentiel de 3%, c'est déja pas mal et assez problématique, pas besoin d'en rajouter non plus.
De toutes manières, il suffit que la rentabilité du capital soit la même pour les pauvres et pour les riches pour que les différentiels de patrimoine augmentent : si le petit studio du pauvre passe de 100,000€ à 110,000€ pendant que la grande baraque du bourgeois du coin passe de 1,000,000€ à 1,100,000€, le riche a 90,000€ de plus que le pauvre. Pour contrer le phénomène, il faudrait une redistribution tellement forte qu'elle pourrait s'apparenter à de la spoliation, qui n'est pas admise par la constitution de toutes manières.
J'ai l'impression que seuls les chiffres de 2018 sont commentés ici, parce que la stagnation des inégalités semblait quand même acquise en France depuis quelques décennies (https://www.inegalites.fr/Les-inegalites-de-niveau-de-vie-en-voie-de-stabilisation). Avant de s'offusquer, il faudrait quand même vérifier s'il s'est réellement passé quelque chose depuis 2018.
Au passage, les milliardaires sont très très riches mais ils ne peuvent pas liquider leur patrimoine, donc à part pour faire les titres des journaux et les classements pour riches qui veulent savoir qui pisse le plus loin, ça ne veut absolument rien dire. Si je te donne un milliard d'Euros d'actifs que tu ne peux pas vendre, tu es dans les faits toujours aussi pauvre qu'avant. Ça serait plus intéressant de savoir quel est le revenu qu'ils tirent de ce patrimoine (ça va aussi être beaucoup, mais ça va être moins disproportionné que les écarts de patrimoine; par exemple, si tu as 1 Mrd € de patrimoine qui te rapporte 3%, ça te fait 30 millions de revenus par an. Le revenu médian en France est d'environ 19k€/an, le patrimoine médian est à 114k€; avec notre milliardaire théorique, ça fait un rapport d'environ 1/1500 en revenu, et d'environ 1/9000 en patrimoine. Donc, il y a en gros un ordre de grandeur entre les deux; c'est sûr qu'on choque plus le pékin moyen en faisant les rapports de patrimoine que les rapports de revenus.
Ça ne veut pas dire que les rapports de revenus ne sont pas énormes dans l'absolu, hein, mais c'est juste débile de comparer les patrimoines sans plus de précaution. Le patrimoine, c'est chiant à comparer : il faut corriger pour l'âge (les plus riches sont aussi les plus vieux, les plus pauvres sont les plus jeunes, et comme le patrimoine se transmet principalement par héritage, il faut normaliser sinon c'est n'importe quoi), il y a beaucoup de gens qui ont un patrimoine de zéro (donc tout de suite, les ratios sont gigantesques si on choisit bien ses déciles). Il faut aussi savoir que les calculs de patrimoine de l'INSEE ne retirent pas l'endettement, on peut donc avoir un gros patrimoine tout en étant surendetté. Et quand on achète un bien immobilier, on peut multiplier son patrimoine par 100 du jour au lendemain. Étonnant, non?
En fait, on est typiquement dans la com' d'organismes et d'institutions qui ont un "agenda". Oxfam veut mettre en avant que les inégalités augmentent pour des raisons politiques, et sortent donc une analyse de leur chapeau pour montrer ça. Le gouvernement veut montrer que ça n'augmente pas (ils n'ont quand même pas l'indécence d'essayer de prétendre que ça diminue), et donc avec les mêmes données ils vont arriver à un résultat opposé. Tout cela n'est pas très informatif.
Bah oui, c'est bien ça le problème : quand tu as la chance d'être rare (de part tes compétences, ton activité, ou pour n'importe quelle raison d'ailleurs), tu peux facturer le prix max que tes clients sont prêts à payer, qui peut être complètement décorrélé de tes coûts à toi. En théorie, c'est une situation qui ne devrait pas exister (puisque de telles marges potentielles devraient faire venir les concurrents), mais dans la réalité, ça existe.
En fait, pour simplifier, il existe deux types de prix pour un service ou un produit. Le prix que tu pourrais facturer pour gagner ta vie «honnêtement», et le prix que le client serait prêt à payer. Dans une économie de marché parfaite, les deux devraient coïncider : la concurrence libre et non faussée, l'information parfaite du client, etc. devrait faire que les prestataires devraient s'aligner sur le coût de revient + un bénéfice minimal, et les clients devraient choisir le prestataire le moins cher pour un niveau de prestation donné.
Le problème est qu'on ne vit pas dans une telle économie, et que les deux prix peuvent diverger. Quand le client est prêt à payer moins que le prix minimal (parce que le service a peu de valeur à ses yeux, par ex. la presse quotidienne, ou parce qu'il y a des distorsions de concurrence qui fait que certains vendent sous leurs coûts de production, comme l'agriculture), alors l'activité s'écroule ou devient dépendante de subventions publiques. Quand au contraire l'offre est très inférieure à la demande (domaine récent, offre limitée artificiellement comme pour l'exemple de ton chirurgien, ou question de survie), alors les prix peuvent devenir n'importe quoi). J'ai l'impression que ta situation est celle d'un chamelier qui vend des bouteilles d'eau à des gens perdus dans le désert. Si tu es tout seul, ta bouteille, tu peux la vendre 100€, 1000€, 10000€ peut-être. La seule manière d'équilibrer la situation serait d'avoir plein de concurrents.
Jamendo utilise "libre de droit" mais ça n'a même pas l'air de ça
La SACEM aussi utilise "libre de droit" pour parler des titres qui ne sont pas au catalogue SACEM. Je pense que dans ce contexte, ça veut simplement dire que ces titres sont libres des droits gérés par les sociétés d'auteur-compositeur-interprètes ou assimilés. D'ailleurs, pour le catalogue Jamendo, il fallait payer à Jamendo le droit de diffuser ces titres de manière illimitée, donc ces titres sont bien "libres de droits" dans le sens "droits gérés", mais pas graduits.
[^] # Re: Houla
Posté par arnaudus . En réponse au journal Covid le rouge. Évalué à 10.
Je pense que ce qui se passe, c'est qu'une bonne majorité de la population des pays développés a tout intérêt (ou a l'impression d'avoir intérêt) à ce que rien ne change. Du coup, ils mettent au pouvoir des gens qui ne souhaitent rien changer. Je n'y vois que les conséquences de vivre dans un système démocratique.
[^] # Re: Ma plus commune erreur
Posté par arnaudus . En réponse au journal Gnu R version 4.0.0 est disponible. Évalué à 2. Dernière modification le 29 avril 2020 à 17:33.
En fait, la question centrale est peut-être celle de l'utilité d'un type facteur dans un langage non-typé, puisque les facteurs vont forcément entrer en conflit avec les autres types de base. Il me semble tout à fait envisageable de laisser les fonctions transtyper en facteur quand elles en ont besoin (voire d'interpréter les strings comme des facteurs), alors que les routines de lecture/écriture/manipulation de données gèrent des chaines de caractères. Les problèmes de RAM sont évitables même avec les chaînes de caractère, c'est juste une histoire d'optimisation interne.
De toutes manières, l'auto-typage génère des bugs, c'est inévitable. Quand il y a une erreur de saisie triviale, style un "Na" au lieu de "NA", alors c'est toute la colonne de nombres qui devient facteur ou catactère; au contraire, on peut changer le type en appliquant un filtre (par exemple un grep \d+ sur une chaine de caractères, et pouf, le sous-jeu de données n'a pas le même type). Le plus vicieux, c'est un as.numeric sur une colonne interprétée comme un facteur, ce qui risque d'arriver de manière silencieuse avec du code écrit pour R-4.0 interprété par un R plus ancien: as.numeric(c("10","12")) donne c(10,12), alors que as.numeric(factor(c("10","12))) fait c(1,2). De bonnes soirées de débuggage poilu en perspective.
[^] # Re: Ma plus commune erreur
Posté par arnaudus . En réponse au journal Gnu R version 4.0.0 est disponible. Évalué à 2. Dernière modification le 29 avril 2020 à 15:55.
Non non, pas de problème, je crois qu'on est plutôt d'accord. Je n'ai pas de solution non plus pour faire évoluer un langage sans tout péter.
Le choix d'interpréter les caractères comme des facteurs dans les jeux de données est problématique, puisque de toutes manières certains jeux de données peuvent contenir à la fois des colonnes de texte qui correspondent à des caractères et d'autres à des facteurs. Il aurait été tout à fait possible de développer des heuristiques pour se gourer le moins possible (par exemple, il est très peu probable qu'une colonne qui contienne des chaines de caractères toutes différentes puisse représenter un facteur), mais ça aurait été atroce en termes de maintenance. Un choix existait par défaut, il était critiquable, mais c'était comme ça. Ce qui est embêtant, c'est de changer, surtout qu'il existait quand même des arguments dans les deux sens, ansi qu'une option stringsAsFactors qui permettait de basculer entre les deux comportements. Mais bon, c'est fait, c'est fait…
Après, R possède de très nombreux bugs d'interface sur des fonctions de base; soit des noms de paramètres ou de fonctions incohérents (par exemple simplify dans sapply vs SIMPLIFY dans mapply, nrow mais row.names dans data.frame vs nrow() et rownames()), soit des interfaces hyper bugogènes (comme le premier paramètre dans sample() qui change de sens en fonction de sa longueur), soit des ordres de paramèters incohérents (do.call a la fonction qui vient en premier et qui s'appelle "what", lapply a la fonction qui vient en deuxième et qui s'appelle FUN…). Quitte à péter la compatibilité lors d'un changement majeur de version, autant le faire un bon coup et réparer plusieurs problèmes à la fois… La méthode choisie c'est plutôt de retirer le pansement millimètre par millimètre, je ne suis pas convaincu.
[^] # Re: Ma plus commune erreur
Posté par arnaudus . En réponse au journal Gnu R version 4.0.0 est disponible. Évalué à 3.
Oui oui, les metadata des systèmes de paquets sont très (trop) stricts avec les dépendances.
Ceci dit, ces histoires de versions de dépendances, c'est bien, mais ça n'est pas magique. Souvent ça encourage les développeurs à être très restrictifs (par exemple, si on utilise la version 1.2.3 du paquet Truc, alors on force la version 1.2.3, comme ça on est sûr que ça marche… et on est sûr d'emm* tous les utilisateurs).
En tant qu'utilisateur très régulier de R, je suis en désaccord sur un certain nombre de points avec la politique des dev de R core. Typiquement, les devs R considèrent que la "bonne manière" de faire les choses et de distribuer des paquets pour n'importe quel projet, ce qui, en effet, permet de bien structurer l'arborescence des projets, d'améliorer la reproductibilité, etc. Malheureusement, cette manière de travailler est aussi très rigide et très technique; pour qu'un paquet passe les checks il faut une documentation très rigide, et la moindre tâche devient pénible (par exemple, imaginons qu'on souhaite ajouter un paramètre optionnel à une fonction pour tester un truc : il faut modifier la fonction, modifier la doc, parfois modifier les metadata si on utilise une dépendance, reconstruire le paquet, le recharger dans son script de test (éventuellement avec les outils de R-devel si on ne veut pas réinstaller le nouveau paquet), et exécuter sa fonction. Zut, il y a une faute de frappe. Rebelotte, reconstruire le paquet, etc. C'est un workflow pourri de chez pourri, ça revient à perdre tous les avantages d'un langage de script où on colle ses constantes, ses dépendances, ses fonctions, et son code dans un même fichier, on exécute, et basta. Évidemment, il existe des utilitaires qui permettent d'automatiser un peu tout ça, mais ça revient à coller des pansements sur une jambe de bois.
Pourtant, les devs utilisent l'existence de ce système de paquets (qui est excellent pour, en effet, distribuer des paquets) pour nier l'évidence sur les besoins des utilisateurs. Par exemple, il semble que n'importe qui utilisant R pour des projets de taille moyenne (quelques mois de travail personnel par exemple) a besoin de structurer son code en plusieurs fichiers, qui peuvent s'appeler les uns les autres. Or, il n'existe aucune fonction dans R pour gérer les chemins d'appel des scripts de manière fiable (en gros, pour connaitre le chemin complet du script qu'on est en train d'exécuter, il faut sans utiliser des variables système-spécifiques cachées dans les paramètres environnementaux). La réponse des devs est systématiquement "vous n'avez qu'à utiliser les paquets", et je ne comprends pas pourquoi. C'est un peu la même chose pour la gestion des environnements (qui définissent la visibilité des variables), qui reste cryptique et incohérente, mais qui est sans cesse renvoyée dans les dents des gens qui se plaignent des incohérences du langage.
Je trouve ça un peu moche quand les devs d'un langage tellement utilisé ont du mal à comprendre les besoins de leurs utilisateurs (mais c'est souvent inévitable : les devs sont de très bons techniciens et ils connaissent parfaitement toutes les subtilités de leur outil, il est très difficile pour eux de comprendre pourquoi certaines procédures sont totalement hermétiques aux utilisateurs "normaux").
[^] # Re: Ma plus commune erreur
Posté par arnaudus . En réponse au journal Gnu R version 4.0.0 est disponible. Évalué à 2.
Oui, mais c'est en pratique infaisable (ne serait-ce que parce que seul le code R est en général fourni). On reste donc dans une définition faible de la reproductibilité : on exécute le truc, et on espère avoir à peu près le même résultat.
Certes, mais c'est en général assez spécifique. C'est clair que R ne garantit aucunement la compatibilité (ni ascendante, ni descendante), mais en général les changements d'interface et de comportement font en sorte de minimiser les incompatibilités. Là c'est un changement qui potentiellement peut casser une grosse moitié de l'existant d'un coup.
Après, c'est vrai qu'à ma connaissance, il n'existe aucun mécanisme simple dans R pour vérifier les versions (de R et des paquets) dans un script. Il y a donc une nette distinction entre les paquets (qui, eux, ont des mécanismes forts pour gérer les dépendances) et les simples scripts.
[^] # Re: Ma plus commune erreur
Posté par arnaudus . En réponse au journal Gnu R version 4.0.0 est disponible. Évalué à 4.
Certes, mais ça va péter un certain nombre de scripts existants.
Le problème n'est pas vraiment dans le code maintenu (CRAN sait très bien faire ça, les mainteneurs de packages sont constamment obligés de maintenir la compatbilité lors des changements de versions. Le problème est plutôt que R est énormément utilisé pour de l'analyse de données scientifiques, et les scripts d'analyse sont publiés dans une optique de recherche reproductible. Pas question de mise à jour ici, non seulement c'est du code qui n'a pas vocation à être exécuté dans d'autres contextes, mais en plus ça serait même contraire à l'idée de base (reproduire les résultats d'un article scientifique, erreurs comprises). Et dans ce cas, bah paf, on perd la reproductibilité. C'est facheux.
# Pertinence des résultats
Posté par arnaudus . En réponse au message Nouveau moteur de recherche Privado.com. Évalué à 4.
Indépendemment de la position dominante de Google ou des problèmes de vie privée, après quelques tests, il me semble évident que privado retourne des résultats non-pertinents parmi certains résultats pertinents. Ça craint, parce que c'est un problème d'algorithme, pas un problème de taille de la base de données.
Par exemple, j'ai essayé avec "htop options" (ma dernière requête dans un moteur), et le 3e lien est "Most Active Stocks Options - Barchart.com". De mémoire, il faut que je retourne dans l'ère pré-Google (Lycos, Altavista—où je mettais systématiquement -$ -Pamela Anderson" à la fin de chaque requête) pour me rappeler de trucs comme ça.
Avec ou sans respect de la vie privée, malheureusement, je ne vois pas comment on peut espérer gagner des parts de marché dans un domaine aussi concurrentiel avec de tels problèmes de qualité vis-à-vis des concurrents.
# Responsabilité aux médecins
Posté par arnaudus . En réponse au journal Le gouvernement français autorise la prescription de l'hydroxychloroquine en traitement du COVID-19. Évalué à 7.
Au final, ce décret remet aux médecins de décider de prescrire ou pas ce médoc, ce qui aurait toujours dû être le cas. Ça ne veut pas dire du tout que tous les patients vont être traités, et j'imagine qu'au vu du manque de preuves d'efficacité, il n'y a pas vraiment d'indication pour ce traitement.
Sur le fond, le papier de Didier Raoult ne vaut rien : non seulement l'étude est bancale, mais en plus les données sont traitées de manière plus que limite (voire frauduleuse). Scientifiquement, c'est comme si elle n'existait pas. Quand on sait que les autres études existantes ne montrent pas d'effet significatif, il semble assez sain de partir du principe que l'hydroxychloroquine n'est probablement pas un traitement de première intention pour le Covid-19. Bien sûr, de nouvelles données pourraient changer la donne, mais il est irrationnel à l'heure actuelle d'avoir un autre avis.
Quelques «trucs» pour la route :
La médecine (au moins la partie de la médecine basée sur une approche scientifique) repose sur des protocoles et des procédures strictes, pas sur des intuitions ou des coups de gueule. Dr House n'est pas un documentaire sur les pratiques hospitalières, c'est une série de fiction.
Il n'a jamais été ni ne sera jamais pertinent d'impliquer le grand public dans des décisions médicales. La situation actuelle est totalement ridicule, les gens réclament un traitement expérimental à leur médecins, alors que ça pourrait mettre leur vie en danger.
Indépendamment de l'histoire de la chloroquine, le Dr Raoult n'a pas du tout la bonne réputation que certains semblent lui prêter. Il a en effet eu beaucoup de problèmes avec sa hiérarchie et ses collègues, mais mettre ça sur le compte de la jalousie ou des conflits d'intérêts est une réécriture de l'histoire : ses problèmes sont principalement dûs à des manquements à l'éthique et à la déontologie.
Jusqu'avant l'histoire de la chloroquine, Didier Raoult était connu pour s'être complètement planté sur l'importance du Covid-19; il avait prétendu que c'était une grippette, que tout le monde en faisait trop, etc. Pour un infectiologue expert mondial, ça la fout mal. Les psychologues parmi vous pourraient peut-être trouver le nom du phénomène qui pourrait expliquer pourquoi, dans ce contexte, il est si important pour lui qu'il existe un médicament magique contre la maladie—tellement important que ça vaille le coup de bidouiller une étude médicale.
[^] # Re: petite question
Posté par arnaudus . En réponse au journal Des virus et des hommes. Évalué à 8.
J'ai aussi oublié de mentionner le fait qu'un taux de mortalité élevé était le signe d'une maladaptation du virus à l'espèce humaine. Le virus n'a aucun intérêt à te tuer, en général, ça nuit à sa transmission (il vaut bien mieux que tu te sentes assez bien pour prendre le métro…). Le cas extrême c'est les virus sexuellement transmissibles; en général ils sont assez discrets pendant très longtemps, vu qu'il faut que tu te sentes assez bien pour… les transmettre. Du coup, les forts taux de mortalité, on les trouve souvent sur les virus qui viennent de passer chez l'Homme (grippe espagnole, Ebola…), et ces virus s'adaptent rapidement.
[^] # Re: petite question
Posté par arnaudus . En réponse au journal Des virus et des hommes. Évalué à 6.
Je ne sais pas vraiment ce que tu appelles l'effondrement de l'espèce, mais a priori, non, notre espèce n'est pas du tout en danger, quelle que soit l'épidémie. Après, on a déja mangé grave (par exemple, les épidémies de peste du moyen-âge ont bousillé 1/3 de la population mondiale), mais c'est loin d'être assez pour nous mettre en danger vu les effectifs.
Le pire qui puisse arriver, c'est une maladie complètement mortelle sur laquelle le système immunitaire n'est pas efficace (par exemple, parce qu'on meurt avant de mettre en place une réponse immunitaire). Dans ce cas, seule une réponse «innée» (des prédispositions génétiques) permettent d'éviter la maladie. C'est la sélection Darwinienne qui va prendre le relai; la fréquence des gènes protecteurs va augmenter très rapidement en quelques générations jusqu'à ce que l'épidémie disparaisse (de la même manière qu'une épidémie disparait quand le nombre de personnes protégées par leur immunité atteint un certain seuil). C'est plus «douloureux» en termes de morts violentes, mais l'espèce n'est pas en danger. Les cas qui sont réellement problématiques seraient des cas où aucune résistance n'est possible (à part un virus fabriqué par des chercheurs fous, ça me parait peu crédible…), où la baisse de la densité de la population ne freine pas la transmission (alors que c'est assez mécanique), et où la population est tellement touchée que le taux de croissance naturel devient négatif. Ou alors, que le virus ait un réservoir énorme chez une autre espèce très fréquente (les rats?). C'est possible chez les espèces en voie de disparition, mais pour nous, on part de très haut, quand même.
[^] # Re: petite question
Posté par arnaudus . En réponse au journal Des virus et des hommes. Évalué à 4.
C'est juste une hypothèse, mais je pense que ça peut avoir un lien avec le temps qu'il faut au système immunitaire pour mettre en place une réponse spécifique (multiplication des lymphocytes); en général, on dit trois jours. En première approximation, l'amplification du virus dans l'organisme est exponentielle, et il va donc falloir un certain temps pour que le nombre de virus présent puisse commencer à être problématique. Si on est contaminé par une poignée de virus, cette première phase va durer longtemps, peut-être suffisamment longtemps pour que le système immunitaire soit prêt quand il commence à y avoir beaucoup de virus. Par contre, si on est contaminé par des millions de virus d'un coup, les premières étapes de cette croissance exponentielle sont sautées, et ça peut faire «perdre» les heures ou les jours qu'il aurait fallu pour avoir une réponse immunitaire efficace.
Après, il est possible que le mécanisme soit complètement différent et plus subtil.
[^] # Re: Du ramdam pour une grippe un peu violente
Posté par arnaudus . En réponse au journal Des virus et des hommes. Évalué à 5.
Bah du coup, ça colle, non? Dans les 5% de contaminés en moyenne pour une maladie qui a un R0 de 1.3 et un taux de susceptibilité de 10%, c'est dans l'épaisseur du trait, plus ou moins. J'ai cité le chiffre de mémoire, il me semble que 90% de la population présente des anticorps contre influenza (je ne me rappelle plus si c'est seulement contre la grippe A ou contre n'importe quel influenza). Après, on peut être contaminé même si on a des anticorps, on peut ne pas être malade même si on n'en a pas, il y a toute une palette de possibilités. On peut aussi avoir des anticorps contre une souche grippale qui ne circule pas, mais qui protègent partiellement de la souche qui circule…
De toutes manières, l'idée, c'est que la grippe arrive dans un contexte où la majorité de la population a des défenses immunitaires, alors que le coronavirus arrive dans une population "vierge" qui ne connait pas le virus. C'est pour ça qu'il peut y avoir beaucoup, beaucoup plus de malades, et que la contagion peut aller beaucoup plus vite.
[^] # Re: Du ramdam pour une grippe un peu violente
Posté par arnaudus . En réponse au journal Des virus et des hommes. Évalué à 10.
Alors déja, ton humble avis, il ne vaut que ce qu'il vaut, n'est-ce pas. Ensuite, en extrapolant ce qu'on connait du virus à la population française, on arriverait à plusieurs centaines de milliers de morts prématurées (pour info, il y a entre 500 000 et 600 000 morts en France chaque année; on part donc sur le même ordre de grandeur). Bien sûr, l'épidémie peut ralentir, bien sûr, on a pu mal évaluer les taux de mortalité, et bien sûr, une partie des personnes qui mourront du coronavirus seraient mortes d'autre chose dans l'année, mais c'est profondément débile, dans l'état actuel des connaissances, de prédire que "quelques malchanceux mourront". Tel que c'est parti, des dizaines ou des centaines de milliers de gens vont mourir de ce virus en France, et des millions dans le monde (ah oui, pardon, les gens qui sont pauvres et qui vivent dans des coins sans infrastructures médicales, ce sont des malchanceux).
Non.
* Ce n'est pas la grippe (c'est aussi bête que ça: la grippe est une maladie provoquée par un virus influenza, donc non, scientifiquement, ce n'est pas la grippe).
* Il existe un vaccin contre la grippe, pas contre le coronavirus
* La population est bien immunisée contre la grippe (moins de 10% des gens sont susceptibles), du fait de la vaccination et des infections précédentes. Le taux d'immunité au coronavirus est d'environ 0%. Ça fait une énorme différence
* 2% de mortalité, c'est 20 fois plus que la grippe.
Donc au final, 10 fois plus de personnes malades et 20 fois plus de mortalité, ça fait 200 fois plus de morts. Dans l'hypothèse où le système de santé tienne le coup. Parce que si les hopitaux sont dépassés et que les gens commencent à mourir chez eux sans assistance respiratoire, on va peut-être devoir revenir sur les 2% de mortalité…
[^] # Re: Typo et autres stats
Posté par arnaudus . En réponse au message Covid-19 - Inquiétant ou pas ?. Évalué à 5.
Oui, à peu de choses près, mais elle s'est saisonnière (et problématique) que dans les zones tempérées. Le virus est sensible à la température, au delà de 20°C c'est beaucoup plus dur pour lui.
Oui et non, c'est étonnant, la grippe circule dans l'hémisphère sud quand c'est l'été chez nous, et vice-versa. En général, on peut «prédire» quelle souche sévira l'hiver suivant en regardant ce qui traine dans le sud, ou bien en scrutant la Russie, qui a un hiver qui commence plus tôt. Ça n'est pas non plus une science exacte, et parfois la composition du vaccin est ratée.
Par contre, il y a les souches A (les plus dangereuses), qui émergent parfois à partir de souches animales, la grippe B ne cause pas trop de grosses épidémies, et la grippe C ne donne qu'une sorte de rhume. Les vaccins contiennent un cocktail de A et de B, en fonction du pifomètre des experts au moment où il faut produire le vaccin.
J'ai l'impression que ça ressemble pas mal. En particulier, le SRAS (déja un coronavirus) d'il y a 10 ans filait la diaripète et il se transmettait… de cette manière, quoi, alors que le covid semble ne se refiler que par les postillons.
[^] # Re: Contagieux, sûrement, inquiétant, cela dépend
Posté par arnaudus . En réponse au message Covid-19 - Inquiétant ou pas ?. Évalué à 5.
Le taux de mortalité est quand même autour de 20x plus pour Covid19 que pour la grippe saisonnière. Donc oui, majoritairement des personnes âgées ou fragiles, mais plus de 15% de mortalité chez les plus de 80 ans, c'est assez glauque. Une épidémie dans une maison de retraite, et il va y avoir des lits bien vite libérés. C'est très Trumpien, l'argument de dire que ça n'est pas un problème pour les gens en bonne santé. Les gens en mauvaise santé ont aussi le droit de vivre quelques années de plus, hein…
À rajouter à cela quelques éléments un peu inquiétants:
* Les enfants ont l'air globalement asymptomatiques, ce qui veut dire qu'ils sont des vecteurs très probables, et c'est le pire des scénarios, parce que les virus circulent très vite dans les écoles.
* Pour l'instant, aucune preuve (dans un sens ou dans un autre) que le virus va disparaitre avec le printemps, comme le fait la grippe.
* Il y a très peu de coronavirus chez l'Homme, ce qui fait que notre système immunitaire est vierge, collectivement parlant. En gros, c'est possible qu'on l'attrappe à peu près tous. Bien sûr, on peut être asymptomatiques ou à peine malade (50% des cas positifs, apparemment), mais ça veut aussi dire que rien de va freiner la transmission de l'épidémie. À comparer avec la grippe par exemple, qui se casse les dents chez la plupart des gens (immunité acquise avec une maladie antérieure ou par vaccination).
* Ça a quand même l'air très contagieux. Les foyers d'infection explosent un peu partout.
* Il ne faut pas se voiler la face : le virus est déja un peu partout. Aux US, certainement plus qu'ailleurs, c'est sûr que quand on ne teste pas, on ne peut pas savoir…
Du coup, ça peut très bien se goupiller sans trop de soucis si la chance tourne dans le bon sens (déclin de l'épidémie au printemps, évolution du virus vers des formes moins agressives, traitement antiviral efficace déja existant—pour l'instant, absolument rien n'est avéré --, mise sur le marché d'un vaccin efficace avant fin 2020…). Mais ça peut aussi mal tourner, avec une épidémie exponentielle qui ferait des millions de malades simultanément, avec des hopitaux complètement dépassés et des gens qui meurent chez eux alors qu'ils auraient été sauvés sous assistance respiratoire.
[^] # Re: J'ai moinssé
Posté par arnaudus . En réponse au journal Vélib' et open data. Évalué à 5.
Oui, et on peut aussi écrire «les Parisiens», qui incluent les hommes et les femmes habitant Paris selon les règles de grammaire en vigueur dans notre belle langue.
# Je ne vois pas où est le problème?
Posté par arnaudus . En réponse au journal Quand l’hôpital se fout de la charité… ou faites ce que je dis mais pas ce que je fais . Évalué à 9.
Je veux dire, bien sûr que les services secrets font tout pour collecter des informations tout en évitant que les autres pays le fassent. Du coup, c'est complètement logique que les US ne souhaitent pas utiliser les produits vérolés Chinois et encouragent à la fois leurs nationaux et les autres pays du monde à utiliser des produits qu'eux-mêmes contrôlent. Il n'y a rien de paradoxal là-dedans, ils ne disent pas "Honte aux Chinois de faire ça", ils disent "Les produits Chinois sont pleines de backdoor Chinoises, ne les utilisez pas".
Par contre, je n'ai jamais compris comment un service secret pouvait s'assurer de la fiabilité des informations, parce qu'il semble trivial d'intercepter les paquets et de les remplir avec n'importe quoi pour noyer l'info dans du bruit, non?
[^] # Re: Parallèle avec les retraites
Posté par arnaudus . En réponse au lien HOP : loi anti-gaspillage / création d’un indice de réparabilité obligatoire à partir de 2021. Évalué à 3.
Dans la mesure où l'État n'est pas une seule personne, c'est sûr que de nombreux avis coexistent, ce qui peut expliquer le manque de cohérence dans l'action publique.
La manière dont on peut parfois présenter la fascination des politiques pour la croissance du PIB est excessive et caricaturale. Notre problème, en tant que société, est d'être shootés collectivement à la croissance du PIB. La seule manière de répondre aux demandes de la société simultanément (emploi, sécurité sociale, services publics, pouvoir d'achat) est de dépendre d'une croissance économique qui s'auto-entretient dans un équilibre fragile (pouvoir d'achat -> croissance -> pouvoir d'achat…) et destructeur à terme. Mais tant qu'on n'acceptera pas de renoncer à quoi que ce soit (par exemple en termes de niveau de vie), je ne vois pas comment on pourrait sortir de cette dépendance.
Le fait est que la réparation des biens de consommation pourrait être très bénéfique à l'économie : elle permettrait de créer des emplois locaux non-délocalisables (réparation, collecte, recyclage…). Il ne faut pas croire que le seul ressort de la croissance du PIB soit le gachis de ressources, on peut faire croitre le PIB tout en étant écologiquement vertueux.
[^] # Re: Parallèle avec les retraites
Posté par arnaudus . En réponse au lien HOP : loi anti-gaspillage / création d’un indice de réparabilité obligatoire à partir de 2021. Évalué à 7. Dernière modification le 04 février 2020 à 09:57.
Pas certain, ce qui met surtout le bazar, c'est l'irruption dans le débat de trop nombreuses opinions non-fondées techniquement, des deux côtés. Sur un sujet plus technique et plus confidentiel, on peut imaginer que les discussions puissent être plus constructives.
Comme d'habitude, ce qui pollue les débats ici, ça va rester le lobbying des industriels, qui vont essayer de déconstruire toute avancée en la présentant comme trop coûteuse, impossible à mettre en place, etc. Et c'est les compromis sur de telles questions qui vont rendre impossible l'application de la loi.
Ceci dit, j'ai des doutes sur les aspects opérationnels des principes de base. Typiquement, la mise à disposition de pièces détachées. Dans les faits, ça va obliger les industriels à fabriquer ces pièces, à les stocker, et à les commercialiser. Comme il va être difficile de prédire la dynamique de ce marché de la réparation, soit on va tomber en panne de pièces, soit il va y en avoir beaucoup trop (et donc, énorme gachis de matières premières, avec des bennes pleines de pièces neuves au bout de 5 ans). Fabriquer ces pièces et les stocker va coûter très cher, si les pièces sont facturées au prix coûtant, elles vont être plus chères que la valeur de l'appareil (et si on ajoute le coût de la réparation par un professionnel…). L'idéal serait de répercuter ce prix sur les appareils neufs, mais quel serait le modèle économique derrière la réparation?
Typiquement, en informatique, il serait idiot d'imposer la mise à disposition de pièces détachées à l'identique. Si tu fais remplacer ta RAM ou ton disque dur au bout de 4 ans, mieux vaut un modèle plus récent qu'une pièce qui a 4 ans.
Au delà de la loi, sans modèle économique, on risque de tout mettre en place pour la réparation sans que personne ne fasse réparer quoi que ce soit.
Une possibilité serait de favoriser l'implantation de commerces de proximité offrant ces services de réparation, en mode "low cost", avec derrière de la débrouille, du recyclage, de l'impression 3D… ça demanderait certainement d'assouplir le droit de brevets et le droit des marques, d'imposer de l'interopérabilité entre les produits de marques différentes, des contrôles pour éviter les terrains vagues remplis de machines qui rouillent… un gros chantier.
[^] # Re: Un billard
Posté par arnaudus . En réponse au journal Procrastiner mieux !. Évalué à 10.
Ouais, ça sent aussi le biais du survivant à plein nez. Combien de personnes ruinées par des investissements foireux pour une qui a la chance de réussir, et qui pourra raconter à tout le monde qu'il faut se lancer dans n'importe quoi sans réfléchir puisque c'est cette stratégie qui lui a apporté gloire et réussite?
[^] # Re: Tendance?
Posté par arnaudus . En réponse au lien En France, toujours plus de pauvres, les riches bien plus riches : ça ruisselle mais ça imbibe pas !. Évalué à 3.
Le principe est conforme, mais je ne sais pas d'où tu tires tes chiffres. Par exemple, http://archives.lesechos.fr/archives/cercle/2014/08/19/cercle_107492.htm confirme à peu près ce qu'avance Picketti, environ 6% de rentabilité pour le capital après impôts, et 3% de croissance mondiale. Ça ne fait qu'un différentiel de 3%, c'est déja pas mal et assez problématique, pas besoin d'en rajouter non plus.
De toutes manières, il suffit que la rentabilité du capital soit la même pour les pauvres et pour les riches pour que les différentiels de patrimoine augmentent : si le petit studio du pauvre passe de 100,000€ à 110,000€ pendant que la grande baraque du bourgeois du coin passe de 1,000,000€ à 1,100,000€, le riche a 90,000€ de plus que le pauvre. Pour contrer le phénomène, il faudrait une redistribution tellement forte qu'elle pourrait s'apparenter à de la spoliation, qui n'est pas admise par la constitution de toutes manières.
# Tendance?
Posté par arnaudus . En réponse au lien En France, toujours plus de pauvres, les riches bien plus riches : ça ruisselle mais ça imbibe pas !. Évalué à 5.
J'ai l'impression que seuls les chiffres de 2018 sont commentés ici, parce que la stagnation des inégalités semblait quand même acquise en France depuis quelques décennies (https://www.inegalites.fr/Les-inegalites-de-niveau-de-vie-en-voie-de-stabilisation). Avant de s'offusquer, il faudrait quand même vérifier s'il s'est réellement passé quelque chose depuis 2018.
Au passage, les milliardaires sont très très riches mais ils ne peuvent pas liquider leur patrimoine, donc à part pour faire les titres des journaux et les classements pour riches qui veulent savoir qui pisse le plus loin, ça ne veut absolument rien dire. Si je te donne un milliard d'Euros d'actifs que tu ne peux pas vendre, tu es dans les faits toujours aussi pauvre qu'avant. Ça serait plus intéressant de savoir quel est le revenu qu'ils tirent de ce patrimoine (ça va aussi être beaucoup, mais ça va être moins disproportionné que les écarts de patrimoine; par exemple, si tu as 1 Mrd € de patrimoine qui te rapporte 3%, ça te fait 30 millions de revenus par an. Le revenu médian en France est d'environ 19k€/an, le patrimoine médian est à 114k€; avec notre milliardaire théorique, ça fait un rapport d'environ 1/1500 en revenu, et d'environ 1/9000 en patrimoine. Donc, il y a en gros un ordre de grandeur entre les deux; c'est sûr qu'on choque plus le pékin moyen en faisant les rapports de patrimoine que les rapports de revenus.
Ça ne veut pas dire que les rapports de revenus ne sont pas énormes dans l'absolu, hein, mais c'est juste débile de comparer les patrimoines sans plus de précaution. Le patrimoine, c'est chiant à comparer : il faut corriger pour l'âge (les plus riches sont aussi les plus vieux, les plus pauvres sont les plus jeunes, et comme le patrimoine se transmet principalement par héritage, il faut normaliser sinon c'est n'importe quoi), il y a beaucoup de gens qui ont un patrimoine de zéro (donc tout de suite, les ratios sont gigantesques si on choisit bien ses déciles). Il faut aussi savoir que les calculs de patrimoine de l'INSEE ne retirent pas l'endettement, on peut donc avoir un gros patrimoine tout en étant surendetté. Et quand on achète un bien immobilier, on peut multiplier son patrimoine par 100 du jour au lendemain. Étonnant, non?
En fait, on est typiquement dans la com' d'organismes et d'institutions qui ont un "agenda". Oxfam veut mettre en avant que les inégalités augmentent pour des raisons politiques, et sortent donc une analyse de leur chapeau pour montrer ça. Le gouvernement veut montrer que ça n'augmente pas (ils n'ont quand même pas l'indécence d'essayer de prétendre que ça diminue), et donc avec les mêmes données ils vont arriver à un résultat opposé. Tout cela n'est pas très informatif.
[^] # Re: Deux types de coûts
Posté par arnaudus . En réponse au journal Facturer comme un chirurgien. Évalué à 4.
Bah oui, c'est bien ça le problème : quand tu as la chance d'être rare (de part tes compétences, ton activité, ou pour n'importe quelle raison d'ailleurs), tu peux facturer le prix max que tes clients sont prêts à payer, qui peut être complètement décorrélé de tes coûts à toi. En théorie, c'est une situation qui ne devrait pas exister (puisque de telles marges potentielles devraient faire venir les concurrents), mais dans la réalité, ça existe.
# Deux types de coûts
Posté par arnaudus . En réponse au journal Facturer comme un chirurgien. Évalué à 3.
En fait, pour simplifier, il existe deux types de prix pour un service ou un produit. Le prix que tu pourrais facturer pour gagner ta vie «honnêtement», et le prix que le client serait prêt à payer. Dans une économie de marché parfaite, les deux devraient coïncider : la concurrence libre et non faussée, l'information parfaite du client, etc. devrait faire que les prestataires devraient s'aligner sur le coût de revient + un bénéfice minimal, et les clients devraient choisir le prestataire le moins cher pour un niveau de prestation donné.
Le problème est qu'on ne vit pas dans une telle économie, et que les deux prix peuvent diverger. Quand le client est prêt à payer moins que le prix minimal (parce que le service a peu de valeur à ses yeux, par ex. la presse quotidienne, ou parce qu'il y a des distorsions de concurrence qui fait que certains vendent sous leurs coûts de production, comme l'agriculture), alors l'activité s'écroule ou devient dépendante de subventions publiques. Quand au contraire l'offre est très inférieure à la demande (domaine récent, offre limitée artificiellement comme pour l'exemple de ton chirurgien, ou question de survie), alors les prix peuvent devenir n'importe quoi). J'ai l'impression que ta situation est celle d'un chamelier qui vend des bouteilles d'eau à des gens perdus dans le désert. Si tu es tout seul, ta bouteille, tu peux la vendre 100€, 1000€, 10000€ peut-être. La seule manière d'équilibrer la situation serait d'avoir plein de concurrents.
[^] # Re: A mon avis, pour que ça aboutisse à ce stade ...
Posté par arnaudus . En réponse au journal Courrier à mon député : jugement rendu récemment sur la redevance sur la diffusion de musique libre. Évalué à 2.
La SACEM aussi utilise "libre de droit" pour parler des titres qui ne sont pas au catalogue SACEM. Je pense que dans ce contexte, ça veut simplement dire que ces titres sont libres des droits gérés par les sociétés d'auteur-compositeur-interprètes ou assimilés. D'ailleurs, pour le catalogue Jamendo, il fallait payer à Jamendo le droit de diffuser ces titres de manière illimitée, donc ces titres sont bien "libres de droits" dans le sens "droits gérés", mais pas graduits.