Si je comprends bien le défaut principal restant même pour les produits libres, c’est que les parties spécifiques au matériel ne sont pas intégrées pleinement à l’OS ou aux noyaux, et que la compatibilité fini par casser ?
C'est une partie du problème, loin d'être négligeable.
Du coup, peut-on supposer que, le jour où un constructeur intégrera complètement le support de son ordiphone dans le noyau et n’ajoutera rien en surcouche magique sur l’OS libre, ce téléphone bénéficiera de fait de mises à jour quasi indéfinie à la manière d’un PC ?
En théorie, oui.
Après il y a parfois du travail qui ne sera probablement jamais accepté par exemple par le noyau Linux. D'ailleurs le noyau d'Android de référence reste maintenu par Google, certains correctifs sont encore en dehors de Linux lui même. Même s'il y a eu et a encore des tentatives de résoudre cela, le noyau Linux ne veut pas recevoir des correctifs un peu crades ou qui ont un impact trop large en dehors de la cible d'Android.
Quand je regarde les OS qui ont récupérer des bases d'Android (genre Sailfish OS) ou Lineage OS par le passé, la compatibilité était rarement parfaite. La base fonctionnait, mais pas forcément les mêmes perfs, des fonctions potentiellement en moins (à une époque ça pouvait être la radio, de nos jours c'est plutôt l'exploitation des multiples caméras) puis sans la surcouche constructeur qui parfois donne accès aux fonctionnalités de l'appareil (dont les caméras par exemple).
Du coup peut être que ça fonctionne pour les cas courants, mais en mode dégradé tout de même.
mais la seule conclusion logique qui semble s'en dégager est que seule une gestion autoritaire ou monopolistique permettrait de gérer efficacement le problème.
Pas du tout. Typiquement j'ai pointé des exemples concrets de ce qui peut être fait pour simplifier cela.
Il faut faire en sorte de faciliter les montés de version. Par la collaboration aux projets en amont, genre Qualcomm qui essaye de pousser un max dans le noyau Linux officiel. Les industriels qui essayent d'avoir une bonne pratique de collaboration pour notamment maintenir certaines bibliothèques ou pièces maitresses pendant une certaine durée, etc.
De toute façon même dans le cas de Microsoft la situation n'est pas triviale non plus. Il y a un écosystème autour de Windows, que ce soit matériel ou logiciel, la compatibilité ascendante à maintenir, etc. Ce n'est pas une solution miracle, mais ça demande des actions et un minimum de concertation et de collaboration.
Et à la fin les produits seront plus chers. C'est inévitable. Le téléphone bas de gamme n'a pas beaucoup d'avenir pour un suivi à long terme de qualité. Ou il faut passer à un modèle de mises à jour payantes.
Pas besoin de gérer les anciennes versions, pas besoin de patcher, la montée des versions se fait de manière synchronisée avec l'OS, et de toutes manières à quoi bon boucher les trous des vieilles versions des logiciels quand ces versions tournent sur un OS obsolète et troué?
Windows a une bonne compatibilité ascendante dans l'ensemble. En particulier depuis Vista.
Certaines applications devaient s'adapter, en particulier les pilotes, mais ce n'était pas nécessaire pour tout le monde. Cela dépendait parfois aussi du lien avec le système, plus tu en étais indépendant, moins c'était nécessaire.
Bah du coup on ne contrôle même plus les mises à jour des zillions de dépendances de chaque logiciel. C'est comme considérer que l'amputation est une solution à un problème de cor au pied : en effet, le problème a disparu.
Pas forcément.
Cela permet en effet de garder une application non maintenue en vie, ce qui est parfois utile pour certains utilisateurs le temps de trouver une alternative.
Mais cela permet aussi de réduire le couplage entre eux avec les soucis associés. Faire en sorte que des milliers de logiciels utilisent la même version de OpenSSL en même temps est une tâche difficile, car les développeurs de ces logiciels ont rarement testé la même version durant leur développement. Et parfois il y a des régressions ou incompatibilités. Du coup la distro passe derrière pour patcher tout ce beau monde mais c'est beaucoup d'efforts et temps consacré à une tâche finalement ingrate et imparfaite.
En autorisant le fait que ce soit chacun sa version, on garde en commun ce qui est possible (en tout cas avec les runtimes de Flatpak), on peut les mettre dans un bac à sable pour réduire l'impact d'un soucis de sécurité, et on laisse au développeur principal de garantir la compatibilité avec une version plus récente. En gros tu permets de déléguer la tâche dévolue partiellement aux distro aux développeurs eux mêmes. Et tu peux faciliter la coopération. Demain ma Fedora elle peut exécuter un Flatpak un programme tiers testé et validé sous Ubuntu. Et je l'importe tel quel. Tu peux en gros créer un super dépôt commun des applications hauts niveaux ce qui évite que chacun fasse et refasse le même travail dans son coin. Un peu comme systemd a permis de nettoyé un peu les jungle des scripts init à son époque et de standardiser certains comportements du système.
Ce n'est donc pas une solution technique qui consiste à cacher le problème sous le tapis, cela répond réellement à ce genre de difficultés. Car il n'y a pas 20 000 solutions, et aucune d'elle n'est parfaite.
Mais les deux aspects sont mélangés dans la vrai vie aussi.
Par exemple quand OpenSSL 1.1.x n'est plus maintenu par l'équipe de développement et qu'il faut passer à OpenSSL 3.x, tu fais quoi ? Rester sur une vieilles bibliothèques avec potentiellement des failles pas corrigées ? Ce n'est pas une bonne réponse. Et passer à OpenSSL 3.x qui a une rupture de compatibilité avec sa précédente version t'ouvre la porte à des problèmes de compatibilité avec ton logiciel existant ce qui implique potentiellement un travail énorme sur des composants que tu ne maitrises pas. C'est là qu'on voit la difficulté de maintenir un OS complet dans le temps, dont une distribution Linux, ce sont des problématiques qu'ils voient tout le temps et ils doivent arbitrer.
Et là j'ai pris l'exemple de OpenSSL, mais tu as ça pour tout, que ce soit les bibliothèques de base (dont glibc), les langages de programmation comme Python 2, le noyau, etc.
C'est vraiment difficile et je dirais même infaisable sans une armée de développeurs et de testeurs dédiés.
Si tu souhaites une maintenance sur la durée, donc au delà de 1-2 ans, tu auras ce problème tôt ou tard quelque part. Et probablement un peu partout à la fois.
Puis tu as un autre soucis, la compatibilité des applications. Google fourni de plus en plus d'API, que ce soit de sécurité ou de fonctionnalités pour les applications Android. C'est bien, mais du coup si tu veux que ton téléphone puisse exécuter l'application de ta banque, il faudra probablement une version pas trop ancienne. Donc tu ne peux pas rester avec ton Android 4.4 maintenu à bout de bras avec tes petites mains, si tu veux exploiter les fonctionnalités de ces applications tierces il faudra aussi passer à des versions d'Android plus récentes.
Pour être confronté à cette problématique au boulot dans un contexte bien plus facile je vois bien la difficulté de la tâche, ce n'est pas se chercher des excuses, mais l'écosystème n'a rien que permette de faire ça facilement. Les projets ne sont pas synchronisés, chacun fait à sa sauce dans son coin (Python 2 est abandonné à une date différente de OpenSSL 1.1, et Linux n'a pas d'API stable dans le temps, etc.), il n'y a pas une armée de développeurs pour gérer ces problèmes pour les industriels consommateurs de ces produits, etc.
Ceux qui font ça ce sont les distributions Linux, et on voit la galère que c'est pour eux, et ils sont très nombreux à le faire. Red Hat c'est aussi beaucoup de monde qui fait ça et difficilement et même parfois ils décident de passer à des versions majeurs en cours de route car maintenir sans bouger pendant 10 ans c'est difficile. Et ce n'est pas pour rien que Snap et Flatpak poussent et sont poussés car ça résout certaines de ces difficultés de maintenance.
Ce n'est pas un hasard non plus si Mark Shuttleworth a une époque avait lancée une idée polémique de synchroniser certains projets majeurs de l'éco-système sur le rythme de publication d'Ubuntu. Cela a fait jaser, mais sur le fond il a pointé un vrai problème qui n'a jamais été résolu.
un smartphone c'est un produit, pas un prototype posé sur ton bureau. faut tout tester, tester et retester. les mises à jour c'est la peur du brickage à distance. dès que les mises à jour sont importantes, c'est parano-land.
Ah les produits IoTs où il faut s'assurer que la machine fonctionnera en toute condition, c'est merveilleux de stress aussi par moment. :)
Non ça ce serait une mauvaise idée. Ce qu'on veut faciliter c'est la maintenance à long terme du noyau Linux. Et pour ça il faut pouvoir changer le code interne du noyau sans être figé par la façon de travailler dégueulasse des constructeurs.
Ce n'est pas si simple. Ce débat est déjà revenu régulièrement pour le noyau et ressortira probablement beaucoup à l'avenir. Car ce n'est pas qu'une histoire d'être dégueulasse ou pas. Mais devoir adapter ses pilotes régulièrement car le noyau change tout tout le temps ce n'est pas non plus terrible, et cela concerne les développeurs du noyau eux mêmes. Ceux qui en souffrent le plus sont probablement aussi ceux qui veulent récupérer un code d'un noyau 5.0 pour le mettre sur une version LTS plus ancienne. Que ce soit un nouveau pilote ou un correctif quelconque. Cela peut vite être fastidieux.
Le but n'est pas de bloquer toute l'API interne, ni de bloquer pour toujours. Mais de poser des jalons, par exemple que le changement X soit repoussé de 12 mois car son impact serait trop important pour le reste de l'écosystème. Et appliquer ce principe de manière différenciée, qu'un truc purement interne change est moins impactant que l'interface qui décrit l'interface standard entre le noyau et un sous système, par exemple celui pour décrire les pilotes I2C, SPI, etc.
Ce sont des possibilités qui font sens pour l'industrie et le noyau lui même, même s'ils ne semblent pas prendre cette direction rien n'est gravé dans le marbre. À une époque c'était d'ailleurs presque le cas avec les versions majeurs du noyau ce qui ne se fait plus depuis la branche 2.6.
EDIT : d'ailleurs ta logique ouvre la porte à ce que l'ABI du noyau puisse changer sans être rétrocompatible avec l'existant, ce que Torvalds refuse mais en pratique la notion même d'ABI fait débat et il a fallu parfois tordre un peu la règle pour pouvoir faire un changement nécessaire. Il ne faut pas adopter des postures idéologiques sur ces questions, il y a des avantages et inconvénients dans chaque pratique et il faut savoir s'adapter aux situations du quotidien, et l'API instable apporte son lot de contraintes pour tout le monde.
Oui et non. Je pense surtout qu'il y a un soucis de culture à changer.
Déjà pour raisons environnementales nous souhaitons (et avons besoins) de quitter la logique des produits jetables. Il faut assurer la réparabilité et la possibilité de s'en servir sur le long terme.
Ensuite, la logique du logiciel fixe une fois le produit vendu faisait sens quand les produits étaient hors lignes. Que mon lave linge n'ait pas de mise à jour de son logiciel durant sa durée de vie n'a globalement pas une grande importance. Il est hors ligne, les questions de failles de sécurité ou de compatibilité diverses n'existent pas. Le matériel + logiciel peut vivre ainsi pendant 10 ans sans broncher, même 100 ans en fait. Tant que les prises et l'alimentation électrique ne changent pas.
Par contre pour un produit en ligne, dont les téléphone, cette logique ne fonctionne plus. Les failles de sécurité sont un vrai problème, on y installe des logiciels tiers facilement qui évoluent dans leur coin. Donc on est confronté à un besoin de mise à jour nécessaire du système lui même, et d'assurer la compatibilité avec des produits tiers pas forcément disponibles au moment de la vente initiale et qui évoluent indépendamment de celui-ci. Cela demande un suivi et donc des équipes dédiées et une autre logique commerciale.
C'est relativement nouveau dans le milieu industriel, la prise en compte de ce phénomène est récent et c'est de fait encore trop longtemps négligé. Il faudrait que cela bouge plus, mais ça commence doucement malgré tout.
J'avais cru comprendre que le problème des ordiphones était lié à la non standardisation et au fait que les pilotes soient fermés : il leur faut un un OS spécifique, et des pilotes que seul le constructeur distribue. Donc s'il s'arrête, plus de mises à jour.
Il y a plusieurs problèmes.
Tout d'abord sur nos PCs, on a le BIOS / UEFI qui standardisent certaines interactions bas niveau et l'initialisation. C'est bien plus simple pour avoir un système unique qui fonctionne presque partout. Et de nos jours, beaucoup de protocoles gèrent la découverte du matériel à chaud comme PCIe, USB, etc.
Sur téléphone ce n'est pas le cas (ou disons moins le cas). Le matériel sur processeurs ARM doit souvent être décrit via un fichier spécial nommé device tree qui doit être chargé par le noyau pour charger les pilotes en guise de découverte du matériel.
Ensuite, chaque constructeur a sa couche bas niveau. Par exemple quand tu achètes un processeur Qualcomm quand tu t'appelles Sony, tu reçois le processeur évidemment mais aussi un noyau et quelques autres composants autour pour que tu puisses l'intégrer. Le noyau en particulier est très personnalisé, tu as des pilotes maison, des hacks ou autres correctifs pour optimiser les perfs ou certaines fonctionnalités. Seulement comme le noyau n'a pas une API interne stable et que ces correctifs n'intègrent pas le noyau officiel, tu as beau avoir les sources de ces changements, porter cela sur une version plus récente cela demande beaucoup de travail et de vérifications. Et comme Qualcomm et compagnie sont en mode je fournis et tu te démerdes les mises à jour sont rapidement difficiles.
Puis pendant longtemps comme tout le monde s'en foutait, il n'y a pas eu de gros efforts faits pour simplifier la tâche. Mais cela bouge doucement. Le noyau a des versions LTS prévisibles ce qui facilite la tâche pour les fondeurs type Qualcomm de faire leur travail sur un noyau qui va durer longtemps sans devoir faire la mise à jour du noyau dans une autre version tous les 4 matins. Google a travaillé pour rendre ses couches basses plus indépendantes des couches basses du constructeur pour qu'au moins tu puisses avoir un Android récent sur un noyau plus ancien. Je ne sais pas où s'en est et concrètement si cela fonctionne bien. Ils ont fait de même pour retirer certains trucs de ASOP pour les mettre dans leur service Google Play afin de ne pas trop être perturber par les surcouches constructeurs non plus. Et des constructeurs semblent vouloir faire un effort pour augmenter la durée des mises à jour comme Google et Samsung, mais certains s'en foutent encore royalement en particulier dans le bas de gamme.
Qu'est-ce qui pourrait être fait pour simplifier la tâche ? Déjà les constructeurs de puce pourraient mieux travailler avec les projets type Linux pour pousser leur travail plutôt que d'être en mode jetable. Il paraît qu'il y a eu un effort mais là encore j'ignore l'effectivité. Le noyau pourrait aussi assouplir sa politique vis à vis de l'API interne pour rendre cela plus stable et simplifier la maintenance à long terme pour les constructeurs. Les industriels pourraient aussi plus exploiter l'UEFI et des protocoles matériels plus adaptés pour rendre la plateforme ARM plus générique et simple pour le noyau et le système au dessus.
mais ça n'a pas besoin d'être pénible à ouvrir ou à retirer.
Ils ont fait un arbitrage, j'ignore la raison mais ça m'étonnerait que le but soit juste de rendre l'opération pénible.
L'exemple de la vieille Toyota utilisée au Cameroun n'est pas anodin, ces autos subissent des conditions bien pires que nos voitures récentes. Et y résistent très bien, pourtant elles sont très, très faciles à réparer.
Après les moteurs et les composants autour ont changé aussi. En mécanique on prévoit moins de marges de sécurité sur la taille des composants pour gagner du poids ce qui peut avoir un effet sur la fiabilité aussi.
Je ne sais pas pourquoi ça a été décidé, j'ai émis des hypothèses crédibles. Car ajouter de la complexité pour aucun gain, ça n'a aucun intérêt. Je ne vois pas pourquoi le constructeur ferait ça sans raisons.
Mais simplement que c'est fait sans se soucier le moins du monde de la réparabilité. Avec une priorité à des trucs moins importants. J'ai des exemples, hors de l'automobile, où on pouvait constater que des décisions avaient été prises en donnant la priorité au design par rapport à la praticité : à mon avis, ça doit être pareil dans l'industrie auto.
Je pense que le vrai sujet il est là : on doit blâmer l'arbitrage effectué. Pas forcément la conception elle même. C'est une question d'évaluer les priorités de tout à chacun. On peut regretter par exemple une détérioration de la réparabilité pour un gain esthétique mineur.
Mais des voitures faciles à réparer, on sait toujours en faire il me semble. Seulement, c'est moins cher. Oui oui, vous avez bien lu, moins cher, pas plus cher. Dacia Logan.
C'est trompeur de dire que Dacia est moins cher car c'est facile à réparer.
Dacia a juste un équipement standard, un peu ancien et très éprouvé. C'est ça qui permet de baisser les coûts et d'améliorer aussi la fiabilité (car pas de nouveautés).
C'est un choix de stratégie, qui à mon sens est très pertinent. Mais clairement si ton but est d'avoir le plus de conforts possibles ou des innovations techniques, ce n'est pas chez eux que tu iras. Il en faut pour tous les goûts, et le succès de Dacia montre que ce compromis intéresse beaucoup de personnes et c'est tant mieux.
Ce que je trouve incroyable, c'est que les constructeurs automobiles ont des garages auto, avec des garagistes qui doivent souffrir au quotidien des difficultés de réparation. Lorsqu'on aime la mécanique, passer une heure à démonter un tas de trucs juste pour avoir accès à un filtre à air n'a rien de plaisant. C'est du temps facturé, certes, mais même en étant payé pour, passer du temps à effectuer un travail fastidieux pour pallier des défauts de conception d'un appareil n'a rien de satisfaisant, c'est même plutôt frustrant.
Qui te dit que c'est un problème de conception ?
La but d'un compartiment moteur n'est pas que d'être facile d'accès pour effectuer des réparations ou changements de pièces. Ce serait trop facile s'il n'y avait qu'un seul critère.
Il y a la question de protéger les composants des conditions climatiques, de l'humidité, des chocs éventuels ou des vibrations éventuellement. Il y a des impératifs de sécurité, il faut aussi minimiser le coût de production, contenir la taille du bloc moteur pour potentiellement dégager de l'espace pour d'autres composants ou l'habitacle, etc.
C'est ce qui rend l'ingénierie intéressant, composer avec des tas de contraintes souvent contradictoires entre elles.
La faciliter la réparation n'est qu'un critère parmi d'autres. Et on ignore bien souvent ce qui a mené à ces décisions.
Car bon, techniquement ajouter des caches de partout qu'il faut retirer pour réparer, les installer et les produire ont un coût, s'ils étaient inutiles (voire même contre productif) ils ne les mettraient pas en premier lieu.
De nouveau, cette cadence du 2eme mardi du mois ne vient pas de MS mais de demandes d'entreprises car cela simplifie leurs tests. On faisait les patchs sans cadence avant, c'est à la suite de demandes d'entreprises que l'on a changé.
Je comprends bien la problématique pour certains clients, mais dans ce cas, pourquoi ne pas fournir les correctifs au fil de l'eau avec une option dans Windows Update ou que sais-je qui ne récupère un lot de correctifs qu'une fois tous les mois ?
Les GES en excès dans l'atmosphère à cause de l'activité humaine induit un excès d'énergie dans l'atmosphère (donc un réchauffement climatique global) dont l'effet est de changer le climat de diverses façons par rapport au précédent point d'équilibre.
Cette causalité est dans ce sens, je ne vois pas trop ce qui est discutable à ce sujet.
Bon sujet pour un vendredi mais même sans volonté trollesque, on m'a régulièrement repris ces derniers temps quand j'utilise le terme réchauffement climatique qui serait moins approprié parce que ce n'est qu'une conséquence parmi d'autres d'un dérèglement climatique qui localement peut se traduire par un refroidissement.
En fait c'est un réchauffement climatique global de la Terre, le mot important étant global. Ce point là est juste et est la cause du dérèglement climatique avec des phénomènes divers dont un refroidissement localisé parfois.
Le soucis est que le mot global est souvent omis et pas mal de personnes du coup voient en tout froid un peu violent comme une preuve que cela n'existe pas (souvenons-nous de Trump lors d'une tempête de neige aux USA).
Donc l'expression réchauffement climatique est bel est bien correct, mais il est vrai qu'il donne une mauvaise appréciation du problème quand on ne connaît pas le sujet, d'où le fait que certains poussent pour dérèglement climatique qui s'attarde moins sur la cause mais plutôt sur les conséquences pour nous.
Prioritaire et garantie de distribution sont deux choses différentes, non ?
Oui, et c'est en général ce second point qui est encore obligatoire dans certaines procédures.
La première n'est en aucun cas nécessaire.
Par ailleurs, ton expérience personnelle de l'utilité d'un service prioritaire n'est pas forcément généralisable.
C'est pour ça que je demande un exemple réel où le courrier prioritaire est nécessaire. Car je n'en vois pas.
Car c'est bien de dire que c'est du coup cher et une baisse de qualité de service public, mais si c'est pour quelque chose de dispensable à dire vrai, ce n'est pas un problème. D'où la nécessité de recentrer le débat sur : le timbre rouge a quelle utilité concrète ?
J'en doute. Dans tous les lieux où j'ai habité il n'y avait qu'une seule tournée quotidienne, lettres prioritaires ou pas.
Il y a des coins où la fréquence diminue justement car pas de lettres prioritaires.
De plus, un facteur qui délivre les lettres prioritaires doit s'arrêter plus souvent, ce qui prend du temps, use la mécanique et consomme du carburant. Cela a donc un coût, moins il en a à distribuer, moins ça coûte cher. Et si on parvient à supprimer les lettres prioritaires, sa tournée serait significativement plus courte et potentiellement il n'aurait pas à faire la tournée tous les jours.
Donc ça a un impact, la différence entre les deux n'est pas que pour faire jolie, il y a bien une différence pratique.
En même temps le courrier prioritaire n'a pas un grand intérêt intérêt.
Si tu veux la garantie de distribution et de réception, tu passes par un recommandé avec accusé de réception, qui est celui qui a une utilité légale. Le reste ce sont des courriers plus classiques, et perso depuis 10 ans que cela soit distribué en un ou trois jours n'a jamais eu aucune importance quelque soit le cas de figure que j'ai rencontré.
Alors que cela coûte cher, et écologiquement c'est moins bon car cela implique des tournées à fréquence plus élevée pour les distribuer, alors qu'il y a de moins en moins de courriers envoyés pour maintenir des prix bas de cette opération.
Donc rendre cela moins attractif pour forcer le passage au timbre vert ne me paraît pas déconnant en fait. Quelle est la justification pour maintenir ce timbre rouge ? En quoi sa baisse d'attractivité est un vrai problème de service public ? Car j'ai beau réfléchir, je ne vois pas.
C'est un processus assez courant aux USA mais pas dénués de sens pour autant.
Un procès c'est long et incertain pour les deux partis. Car rien ne dit que Facebook aurait été reconnu coupable, ni même que la sanction aurait été plus élevée que ce qui est stipulé dans l'accord.
Car s'il semble clair que Facebook a merdé, peut être que les preuves recevables n'étaient pas si forts que cela pour remporter un procès, surtout si cela se passe devant un jury populaire ce qui est courant là bas. Peut être que Facebook avait aussi de bons arguments pour échapper à la condamnation ou avoir une sentence plus légère.
Comme on n'a pas le dossier complet sous la main, et que nous ne sommes clairement pas des experts du droit américain (déjà que le droit français c'est coton), c'est difficile de s'y prononcer.
Ici en un sens tout le monde est un peu gagnant. Facebook s'en tire malgré tout avec une sanction pas si faible (bien que pas si forte non plus) qu'elle devra forcément payer. Mais l'entreprise échappe potentiellement à pire pour son image et son compte en banque. Et pour l'État au moins Facebook a payé et cela peut servir d'avertissement aussi.
Par contre j'espère que si une affaire d'envergure similaire les concernant fait surface, ça ira au bout…
Un facteur 3, sur un budget en millions, est loin d'être une incertitude négligeable. C'est un peu comme pas savoir si on va avoir 10 millions de personnes qui vont venir manger à la maison ou pas. (c'est petit face au total, mais ça reste grand en valeur absolue, ce qui montre à quel point l'imprecision est grande)
La valeur absolue en elle même n'a pas beaucoup d'importance. Il faut toujours rationaliser le coût.
Car une facture de 1 milliard d'euros (exemple au pif) payée par 60 millions d'habitants ou 10 personnes ça n'a pas le même impact. Même si en valeur absolue c'est important.
Dans le cas qui nous intéresse, il faut ramener cela au coût de l'électricité vendue sur la durée de vie de la centrale et aux nombres de personnes qui en bénéficient.
Note, je n'ai pas dit que l'incertitude était négligeable, mais cela n'empêche pas que cela soit gérable et c'est ce point qui est important.
Attends, t'es vraiment en train d'expliquer que tes interlocuteurs, quand ils disent que le coût de démantèlement a un impact, ils prétendent, par exemple, que doubler le coût de démantèlement va multiplier le coût de l'électricité par 382'000 ?
Non, ce n'est pas ce que je dis car personne ne l'a dit. Par contre quand on dit que cela n'a jamais été fait cela induit bien des fantasmes.
PERSONNE ne s'attend à ce que l'augmentation du coût se répercute à 100%. Reste que, oui, ça se répercute et ça a un coût. Et 30%, c'est bel et bien l'impact majeur qu'on pourrait penser.
C'est un impact important mais manifestement gérable car… bien des pays vivent avec un tel coût depuis des années.
C'est je pense là notre point de divergence depuis le début. En soit ce n'est pas grave, c'est une question d'appréciation.
Tu ne manques pas de culot: tu reproches à Maderios de ne pas mentionner le fait que les démantèlements existent aux USA (alors que le reste de ce qu'il dit est factuellement vrai), mais tu n'as aucun problème à tourner un raisonnement qui laisse le lecteur penser que les coûts du capital sont négligeables face au coûts opérationnels (alors que maintenant selon ton propre calcul, le coût reste majoritairement issu du coût du capital).
Je n'ai dit nul part que le coût en capital était négligeable car justement je précise bien que c'est quand même environ 60% du coût total (voire un peu moins). Tu le dis toi même, sois cohérent.
(Après, oui, j'aurais du rajouter ces coûts (pas sûr des valeurs que tu utilises, par contre), mais ce que je voulais expliquer, c'est que c'est pas comme avec le gaz, ou comme dans une boulangerie, où le coût est dominé par le coût opérationnel et où ton argument s'appliquerait bien)
Pour moi il y a différentes choses.
Le nucléaire c'est beaucoup de capital mais aussi beaucoup d'opérationnel (car bon, l'opérationnel c'est minimum un tiers du total, ce n'est pas rien). Mais par contre le combustible est lui négligeable (du genre 2% voire moins). Le gaz c'est beaucoup de combustible, ce qui est vrai, en gros il est très intéressant de potentiellement ouvrir une centrale à gaz mais de ne pas l'allumer longtemps. Ce qui serait idiot à faire avec une centrale nucléaire.
Attention à ne pas confondre le coût de production et le prix sur le marché (qui est le résultat d'éléments bien plus complexes, avec, notamment, les subventions et le LCOE).
Évidemment, le coût de l'électricité est très complexe, mais disons que cela donne une base. Même en admettant un surcoût élevé au kWh, l'électricité française étant jusqu'ici assez peu chère finalement on pourrait payer la facture même dans un scénario pas très sympa niveau surcoût. Car comme tu le dis, un facteur 3 cela reste important.
Attends, tu en arrives à dire que le coût du démantèlement contribue à 30% au coût de l’électricité, ce qui contredit ce que tu avançais plus tôt, et tu es en train de me demander de contredire ce que j'ai pointé du doigt depuis le début.
C'était une évaluation de coin de table pessimiste, pour montrer que on peut techniquement payer plus si nécessaire et qu'il est assez improbable que cela aille au delà. Mais si tu penses que ces scénarios sont très plausibles, oui je suis intéressé par des liens car je n'ai pas vu de projections au delà. Donc oui ça m'intéresse de voir ça.
Ensuite, non, je ne vais pas chercher les documents pour toi.
Tu pourrais au moins guider où chercher pour trouver la dite info. ;)
Deuxièmement, en général, ces infos ne sont même pas présentées comme ça, car les professionnels du secteur, surprise !, s'en foutent de vos petites gueguerres de gamins pro- vs anti-nucléaire. Ils se penchent sur des cas concrets et basent leurs conclusions sur les faits, pas sur compter le score entre pro-/anti-nucléaire. Ainsi, par exemple, tu ne trouveras pas de texte disant "évidemment, pour ce projet, on ne va pas se baser sur les coûts actuels pour faire une projection, vu les incertitudes notamment sur le coût de démantélement", de la même manière qu'il n'y a pas "évidemment, pour ce projet, on ne va as se baser sur les nombres de followers de mon voisin Raymond pour faire une projection". C'est un peu comme ces anti-vaxx ou ces terre-platistes qui pensent qu'on sort un papier tout les jours pour démontrer la petite lubie qu'ils ont dans leur tête (et que si un tel papier n'existe pas, c'est donc qu'ils ont raison quand ils disent que la communauté scientifique est d'accord avec eux).
Alors, ce que tu dis est inquiétant. Inquiétant car cela signifie que ces productions sont cachées ou du moins confidentiellement diffusées, que les parlementaires et l'État quand ils évaluent les coûts ils se basent sur des données invalides sans consulter les personnes du domaine.
C'est bizarre car ils interrogent du monde pourtant pour cela. Donc oui, j'ose espérer que ces productions existent quelque part et pourquoi ces rapports seraient dans ce cas trop optimistes encore.
Puis après je pense malgré tout que c'est le rôle de tout scientifique qui se respecte d'intervenir dans le débat public pour donner de quoi prendre des décisions éclairées.
Qu'ils ne trollent pas sur Twitter je le comprends parfaitement, mais j'ai du mal à comprendre le reste.
Selon tes propres calculs, tu en arrives à 30% sur quelque chose qui peut bouger d'un facteur 3. Donc, oui, selon tes propres calculs, le coût de l'électricité est très peu représentatif pour pouvoir conclure quoi que ce soit.
C'est un scénario volontairement pessimiste… Mais bon fais semblant de ne pas comprendre.
Ça se voit dans cette discussion, où le goal-post n'arrête pas de glisser. C'est va de "non rien à voir, le coût de démantèlement sont hyper prédictables et ont un impact négligeable" à "un facteur de maximum 3 et un impact de juste LE PUTAIN DE TIERS DU PAQUET".
Manifestement tu ne comprends pas mon propos, je vais en arrêter là.
Je t'ai déjà vu ici parler de nucléaire, et tu sors régulièrement des arguments bidons et tu n'as jamais dit une seule chose de négatif pour le nucléaire comme si ça t'était inconcevable.
Je ne descends pas le nucléaire car globalement ici je ne vois passer que des liens qui ont une rhétorique anti nucléaires. Je ne vais pas aller ressortir les lieux communs où tout le monde est d'accord, cela apporte quoi ? Rien. Évidemment que le sujet des déchets est délicat, évidemment qu'il y a des coûts importants, qu'il y a de la latence à le produire, qu'on dépend aussi d'un combustible qu'on n'a pas sur notre territoire (bon après c'est le cas pour tout en fait, dommage), que le risque d'accident n'est pas nul et que cela peut impacter des millions de personnes. Je ne le dis pas le contraire, je ne le nierais jamais.
D'autant que bon, je ne suis pas pro nucléaire, je suis pro décarbonation. Demain on parvient à bâtir un réseau électrique décarboné, à un coût acceptable et sans risques supplémentaires et dans des délais tels que le réchauffement climatique n'est pas un problème, je prône son abandon immédiat. Mais malheureusement nous y sommes pas (encore ?). Et je suis convaincu que le réchauffement climatique sur tous ces points surpassent les risques liés au nucléaire. C'est ma position à ce jour et ça peut changer. Du coup typiquement je suis également pour toute sorte d'énergie renouvelable et baisse de consommation. Car cela va dans mon but même si ça entraine apr exemple une baisse du nucléaire.
D'où le fait que je suis vraiment intéressé si tu as des éléments produits ou lus par tes collègues car c'est effectivement quelque chose que je n'ai pas lu jusqu'ici et ça m'intéresse réellement. Mais bon si tu préfères continuer à me troller je vais en effet arrêter là car manifestement tu ne comprends pas mon propos ni mon intention.
Surprise: félicitations, t'es tout aussi stupide que la personne à laquelle tu te croyais supérieur (là encore, une maladie répandue chez les "pro-nucléaires" français (précision: les guillemets sont importants)).
Je ne me prétends pas supérieur, je prétends qu'il manipule en cachant un élément important dont il a connaissance. Ce n'est pas pareil. Et j'assume cela.
Mais dans ce cas la solution est dans le système de permissions.
Tu indiques à l'utilisateur qu'il faut accorder l'accès au système de fichier (comme c'est fait pour les applications mobiles) et voilà, tu as accès aux fichiers comme avant mais par contre tu n'as pas accès au réseau par exemple. Les portails peuvent donner éventuellement des permissions temporaires par action, du genre, je veux lire tel fichier qui est en dehors du bac à sable mais je le sélectionne et rien d'autre ne sera ouvert.
Cela me semble être un bon compromis. Difficile de faire mieux sans nuire en effet à l'utilisabilité.
Même chose de ton côté: difficile de voir que tu n'es pas au courant que le coût du démantèlement est très incertain (si ce n'est pas le cas, c'est pire, tu parles alors que tu ne sais pas ce qu'il en est), et pourtant, ton commentaire fait tout pour oublier cet aspect et dresse un portrait blanc qui ne laisse pas beaucoup de possibilité quant à l'objectif.
Il est certes incertain, mais on a quand même des données. Et je ne me base pas que sur les chiffres d'EDF que tout le monde trouvent sous-estimés (et pourquoi pas). Il y a le rapport de la Cour des Comptes, les rapports parlementaires, le même exercice d'évaluation à l'étranger et le retour d'expérience des quelques centrales dont c'est entièrement fait.
Il y a quand même une cohérence dans les chiffres de tout ce beau monde (avec un facteur 3 maximum), qui se base par ailleurs sur le terrain comme on l'a déjà évoqué et que tu es d'accord. Un rapport parlementaire implique d'interroger des gens dont c'est le métier par exemple (donc peut être certains de tes collègues manifestement). Les rapports parlementaires sont d'ailleurs en général bien mieux fournis que les débats qu'on peut avoir dans les hémicycles.
Le coût de l'électricité pour le nucléaire est très fortement dominé par les coûts du capital, tandis que les coûts opérationnels sont très faibles en comparaison. Les coûts du capital sont les coûts de construction et de démantèlement, qui sont pratiquement du même ordre de grandeur (ça dépend des cas, parfois le démantèlement est estimé moins coûteux que la construction, mais parfois pas). Du coup, un x2 au niveau du coût par rapport à la fourchette initial signifie que les coût du capital passe de 2 à 3, soit une augmentation de 50%. Donc, une augmentation de 50% sur le prix (de quoi être plus cher que le gaz). C'est faux de dire que ça n'aurait pas un impact sur le coût de l'électricité.
Pas vraiment.
Oui le nucléaire requiert un investissement initial important et n'a une rentabilité que sur le temps long.
Ensuite concernant le coût, ce n'est pas vraiment ce que j'avais lu des différents rapports. Car si la construction et le démantèlement font raisonnablement jeu égal (comme tu dis, parfois plus, parfois moins), le coût opérationnel est loin d'être nul. Payer des employés qui y bossent et qui sont nombreux, les rénovations en cours de vie et du matériel pour les 40 ans (ou plus) ça coûte aussi très cher. C'est un coût fixe mais pas lié à la construction et au démantèlement. C'est évalué à 35-40% du coût total ce qui n'est pas rien. Et ça c'est pour une durée de vie de 40 ans initialement prévu, comme certaines centrales se dirigent vers 50-60 ans cela diminue le ratio lié au démantèlement.
Donc par exemple dans ce cas là un x2 sur le démantèlement ça donne 30% de surcoût. Et probablement moins pour une exploitation plus longue.
En admettant un tel surcoût de 30% applicable sur tout le tarif de l'électricité (mais en vérité l'électricité sert à payer aussi des barrage, du gaz, charbon, ces centrales, les éoliennes, le photovoltaïque, les lignes électriques, etc.), on passerait de 0,2€ / kWh à 0,27€ / kWh. C'est-à-dire toujours 6 centimes du kWh de moins que l'Allemagne ou la Belgique par exemple. Donc en vrai un x3 de ce coût ferait que malgré tout l'électricité française serait moins cher que certains de nos voisins.
Je trouve que c'est une marge de manœuvre loin d'être ridicule.
Ce que je remarque, c'est que ton point de vue est bizarrement bien plus optimiste que ce que je vois, dans mon boulot, de la part de pro-nucléaire dont le boulot est de répondre à ces questions de manière sérieuse et scientifique.
Alors, éclaire moi, je viens de te montrer par exemple la marge de manœuvre, je me base sur des estimations qui semblent quand même faire un certain consensus malgré la fourchette. As-tu des documents sérieux qui contredisent tous ces rapports ? Vraiment, je suis intéressé, car s'il est clair qu'il y a des incertitudes sur le sujet tu sembles craindre une incertitude supérieure que je n'ai vu écrite nul part. Alors je me suis pas tapé toute la bibliographie scientifique, les rapports des institutions de l'État et d'EDF ça me semble déjà bien. Mais si tu as de quoi contredire je suis vraiment intéressé.
Car après oui, c'est normal par exemple que tes collègues soient extrêmement prudent, c'est leur métier, ils ne peuvent pas prendre de risque dans leur communication, etc. Mais on n'est pas ici dans un comité de relecture scientifique.
Par exemple si tu lis les documents scientifiques, ils vont user et abuser de conditionnel. Et c'est normal. Partout. Pourtant dans la vie courante on peut s'en passer sans que cela soit grave car l'excès de prudence dans le propos dans la vie quotidienne c'est un peu lourdingue.
Typiquement tu ne verras jamais écrit noir sur blanc l'Homme est responsable du réchauffement climatique ou tel événement est assurément causé par le réchauffement climatique. Car il y aura toujours une part de prudence et d'incertitude. De même quand on la découverte du Boson de Higgs a été révélée. C'est nécessaire dans un tel contexte. Est-ce que pour autant on doit toujours abuser du conditionnel ? Bof, je ne pense pas.
C'est ça mon problème: dans l'étape d, tu INVENTES à quel point ton objection corrige la situation. Oui, le fait qu'il y ait des démantèlements faits aux USA signifie que la gravité est moins élevée que si il n'y en avait pas. Mais tu te dis "hm, moi, j'aime bien le nucléaire, ce serait cool que la gravité soit faible, et j'ai une idée de raison qui va me permettre de dire qu'elle peut être faible, donc, imaginons que c'est le cas".
Pour moi tu inventes une conversation, je ne vais pas aller dans cette direction.
Notons également que quand Albert ne mentionne pas truc A, B, …, cela ne veut pas dire que son estimation initiale est fausse. Albert peut avoir entendu des professionnels du secteur dire "l'incertitude sur le coût du démantèlement est 3X", le répéter, sans parler du fait que des démantèlements similaires ont eu lieu aux USA alors que l'information "gravité = 3X" vient de personnes qui ont tenu ça en compte (et si ces démantèlements n'avaient pas eu lieu, on aurait eu "gravité = 5X").
Je pense qu'on est un peu dans la 5e dimension.
Quel est le plus probable ? Je pense qu'au vu des contenus postés par Maderios qu'il est anti-nucléaire et qu'il a souvent recours à des arguments fallacieux sur le sujet dont celui-ci (sinon pourquoi parler de Brennilis pour parler du reste du parc ? Cela n'a aucun sens). Cela me semble très improbable qu'on soit dans le scénario que tu décris.
À un moment faut arrêter de prendre les gens pour des jambons, quand je vois un propos tel que celui qu'il a tenu la thèse qu'il manipule est plus que probable. Et cela me semble normal et sain de le dire car son argument tombe à l'eau avec l'exemple en question. On voit ça en politique tout le temps.
Comme je le dis, ça serait son premier message sur le sujet, il n'aurait jamais eu vent de cet exemple, je n'aurais pas exprimé ainsi car il a le bénéfice du doute. Mais là pour moi il ne l'a plus, c'est tout. Et il faudrait un sacré effort de sa part pour me convaincre qu'on est dans le scénario imaginaire que tu dessines.
J'imagine que lire le commentaire avec l'a priori que son but est de mentir ne va pas aider.
Mais comment tu veux le lire autrement ?
Je peux faire preuve de charité, mais cacher un tel élément en dressant en même temps un portrait noir (relativement injustifié car basé sur des éléments non comparables) ne laisse pas beaucoup de possibilité quant à l'objectif. Car c'est du foutage de gueule.
Je te donnerais raison s'il n'avait pas eu connaissance de l'information (on n'est pas omniscient, on n'est pas au courant de tout ce qui se passe dans le monde), mais comme cela a été pointé dans plusieurs de ses contenus ici même par le passé on ne peut pas dire que ce n'était pas le cas.
Et notons que Chooz A n'est pas fini, donc "aucun démantèlement n'a été effectué" est vrai. (en plus de ça, il y aurait beaucoup à dire sur Chooz A, notamment le fait que le processus jusqu'à présent a eu son lot de surprises démontrant la limite des fourchettes d'estimation)
Le fait que ce soit en cours n'est pas non plus un détail, car là aussi c'est de l'expérience supplémentaire. Même si ce n'est pas fini.
Personne n'a prétendu ça (j'ai même dit l'inverse: "on va bénéficier des leçons tirées d'autres démantèlement", ce qui illustre bien que tu conclus de ta lecture ce que tu as envie d'entendre plutôt que ce qui est réellement dit). Par contre, même sans être "100x", une variation peut y avoir un impact non négligeable sur le prix, ce qui est ce que le commentaire initial voulait mettre en avant.
La question réellement pertinente n'est pas si incertitude sur le prix il y a, car il y a forcément une incertitude, la question est de savoir l'impact d'un éventuel surcoût.
Admettons que le démantèlement se prenne un x2 au niveau du coût par rapport à la fourchette initiale, quelque soit la raison derrière. C'est beaucoup un x2 techniquement, mais finalement pour le cycle de vie de la centrale et donc le coût de l'électricité cela n'a pas un impact si majeur qu'on pourrait le penser. Pour moi c'est ça qui compte finalement.
Et il n'y a pas de raisons de croire que l'impact sera tel que cela remet en cause la faisabilité de l'opération.
Je vais prendre un autre exemple. Tu construis un tunnel routier. Chaque tunnel est différent mais on peut définir une fourchette de prix initial. Ce n'est pas rare d'avoir des dépassements de budget, type x1,5, x2 ou plus parfois. Est-ce que cela remet en cause l'utilité de la chose et son financement ? Pas forcément, même si c'est dommage de perdre de l'argent dans ces surcoûts. Mais je n'ai pas le souvenir d'avoir vu des x100 de budget régulièrement, même dans des projets d'envergure, ni que ce soit courant que le surcoût est tel qu'il vaut mieux abandonner le projet car c'est finalement impayable.
C'est pourtant là l'enjeu à mon sens. Pour moi tant que l'incertitude est dans une fourchette finançable et où l'électricité reste à un prix compétitif, cela me semble acceptable et il semble bien que ce soit le cas.
Après tu peux avoir un autre point de vue sur le sujet, considérer qu'un x2 c'est inacceptable, soit, c'est ton droit, mais c'est un autre sujet. Je précise au moins ce que j'entends comme acceptable même avec des incertitudes élevées et une fourchette large.
Le problème, c'est que, comme je l'ai dit à la fin de mon commentaire, quand on parle avec les gens dont le boulot est d'estimer une telle fourchette, ils présentent la situation de manière moins "optimiste" et reconnaissent que cette incertitude est quand même assez grande, suffisamment pour introduire une incertitude non négligeable sur le coût.
Personne n'a dit ça. Par contre, de ce que je vois, la réalité, c'est que les types bossant sur ce sujet reconnaissent que, oui, c'est une incertitude non négligeable.
Je ne dis pas le contraire, mais je précise ce que j'attends comme coût acceptable ou pas. Et donc à quel point l'incertitude même élevée est ou non un problème.
Comme je l'ai dit, les leçons des démantèlements des centrales américaines sont TRÈS UTILES, mais il faut pas partir dans un délire et prétendre que magiquement cela voudrait dire que la fourchette du coût n'est pas suffisamment incertaine que pour entrainer une incertitude sur les prix.
Je pense que c'est quand même essentiel et rassurant de voir qu'une expérience a été déjà menée avec succès ailleurs. C'est la preuve que cela est possible et cela donne beaucoup d'infos (économique, technique, délais, autre). On ne part pas de rien. Même s'il y a comme toujours des incertitudes.
Ne pas l'évoquer dans un tel sujet c'est de la mauvaise foi pure et simple quand on en a par ailleurs connaissance, c'est tout ce que je voulais dire. Et je n'ai pas à être spécialement prudent quand je relève cela.
Premièrement, le commentaire auquel tu réponds parle évidemment dans le contexte Français
Bah voyons. Pour moi ce n'est pas du tout évident.
Quand bien même qu'il parlerait que du cas français, c'est assez malhonnête de ne pas préciser qu'une centrale similaire dans un pays développé (donc avec des normes) l'a fait entièrement. Car cela montre bien que c'est possible, cela donne un ordre d'idée du coût par ailleurs.
Le fait de dire que cela n'a pas été fait et que EDF galère avec une centrale qui est notoirement différente et plus difficile à démanteler montre bien quel est l'objectif du commentaire : prétendre que c'est impossible ou que ce sera à un coût forcément prohibitif.
et il faut évidemment entendre "aucun démantèlement de centrale française n'a été effectué".
Notons que Chooz A est en cours et que jusqu'ici cela se passe bien.
Deuxièmement, je trouve qu'il est extrêmement difficile de nier que les coûts des démantèlements sont accompagnés de très grandes incertitudes (ce qui, en Français, est habituellement exprimé par "on en sait rien", même si, évidemment, une fourchette existe (au pire: entre 0 et 1042 euros)). Cette incertitude est démontrée par le nombre d'études et rapports sur le sujet, qui donnent tous des incertitudes très larges et arrivent parfois à des conclusions assez différentes.
La centrale américaine qui est semblable à celle du parc français donne un ordre de grandeur. Évidemment qu'il y a des incertitudes, que le prix peut monter. Mais il n'y a pas de raison de croire que le prix fera x100 par rapport à la centrale américaine.
C'est d'ailleurs ce que fait la Cour des Comptes (qui ne sont pas réputés pour être négligents dans les évaluations) pour évaluer le coût de l’opération et donc des provisions à mettre en face. Ils donnent une fourchette (d'ailleurs plus haute que celle prévue par EDF à l'origine) mais pas non plus une fourchette qui n'a aucun intérêt comme celle que tu présentes : ils partent de données du terrain tout de même et sont réalistes quant au fait que si écart de prix il y a, ce n'est pas de nature à être non finançable.
Ce n'est pas surprenant, le démantèlement d'une centrale nucléaire est totalement différent d'un démantèlement traditionnel.
Oui et non.
Oui car en effet s'occuper de la partie radioactive du bâtiment c'est spécial, cela demande des précautions avec des coûts associés. Bien que cela n'est pas un saut dans l'inconnu non plus.
Et non car une bonne partie du bâtiment de la centrale n'a pas une radioactivité suffisante pour nécessiter des précautions supplémentaires par rapport à un bâtiment industriel classique. Ce qui réduit les incertitudes de coût et de méthode.
Finalement, oui, on va bénéficier des leçons tirées d'autres démantèlement, aux USA par exemple. Mais il faut aussi souligner que 1) seuls certains éléments sont publiques, une partie du processus et de ses détails fait partie du savoir-faire des acteurs qui ont participé au démantèlement et qui ne souhaitent pas les partager avec leurs potentiels concurrents, 2) certains coûts sont liés à des caractéristiques des différents secteurs aux USA, et il n'est pas évident de savoir comment ces coûts se traduisent en France, 3) les contraintes sont également différentes, vu que les législations sont différentes. Bref, ça aide, mais ce n'est pas non plus suffisant pour empêcher les grosses incertitudes.
Comme si ces éléments là étaient inconnus d'EDF ou des institutions type la Cour des Comptes. Ce n'est pas la première fois qu'on fait une évaluation économique basée sur une expérience étrangère et qu'il faut adapter cela au contexte national.
Sans dire que c'est parfait et infaillible, faut pas non plus croire que cela ne se fait jamais et que les résultats sont toujours à côté de la plaque.
L'excès de relativisme cela n'aide pas à prendre des décisions et à avancer.
mais si il perd, c'est surtout une porte de sortie. parce que je pense qu'il commence à comprendre qu'il fait n'importe quoi
En quoi c'est une porte de sortie ?
Son vrai problème c'est qu'il a racheté Twitter cher et qu'il ne pourra pas récupérer ces sous sans grosses pertes. Et ça le sondage n'y changera rien.
Et rien ne l'a obligé ou ne l'oblige à être le patron de Twitter. Sans sondage dès demain il remet la direction à quelqu'un d'autre en utilisant une excuse bidon type je dois consacrer mon temps à Tesla / SpaceX / arrêter la faim dans le monde / etc..
[^] # Re: Quelqu'un saurait m'expliquer ?
Posté par Renault (site web personnel) . En réponse au lien Fin du support logiciel sur le Fairphone 2 (mars 2023). Évalué à 4.
C'est une partie du problème, loin d'être négligeable.
En théorie, oui.
Après il y a parfois du travail qui ne sera probablement jamais accepté par exemple par le noyau Linux. D'ailleurs le noyau d'Android de référence reste maintenu par Google, certains correctifs sont encore en dehors de Linux lui même. Même s'il y a eu et a encore des tentatives de résoudre cela, le noyau Linux ne veut pas recevoir des correctifs un peu crades ou qui ont un impact trop large en dehors de la cible d'Android.
[^] # Re: Bon d'achat pour recyclage
Posté par Renault (site web personnel) . En réponse au lien Fin du support logiciel sur le Fairphone 2 (mars 2023). Évalué à 6.
Puis est-ce iso fonctionnelle ?
Quand je regarde les OS qui ont récupérer des bases d'Android (genre Sailfish OS) ou Lineage OS par le passé, la compatibilité était rarement parfaite. La base fonctionnait, mais pas forcément les mêmes perfs, des fonctions potentiellement en moins (à une époque ça pouvait être la radio, de nos jours c'est plutôt l'exploitation des multiples caméras) puis sans la surcouche constructeur qui parfois donne accès aux fonctionnalités de l'appareil (dont les caméras par exemple).
Du coup peut être que ça fonctionne pour les cas courants, mais en mode dégradé tout de même.
[^] # Re: Quelqu'un saurait m'expliquer ?
Posté par Renault (site web personnel) . En réponse au lien Fin du support logiciel sur le Fairphone 2 (mars 2023). Évalué à 5.
Pas du tout. Typiquement j'ai pointé des exemples concrets de ce qui peut être fait pour simplifier cela.
Il faut faire en sorte de faciliter les montés de version. Par la collaboration aux projets en amont, genre Qualcomm qui essaye de pousser un max dans le noyau Linux officiel. Les industriels qui essayent d'avoir une bonne pratique de collaboration pour notamment maintenir certaines bibliothèques ou pièces maitresses pendant une certaine durée, etc.
De toute façon même dans le cas de Microsoft la situation n'est pas triviale non plus. Il y a un écosystème autour de Windows, que ce soit matériel ou logiciel, la compatibilité ascendante à maintenir, etc. Ce n'est pas une solution miracle, mais ça demande des actions et un minimum de concertation et de collaboration.
Et à la fin les produits seront plus chers. C'est inévitable. Le téléphone bas de gamme n'a pas beaucoup d'avenir pour un suivi à long terme de qualité. Ou il faut passer à un modèle de mises à jour payantes.
Windows a une bonne compatibilité ascendante dans l'ensemble. En particulier depuis Vista.
Certaines applications devaient s'adapter, en particulier les pilotes, mais ce n'était pas nécessaire pour tout le monde. Cela dépendait parfois aussi du lien avec le système, plus tu en étais indépendant, moins c'était nécessaire.
Pas forcément.
Cela permet en effet de garder une application non maintenue en vie, ce qui est parfois utile pour certains utilisateurs le temps de trouver une alternative.
Mais cela permet aussi de réduire le couplage entre eux avec les soucis associés. Faire en sorte que des milliers de logiciels utilisent la même version de OpenSSL en même temps est une tâche difficile, car les développeurs de ces logiciels ont rarement testé la même version durant leur développement. Et parfois il y a des régressions ou incompatibilités. Du coup la distro passe derrière pour patcher tout ce beau monde mais c'est beaucoup d'efforts et temps consacré à une tâche finalement ingrate et imparfaite.
En autorisant le fait que ce soit chacun sa version, on garde en commun ce qui est possible (en tout cas avec les runtimes de Flatpak), on peut les mettre dans un bac à sable pour réduire l'impact d'un soucis de sécurité, et on laisse au développeur principal de garantir la compatibilité avec une version plus récente. En gros tu permets de déléguer la tâche dévolue partiellement aux distro aux développeurs eux mêmes. Et tu peux faciliter la coopération. Demain ma Fedora elle peut exécuter un Flatpak un programme tiers testé et validé sous Ubuntu. Et je l'importe tel quel. Tu peux en gros créer un super dépôt commun des applications hauts niveaux ce qui évite que chacun fasse et refasse le même travail dans son coin. Un peu comme systemd a permis de nettoyé un peu les jungle des scripts init à son époque et de standardiser certains comportements du système.
Ce n'est donc pas une solution technique qui consiste à cacher le problème sous le tapis, cela répond réellement à ce genre de difficultés. Car il n'y a pas 20 000 solutions, et aucune d'elle n'est parfaite.
[^] # Re: Quelqu'un saurait m'expliquer ?
Posté par Renault (site web personnel) . En réponse au lien Fin du support logiciel sur le Fairphone 2 (mars 2023). Évalué à 10.
Mais les deux aspects sont mélangés dans la vrai vie aussi.
Par exemple quand OpenSSL 1.1.x n'est plus maintenu par l'équipe de développement et qu'il faut passer à OpenSSL 3.x, tu fais quoi ? Rester sur une vieilles bibliothèques avec potentiellement des failles pas corrigées ? Ce n'est pas une bonne réponse. Et passer à OpenSSL 3.x qui a une rupture de compatibilité avec sa précédente version t'ouvre la porte à des problèmes de compatibilité avec ton logiciel existant ce qui implique potentiellement un travail énorme sur des composants que tu ne maitrises pas. C'est là qu'on voit la difficulté de maintenir un OS complet dans le temps, dont une distribution Linux, ce sont des problématiques qu'ils voient tout le temps et ils doivent arbitrer.
Et là j'ai pris l'exemple de OpenSSL, mais tu as ça pour tout, que ce soit les bibliothèques de base (dont glibc), les langages de programmation comme Python 2, le noyau, etc.
C'est vraiment difficile et je dirais même infaisable sans une armée de développeurs et de testeurs dédiés.
Si tu souhaites une maintenance sur la durée, donc au delà de 1-2 ans, tu auras ce problème tôt ou tard quelque part. Et probablement un peu partout à la fois.
Puis tu as un autre soucis, la compatibilité des applications. Google fourni de plus en plus d'API, que ce soit de sécurité ou de fonctionnalités pour les applications Android. C'est bien, mais du coup si tu veux que ton téléphone puisse exécuter l'application de ta banque, il faudra probablement une version pas trop ancienne. Donc tu ne peux pas rester avec ton Android 4.4 maintenu à bout de bras avec tes petites mains, si tu veux exploiter les fonctionnalités de ces applications tierces il faudra aussi passer à des versions d'Android plus récentes.
Pour être confronté à cette problématique au boulot dans un contexte bien plus facile je vois bien la difficulté de la tâche, ce n'est pas se chercher des excuses, mais l'écosystème n'a rien que permette de faire ça facilement. Les projets ne sont pas synchronisés, chacun fait à sa sauce dans son coin (Python 2 est abandonné à une date différente de OpenSSL 1.1, et Linux n'a pas d'API stable dans le temps, etc.), il n'y a pas une armée de développeurs pour gérer ces problèmes pour les industriels consommateurs de ces produits, etc.
Ceux qui font ça ce sont les distributions Linux, et on voit la galère que c'est pour eux, et ils sont très nombreux à le faire. Red Hat c'est aussi beaucoup de monde qui fait ça et difficilement et même parfois ils décident de passer à des versions majeurs en cours de route car maintenir sans bouger pendant 10 ans c'est difficile. Et ce n'est pas pour rien que Snap et Flatpak poussent et sont poussés car ça résout certaines de ces difficultés de maintenance.
Ce n'est pas un hasard non plus si Mark Shuttleworth a une époque avait lancée une idée polémique de synchroniser certains projets majeurs de l'éco-système sur le rythme de publication d'Ubuntu. Cela a fait jaser, mais sur le fond il a pointé un vrai problème qui n'a jamais été résolu.
[^] # Re: Bon d'achat pour recyclage
Posté par Renault (site web personnel) . En réponse au lien Fin du support logiciel sur le Fairphone 2 (mars 2023). Évalué à 6.
Ah les produits IoTs où il faut s'assurer que la machine fonctionnera en toute condition, c'est merveilleux de stress aussi par moment. :)
[^] # Re: Quelqu'un saurait m'expliquer ?
Posté par Renault (site web personnel) . En réponse au lien Fin du support logiciel sur le Fairphone 2 (mars 2023). Évalué à 6. Dernière modification le 11 janvier 2023 à 15:12.
Ce n'est pas si simple. Ce débat est déjà revenu régulièrement pour le noyau et ressortira probablement beaucoup à l'avenir. Car ce n'est pas qu'une histoire d'être dégueulasse ou pas. Mais devoir adapter ses pilotes régulièrement car le noyau change tout tout le temps ce n'est pas non plus terrible, et cela concerne les développeurs du noyau eux mêmes. Ceux qui en souffrent le plus sont probablement aussi ceux qui veulent récupérer un code d'un noyau 5.0 pour le mettre sur une version LTS plus ancienne. Que ce soit un nouveau pilote ou un correctif quelconque. Cela peut vite être fastidieux.
Le but n'est pas de bloquer toute l'API interne, ni de bloquer pour toujours. Mais de poser des jalons, par exemple que le changement X soit repoussé de 12 mois car son impact serait trop important pour le reste de l'écosystème. Et appliquer ce principe de manière différenciée, qu'un truc purement interne change est moins impactant que l'interface qui décrit l'interface standard entre le noyau et un sous système, par exemple celui pour décrire les pilotes I2C, SPI, etc.
Ce sont des possibilités qui font sens pour l'industrie et le noyau lui même, même s'ils ne semblent pas prendre cette direction rien n'est gravé dans le marbre. À une époque c'était d'ailleurs presque le cas avec les versions majeurs du noyau ce qui ne se fait plus depuis la branche 2.6.
EDIT : d'ailleurs ta logique ouvre la porte à ce que l'ABI du noyau puisse changer sans être rétrocompatible avec l'existant, ce que Torvalds refuse mais en pratique la notion même d'ABI fait débat et il a fallu parfois tordre un peu la règle pour pouvoir faire un changement nécessaire. Il ne faut pas adopter des postures idéologiques sur ces questions, il y a des avantages et inconvénients dans chaque pratique et il faut savoir s'adapter aux situations du quotidien, et l'API instable apporte son lot de contraintes pour tout le monde.
[^] # Re: Quelqu'un saurait m'expliquer ?
Posté par Renault (site web personnel) . En réponse au lien Fin du support logiciel sur le Fairphone 2 (mars 2023). Évalué à 10.
Oui et non. Je pense surtout qu'il y a un soucis de culture à changer.
Déjà pour raisons environnementales nous souhaitons (et avons besoins) de quitter la logique des produits jetables. Il faut assurer la réparabilité et la possibilité de s'en servir sur le long terme.
Ensuite, la logique du logiciel fixe une fois le produit vendu faisait sens quand les produits étaient hors lignes. Que mon lave linge n'ait pas de mise à jour de son logiciel durant sa durée de vie n'a globalement pas une grande importance. Il est hors ligne, les questions de failles de sécurité ou de compatibilité diverses n'existent pas. Le matériel + logiciel peut vivre ainsi pendant 10 ans sans broncher, même 100 ans en fait. Tant que les prises et l'alimentation électrique ne changent pas.
Par contre pour un produit en ligne, dont les téléphone, cette logique ne fonctionne plus. Les failles de sécurité sont un vrai problème, on y installe des logiciels tiers facilement qui évoluent dans leur coin. Donc on est confronté à un besoin de mise à jour nécessaire du système lui même, et d'assurer la compatibilité avec des produits tiers pas forcément disponibles au moment de la vente initiale et qui évoluent indépendamment de celui-ci. Cela demande un suivi et donc des équipes dédiées et une autre logique commerciale.
C'est relativement nouveau dans le milieu industriel, la prise en compte de ce phénomène est récent et c'est de fait encore trop longtemps négligé. Il faudrait que cela bouge plus, mais ça commence doucement malgré tout.
[^] # Re: Quelqu'un saurait m'expliquer ?
Posté par Renault (site web personnel) . En réponse au lien Fin du support logiciel sur le Fairphone 2 (mars 2023). Évalué à 10.
Il y a plusieurs problèmes.
Tout d'abord sur nos PCs, on a le BIOS / UEFI qui standardisent certaines interactions bas niveau et l'initialisation. C'est bien plus simple pour avoir un système unique qui fonctionne presque partout. Et de nos jours, beaucoup de protocoles gèrent la découverte du matériel à chaud comme PCIe, USB, etc.
Sur téléphone ce n'est pas le cas (ou disons moins le cas). Le matériel sur processeurs ARM doit souvent être décrit via un fichier spécial nommé device tree qui doit être chargé par le noyau pour charger les pilotes en guise de découverte du matériel.
Ensuite, chaque constructeur a sa couche bas niveau. Par exemple quand tu achètes un processeur Qualcomm quand tu t'appelles Sony, tu reçois le processeur évidemment mais aussi un noyau et quelques autres composants autour pour que tu puisses l'intégrer. Le noyau en particulier est très personnalisé, tu as des pilotes maison, des hacks ou autres correctifs pour optimiser les perfs ou certaines fonctionnalités. Seulement comme le noyau n'a pas une API interne stable et que ces correctifs n'intègrent pas le noyau officiel, tu as beau avoir les sources de ces changements, porter cela sur une version plus récente cela demande beaucoup de travail et de vérifications. Et comme Qualcomm et compagnie sont en mode je fournis et tu te démerdes les mises à jour sont rapidement difficiles.
Puis pendant longtemps comme tout le monde s'en foutait, il n'y a pas eu de gros efforts faits pour simplifier la tâche. Mais cela bouge doucement. Le noyau a des versions LTS prévisibles ce qui facilite la tâche pour les fondeurs type Qualcomm de faire leur travail sur un noyau qui va durer longtemps sans devoir faire la mise à jour du noyau dans une autre version tous les 4 matins. Google a travaillé pour rendre ses couches basses plus indépendantes des couches basses du constructeur pour qu'au moins tu puisses avoir un Android récent sur un noyau plus ancien. Je ne sais pas où s'en est et concrètement si cela fonctionne bien. Ils ont fait de même pour retirer certains trucs de ASOP pour les mettre dans leur service Google Play afin de ne pas trop être perturber par les surcouches constructeurs non plus. Et des constructeurs semblent vouloir faire un effort pour augmenter la durée des mises à jour comme Google et Samsung, mais certains s'en foutent encore royalement en particulier dans le bas de gamme.
Qu'est-ce qui pourrait être fait pour simplifier la tâche ? Déjà les constructeurs de puce pourraient mieux travailler avec les projets type Linux pour pousser leur travail plutôt que d'être en mode jetable. Il paraît qu'il y a eu un effort mais là encore j'ignore l'effectivité. Le noyau pourrait aussi assouplir sa politique vis à vis de l'API interne pour rendre cela plus stable et simplifier la maintenance à long terme pour les constructeurs. Les industriels pourraient aussi plus exploiter l'UEFI et des protocoles matériels plus adaptés pour rendre la plateforme ARM plus générique et simple pour le noyau et le système au dessus.
[^] # Re: Vélo !
Posté par Renault (site web personnel) . En réponse au journal L'indice de réparabilité. Évalué à 10.
Je conteste, je ne t'ai jamais vu chez moi !
[^] # Re: Vélo !
Posté par Renault (site web personnel) . En réponse au journal L'indice de réparabilité. Évalué à 4.
Ils ont fait un arbitrage, j'ignore la raison mais ça m'étonnerait que le but soit juste de rendre l'opération pénible.
Après les moteurs et les composants autour ont changé aussi. En mécanique on prévoit moins de marges de sécurité sur la taille des composants pour gagner du poids ce qui peut avoir un effet sur la fiabilité aussi.
Je ne sais pas pourquoi ça a été décidé, j'ai émis des hypothèses crédibles. Car ajouter de la complexité pour aucun gain, ça n'a aucun intérêt. Je ne vois pas pourquoi le constructeur ferait ça sans raisons.
Je pense que le vrai sujet il est là : on doit blâmer l'arbitrage effectué. Pas forcément la conception elle même. C'est une question d'évaluer les priorités de tout à chacun. On peut regretter par exemple une détérioration de la réparabilité pour un gain esthétique mineur.
C'est trompeur de dire que Dacia est moins cher car c'est facile à réparer.
Dacia a juste un équipement standard, un peu ancien et très éprouvé. C'est ça qui permet de baisser les coûts et d'améliorer aussi la fiabilité (car pas de nouveautés).
C'est un choix de stratégie, qui à mon sens est très pertinent. Mais clairement si ton but est d'avoir le plus de conforts possibles ou des innovations techniques, ce n'est pas chez eux que tu iras. Il en faut pour tous les goûts, et le succès de Dacia montre que ce compromis intéresse beaucoup de personnes et c'est tant mieux.
[^] # Re: Vélo !
Posté par Renault (site web personnel) . En réponse au journal L'indice de réparabilité. Évalué à 4.
Qui te dit que c'est un problème de conception ?
La but d'un compartiment moteur n'est pas que d'être facile d'accès pour effectuer des réparations ou changements de pièces. Ce serait trop facile s'il n'y avait qu'un seul critère.
Il y a la question de protéger les composants des conditions climatiques, de l'humidité, des chocs éventuels ou des vibrations éventuellement. Il y a des impératifs de sécurité, il faut aussi minimiser le coût de production, contenir la taille du bloc moteur pour potentiellement dégager de l'espace pour d'autres composants ou l'habitacle, etc.
C'est ce qui rend l'ingénierie intéressant, composer avec des tas de contraintes souvent contradictoires entre elles.
La faciliter la réparation n'est qu'un critère parmi d'autres. Et on ignore bien souvent ce qui a mené à ces décisions.
Car bon, techniquement ajouter des caches de partout qu'il faut retirer pour réparer, les installer et les produire ont un coût, s'ils étaient inutiles (voire même contre productif) ils ne les mettraient pas en premier lieu.
[^] # Re: étrange ligne de défense de Google
Posté par Renault (site web personnel) . En réponse au lien la Competition Commission of India accusée de plagier un jugement de la commission européenne. Évalué à 7.
Non.
Être soumis au droit d'auteur ne signifie pas qu'il n'y a pas possibilité de le lire.
[^] # Re: N'importe quoi...
Posté par Renault (site web personnel) . En réponse au journal L'entreprise est-elle responsable des fuites de données dans le cadre du télétravail ?. Évalué à 3.
Je comprends bien la problématique pour certains clients, mais dans ce cas, pourquoi ne pas fournir les correctifs au fil de l'eau avec une option dans Windows Update ou que sais-je qui ne récupère un lot de correctifs qu'une fois tous les mois ?
Cela pouvait satisfaire tout le monde, non ?
[^] # Re: Message pour la modération: étiquettes
Posté par Renault (site web personnel) . En réponse au lien L'assureur MAIF consacre 10% de ses bénéfices à la planète. Évalué à 4. Dernière modification le 05 janvier 2023 à 14:57.
En quoi ça se discute ?
Les GES en excès dans l'atmosphère à cause de l'activité humaine induit un excès d'énergie dans l'atmosphère (donc un réchauffement climatique global) dont l'effet est de changer le climat de diverses façons par rapport au précédent point d'équilibre.
Cette causalité est dans ce sens, je ne vois pas trop ce qui est discutable à ce sujet.
[^] # Re: Message pour la modération: étiquettes
Posté par Renault (site web personnel) . En réponse au lien L'assureur MAIF consacre 10% de ses bénéfices à la planète. Évalué à 9.
En fait c'est un réchauffement climatique global de la Terre, le mot important étant global. Ce point là est juste et est la cause du dérèglement climatique avec des phénomènes divers dont un refroidissement localisé parfois.
Le soucis est que le mot global est souvent omis et pas mal de personnes du coup voient en tout froid un peu violent comme une preuve que cela n'existe pas (souvenons-nous de Trump lors d'une tempête de neige aux USA).
Donc l'expression réchauffement climatique est bel est bien correct, mais il est vrai qu'il donne une mauvaise appréciation du problème quand on ne connaît pas le sujet, d'où le fait que certains poussent pour dérèglement climatique qui s'attarde moins sur la cause mais plutôt sur les conséquences pour nous.
[^] # Re: Pas qu'un problème de fracture numérique
Posté par Renault (site web personnel) . En réponse au lien Fracture numérique - Fin du timbre rouge dès 2023, La Poste le remplace par le courriel à 1,49 euro. Évalué à 4.
Oui, et c'est en général ce second point qui est encore obligatoire dans certaines procédures.
La première n'est en aucun cas nécessaire.
C'est pour ça que je demande un exemple réel où le courrier prioritaire est nécessaire. Car je n'en vois pas.
Car c'est bien de dire que c'est du coup cher et une baisse de qualité de service public, mais si c'est pour quelque chose de dispensable à dire vrai, ce n'est pas un problème. D'où la nécessité de recentrer le débat sur : le timbre rouge a quelle utilité concrète ?
Il y a des coins où la fréquence diminue justement car pas de lettres prioritaires.
De plus, un facteur qui délivre les lettres prioritaires doit s'arrêter plus souvent, ce qui prend du temps, use la mécanique et consomme du carburant. Cela a donc un coût, moins il en a à distribuer, moins ça coûte cher. Et si on parvient à supprimer les lettres prioritaires, sa tournée serait significativement plus courte et potentiellement il n'aurait pas à faire la tournée tous les jours.
Donc ça a un impact, la différence entre les deux n'est pas que pour faire jolie, il y a bien une différence pratique.
[^] # Re: Pas qu'un problème de fracture numérique
Posté par Renault (site web personnel) . En réponse au lien Fracture numérique - Fin du timbre rouge dès 2023, La Poste le remplace par le courriel à 1,49 euro. Évalué à 5.
En même temps le courrier prioritaire n'a pas un grand intérêt intérêt.
Si tu veux la garantie de distribution et de réception, tu passes par un recommandé avec accusé de réception, qui est celui qui a une utilité légale. Le reste ce sont des courriers plus classiques, et perso depuis 10 ans que cela soit distribué en un ou trois jours n'a jamais eu aucune importance quelque soit le cas de figure que j'ai rencontré.
Alors que cela coûte cher, et écologiquement c'est moins bon car cela implique des tournées à fréquence plus élevée pour les distribuer, alors qu'il y a de moins en moins de courriers envoyés pour maintenir des prix bas de cette opération.
Donc rendre cela moins attractif pour forcer le passage au timbre vert ne me paraît pas déconnant en fait. Quelle est la justification pour maintenir ce timbre rouge ? En quoi sa baisse d'attractivité est un vrai problème de service public ? Car j'ai beau réfléchir, je ne vois pas.
[^] # Re: Et pas de zonzon
Posté par Renault (site web personnel) . En réponse au lien Meta s’acquitte de quelques miettes pour mettre fin au procès Cambridge Analytica. Évalué à 5.
C'est un processus assez courant aux USA mais pas dénués de sens pour autant.
Un procès c'est long et incertain pour les deux partis. Car rien ne dit que Facebook aurait été reconnu coupable, ni même que la sanction aurait été plus élevée que ce qui est stipulé dans l'accord.
Car s'il semble clair que Facebook a merdé, peut être que les preuves recevables n'étaient pas si forts que cela pour remporter un procès, surtout si cela se passe devant un jury populaire ce qui est courant là bas. Peut être que Facebook avait aussi de bons arguments pour échapper à la condamnation ou avoir une sentence plus légère.
Comme on n'a pas le dossier complet sous la main, et que nous ne sommes clairement pas des experts du droit américain (déjà que le droit français c'est coton), c'est difficile de s'y prononcer.
Ici en un sens tout le monde est un peu gagnant. Facebook s'en tire malgré tout avec une sanction pas si faible (bien que pas si forte non plus) qu'elle devra forcément payer. Mais l'entreprise échappe potentiellement à pire pour son image et son compte en banque. Et pour l'État au moins Facebook a payé et cela peut servir d'avertissement aussi.
Par contre j'espère que si une affaire d'envergure similaire les concernant fait surface, ça ira au bout…
[^] # Re: Tiers de confiance
Posté par Renault (site web personnel) . En réponse au journal Utiliser l'Identité numérique la Poste sans Google Play. Évalué à 3.
Faut croire que son compte aurait besoin d'un tiers de confiance pour le valider car on vient d'hacker son compte linuxfr !
[^] # Re: Ordres de grandeur
Posté par Renault (site web personnel) . En réponse au lien Nucléaire - Six mois de retard supplémentaire pour l'EPR de Flamanville. Évalué à 5. Dernière modification le 20 décembre 2022 à 00:15.
La valeur absolue en elle même n'a pas beaucoup d'importance. Il faut toujours rationaliser le coût.
Car une facture de 1 milliard d'euros (exemple au pif) payée par 60 millions d'habitants ou 10 personnes ça n'a pas le même impact. Même si en valeur absolue c'est important.
Dans le cas qui nous intéresse, il faut ramener cela au coût de l'électricité vendue sur la durée de vie de la centrale et aux nombres de personnes qui en bénéficient.
Note, je n'ai pas dit que l'incertitude était négligeable, mais cela n'empêche pas que cela soit gérable et c'est ce point qui est important.
Non, ce n'est pas ce que je dis car personne ne l'a dit. Par contre quand on dit que cela n'a jamais été fait cela induit bien des fantasmes.
C'est un impact important mais manifestement gérable car… bien des pays vivent avec un tel coût depuis des années.
C'est je pense là notre point de divergence depuis le début. En soit ce n'est pas grave, c'est une question d'appréciation.
Je n'ai dit nul part que le coût en capital était négligeable car justement je précise bien que c'est quand même environ 60% du coût total (voire un peu moins). Tu le dis toi même, sois cohérent.
Pour moi il y a différentes choses.
Le nucléaire c'est beaucoup de capital mais aussi beaucoup d'opérationnel (car bon, l'opérationnel c'est minimum un tiers du total, ce n'est pas rien). Mais par contre le combustible est lui négligeable (du genre 2% voire moins). Le gaz c'est beaucoup de combustible, ce qui est vrai, en gros il est très intéressant de potentiellement ouvrir une centrale à gaz mais de ne pas l'allumer longtemps. Ce qui serait idiot à faire avec une centrale nucléaire.
Évidemment, le coût de l'électricité est très complexe, mais disons que cela donne une base. Même en admettant un surcoût élevé au kWh, l'électricité française étant jusqu'ici assez peu chère finalement on pourrait payer la facture même dans un scénario pas très sympa niveau surcoût. Car comme tu le dis, un facteur 3 cela reste important.
C'était une évaluation de coin de table pessimiste, pour montrer que on peut techniquement payer plus si nécessaire et qu'il est assez improbable que cela aille au delà. Mais si tu penses que ces scénarios sont très plausibles, oui je suis intéressé par des liens car je n'ai pas vu de projections au delà. Donc oui ça m'intéresse de voir ça.
Tu pourrais au moins guider où chercher pour trouver la dite info. ;)
Alors, ce que tu dis est inquiétant. Inquiétant car cela signifie que ces productions sont cachées ou du moins confidentiellement diffusées, que les parlementaires et l'État quand ils évaluent les coûts ils se basent sur des données invalides sans consulter les personnes du domaine.
C'est bizarre car ils interrogent du monde pourtant pour cela. Donc oui, j'ose espérer que ces productions existent quelque part et pourquoi ces rapports seraient dans ce cas trop optimistes encore.
Puis après je pense malgré tout que c'est le rôle de tout scientifique qui se respecte d'intervenir dans le débat public pour donner de quoi prendre des décisions éclairées.
Qu'ils ne trollent pas sur Twitter je le comprends parfaitement, mais j'ai du mal à comprendre le reste.
C'est un scénario volontairement pessimiste… Mais bon fais semblant de ne pas comprendre.
Manifestement tu ne comprends pas mon propos, je vais en arrêter là.
Je ne descends pas le nucléaire car globalement ici je ne vois passer que des liens qui ont une rhétorique anti nucléaires. Je ne vais pas aller ressortir les lieux communs où tout le monde est d'accord, cela apporte quoi ? Rien. Évidemment que le sujet des déchets est délicat, évidemment qu'il y a des coûts importants, qu'il y a de la latence à le produire, qu'on dépend aussi d'un combustible qu'on n'a pas sur notre territoire (bon après c'est le cas pour tout en fait, dommage), que le risque d'accident n'est pas nul et que cela peut impacter des millions de personnes. Je ne le dis pas le contraire, je ne le nierais jamais.
D'autant que bon, je ne suis pas pro nucléaire, je suis pro décarbonation. Demain on parvient à bâtir un réseau électrique décarboné, à un coût acceptable et sans risques supplémentaires et dans des délais tels que le réchauffement climatique n'est pas un problème, je prône son abandon immédiat. Mais malheureusement nous y sommes pas (encore ?). Et je suis convaincu que le réchauffement climatique sur tous ces points surpassent les risques liés au nucléaire. C'est ma position à ce jour et ça peut changer. Du coup typiquement je suis également pour toute sorte d'énergie renouvelable et baisse de consommation. Car cela va dans mon but même si ça entraine apr exemple une baisse du nucléaire.
D'où le fait que je suis vraiment intéressé si tu as des éléments produits ou lus par tes collègues car c'est effectivement quelque chose que je n'ai pas lu jusqu'ici et ça m'intéresse réellement. Mais bon si tu préfères continuer à me troller je vais en effet arrêter là car manifestement tu ne comprends pas mon propos ni mon intention.
Je ne me prétends pas supérieur, je prétends qu'il manipule en cachant un élément important dont il a connaissance. Ce n'est pas pareil. Et j'assume cela.
[^] # Re: Du classique du bac à sable, un autre exemple
Posté par Renault (site web personnel) . En réponse au lien À lire avant de remplacer par leur équivalent Flatpak certains logiciels de votre distribution. Évalué à 5.
Mais dans ce cas la solution est dans le système de permissions.
Tu indiques à l'utilisateur qu'il faut accorder l'accès au système de fichier (comme c'est fait pour les applications mobiles) et voilà, tu as accès aux fichiers comme avant mais par contre tu n'as pas accès au réseau par exemple. Les portails peuvent donner éventuellement des permissions temporaires par action, du genre, je veux lire tel fichier qui est en dehors du bac à sable mais je le sélectionne et rien d'autre ne sera ouvert.
Cela me semble être un bon compromis. Difficile de faire mieux sans nuire en effet à l'utilisabilité.
[^] # Re: Ordres de grandeur
Posté par Renault (site web personnel) . En réponse au lien Nucléaire - Six mois de retard supplémentaire pour l'EPR de Flamanville. Évalué à 6.
Il est certes incertain, mais on a quand même des données. Et je ne me base pas que sur les chiffres d'EDF que tout le monde trouvent sous-estimés (et pourquoi pas). Il y a le rapport de la Cour des Comptes, les rapports parlementaires, le même exercice d'évaluation à l'étranger et le retour d'expérience des quelques centrales dont c'est entièrement fait.
Il y a quand même une cohérence dans les chiffres de tout ce beau monde (avec un facteur 3 maximum), qui se base par ailleurs sur le terrain comme on l'a déjà évoqué et que tu es d'accord. Un rapport parlementaire implique d'interroger des gens dont c'est le métier par exemple (donc peut être certains de tes collègues manifestement). Les rapports parlementaires sont d'ailleurs en général bien mieux fournis que les débats qu'on peut avoir dans les hémicycles.
Pas vraiment.
Oui le nucléaire requiert un investissement initial important et n'a une rentabilité que sur le temps long.
Ensuite concernant le coût, ce n'est pas vraiment ce que j'avais lu des différents rapports. Car si la construction et le démantèlement font raisonnablement jeu égal (comme tu dis, parfois plus, parfois moins), le coût opérationnel est loin d'être nul. Payer des employés qui y bossent et qui sont nombreux, les rénovations en cours de vie et du matériel pour les 40 ans (ou plus) ça coûte aussi très cher. C'est un coût fixe mais pas lié à la construction et au démantèlement. C'est évalué à 35-40% du coût total ce qui n'est pas rien. Et ça c'est pour une durée de vie de 40 ans initialement prévu, comme certaines centrales se dirigent vers 50-60 ans cela diminue le ratio lié au démantèlement.
Donc par exemple dans ce cas là un x2 sur le démantèlement ça donne 30% de surcoût. Et probablement moins pour une exploitation plus longue.
En admettant un tel surcoût de 30% applicable sur tout le tarif de l'électricité (mais en vérité l'électricité sert à payer aussi des barrage, du gaz, charbon, ces centrales, les éoliennes, le photovoltaïque, les lignes électriques, etc.), on passerait de 0,2€ / kWh à 0,27€ / kWh. C'est-à-dire toujours 6 centimes du kWh de moins que l'Allemagne ou la Belgique par exemple. Donc en vrai un x3 de ce coût ferait que malgré tout l'électricité française serait moins cher que certains de nos voisins.
Je trouve que c'est une marge de manœuvre loin d'être ridicule.
Alors, éclaire moi, je viens de te montrer par exemple la marge de manœuvre, je me base sur des estimations qui semblent quand même faire un certain consensus malgré la fourchette. As-tu des documents sérieux qui contredisent tous ces rapports ? Vraiment, je suis intéressé, car s'il est clair qu'il y a des incertitudes sur le sujet tu sembles craindre une incertitude supérieure que je n'ai vu écrite nul part. Alors je me suis pas tapé toute la bibliographie scientifique, les rapports des institutions de l'État et d'EDF ça me semble déjà bien. Mais si tu as de quoi contredire je suis vraiment intéressé.
Car après oui, c'est normal par exemple que tes collègues soient extrêmement prudent, c'est leur métier, ils ne peuvent pas prendre de risque dans leur communication, etc. Mais on n'est pas ici dans un comité de relecture scientifique.
Par exemple si tu lis les documents scientifiques, ils vont user et abuser de conditionnel. Et c'est normal. Partout. Pourtant dans la vie courante on peut s'en passer sans que cela soit grave car l'excès de prudence dans le propos dans la vie quotidienne c'est un peu lourdingue.
Typiquement tu ne verras jamais écrit noir sur blanc l'Homme est responsable du réchauffement climatique ou tel événement est assurément causé par le réchauffement climatique. Car il y aura toujours une part de prudence et d'incertitude. De même quand on la découverte du Boson de Higgs a été révélée. C'est nécessaire dans un tel contexte. Est-ce que pour autant on doit toujours abuser du conditionnel ? Bof, je ne pense pas.
Pour moi tu inventes une conversation, je ne vais pas aller dans cette direction.
Je pense qu'on est un peu dans la 5e dimension.
Quel est le plus probable ? Je pense qu'au vu des contenus postés par Maderios qu'il est anti-nucléaire et qu'il a souvent recours à des arguments fallacieux sur le sujet dont celui-ci (sinon pourquoi parler de Brennilis pour parler du reste du parc ? Cela n'a aucun sens). Cela me semble très improbable qu'on soit dans le scénario que tu décris.
À un moment faut arrêter de prendre les gens pour des jambons, quand je vois un propos tel que celui qu'il a tenu la thèse qu'il manipule est plus que probable. Et cela me semble normal et sain de le dire car son argument tombe à l'eau avec l'exemple en question. On voit ça en politique tout le temps.
Comme je le dis, ça serait son premier message sur le sujet, il n'aurait jamais eu vent de cet exemple, je n'aurais pas exprimé ainsi car il a le bénéfice du doute. Mais là pour moi il ne l'a plus, c'est tout. Et il faudrait un sacré effort de sa part pour me convaincre qu'on est dans le scénario imaginaire que tu dessines.
[^] # Re: Ordres de grandeur
Posté par Renault (site web personnel) . En réponse au lien Nucléaire - Six mois de retard supplémentaire pour l'EPR de Flamanville. Évalué à 4.
Mais comment tu veux le lire autrement ?
Je peux faire preuve de charité, mais cacher un tel élément en dressant en même temps un portrait noir (relativement injustifié car basé sur des éléments non comparables) ne laisse pas beaucoup de possibilité quant à l'objectif. Car c'est du foutage de gueule.
Je te donnerais raison s'il n'avait pas eu connaissance de l'information (on n'est pas omniscient, on n'est pas au courant de tout ce qui se passe dans le monde), mais comme cela a été pointé dans plusieurs de ses contenus ici même par le passé on ne peut pas dire que ce n'était pas le cas.
Le fait que ce soit en cours n'est pas non plus un détail, car là aussi c'est de l'expérience supplémentaire. Même si ce n'est pas fini.
La question réellement pertinente n'est pas si incertitude sur le prix il y a, car il y a forcément une incertitude, la question est de savoir l'impact d'un éventuel surcoût.
Admettons que le démantèlement se prenne un x2 au niveau du coût par rapport à la fourchette initiale, quelque soit la raison derrière. C'est beaucoup un x2 techniquement, mais finalement pour le cycle de vie de la centrale et donc le coût de l'électricité cela n'a pas un impact si majeur qu'on pourrait le penser. Pour moi c'est ça qui compte finalement.
Et il n'y a pas de raisons de croire que l'impact sera tel que cela remet en cause la faisabilité de l'opération.
Je vais prendre un autre exemple. Tu construis un tunnel routier. Chaque tunnel est différent mais on peut définir une fourchette de prix initial. Ce n'est pas rare d'avoir des dépassements de budget, type x1,5, x2 ou plus parfois. Est-ce que cela remet en cause l'utilité de la chose et son financement ? Pas forcément, même si c'est dommage de perdre de l'argent dans ces surcoûts. Mais je n'ai pas le souvenir d'avoir vu des x100 de budget régulièrement, même dans des projets d'envergure, ni que ce soit courant que le surcoût est tel qu'il vaut mieux abandonner le projet car c'est finalement impayable.
C'est pourtant là l'enjeu à mon sens. Pour moi tant que l'incertitude est dans une fourchette finançable et où l'électricité reste à un prix compétitif, cela me semble acceptable et il semble bien que ce soit le cas.
Après tu peux avoir un autre point de vue sur le sujet, considérer qu'un x2 c'est inacceptable, soit, c'est ton droit, mais c'est un autre sujet. Je précise au moins ce que j'entends comme acceptable même avec des incertitudes élevées et une fourchette large.
Je ne dis pas le contraire, mais je précise ce que j'attends comme coût acceptable ou pas. Et donc à quel point l'incertitude même élevée est ou non un problème.
Je pense que c'est quand même essentiel et rassurant de voir qu'une expérience a été déjà menée avec succès ailleurs. C'est la preuve que cela est possible et cela donne beaucoup d'infos (économique, technique, délais, autre). On ne part pas de rien. Même s'il y a comme toujours des incertitudes.
Ne pas l'évoquer dans un tel sujet c'est de la mauvaise foi pure et simple quand on en a par ailleurs connaissance, c'est tout ce que je voulais dire. Et je n'ai pas à être spécialement prudent quand je relève cela.
[^] # Re: Ordres de grandeur
Posté par Renault (site web personnel) . En réponse au lien Nucléaire - Six mois de retard supplémentaire pour l'EPR de Flamanville. Évalué à 5.
Bah voyons. Pour moi ce n'est pas du tout évident.
Quand bien même qu'il parlerait que du cas français, c'est assez malhonnête de ne pas préciser qu'une centrale similaire dans un pays développé (donc avec des normes) l'a fait entièrement. Car cela montre bien que c'est possible, cela donne un ordre d'idée du coût par ailleurs.
Le fait de dire que cela n'a pas été fait et que EDF galère avec une centrale qui est notoirement différente et plus difficile à démanteler montre bien quel est l'objectif du commentaire : prétendre que c'est impossible ou que ce sera à un coût forcément prohibitif.
Notons que Chooz A est en cours et que jusqu'ici cela se passe bien.
La centrale américaine qui est semblable à celle du parc français donne un ordre de grandeur. Évidemment qu'il y a des incertitudes, que le prix peut monter. Mais il n'y a pas de raison de croire que le prix fera x100 par rapport à la centrale américaine.
C'est d'ailleurs ce que fait la Cour des Comptes (qui ne sont pas réputés pour être négligents dans les évaluations) pour évaluer le coût de l’opération et donc des provisions à mettre en face. Ils donnent une fourchette (d'ailleurs plus haute que celle prévue par EDF à l'origine) mais pas non plus une fourchette qui n'a aucun intérêt comme celle que tu présentes : ils partent de données du terrain tout de même et sont réalistes quant au fait que si écart de prix il y a, ce n'est pas de nature à être non finançable.
Oui et non.
Oui car en effet s'occuper de la partie radioactive du bâtiment c'est spécial, cela demande des précautions avec des coûts associés. Bien que cela n'est pas un saut dans l'inconnu non plus.
Et non car une bonne partie du bâtiment de la centrale n'a pas une radioactivité suffisante pour nécessiter des précautions supplémentaires par rapport à un bâtiment industriel classique. Ce qui réduit les incertitudes de coût et de méthode.
Comme si ces éléments là étaient inconnus d'EDF ou des institutions type la Cour des Comptes. Ce n'est pas la première fois qu'on fait une évaluation économique basée sur une expérience étrangère et qu'il faut adapter cela au contexte national.
Sans dire que c'est parfait et infaillible, faut pas non plus croire que cela ne se fait jamais et que les résultats sont toujours à côté de la plaque.
L'excès de relativisme cela n'aide pas à prendre des décisions et à avancer.
[^] # Re: Les utilisateurs de Twitter veulent la démission d'Elon Musk
Posté par Renault (site web personnel) . En réponse au lien Elon Musk lance un sondage pour demander si il doit quitter la tête de Twitter. Évalué à 5.
En quoi c'est une porte de sortie ?
Son vrai problème c'est qu'il a racheté Twitter cher et qu'il ne pourra pas récupérer ces sous sans grosses pertes. Et ça le sondage n'y changera rien.
Et rien ne l'a obligé ou ne l'oblige à être le patron de Twitter. Sans sondage dès demain il remet la direction à quelqu'un d'autre en utilisant une excuse bidon type je dois consacrer mon temps à Tesla / SpaceX / arrêter la faim dans le monde / etc..