En l'occurrence, donner une deadline ferme, c'est aussi un problème d'équité/égalité devant tous les candidats : tout le monde est traité de façon égale. Parce que si on suit ton raisonnement, alors bon, franchement, 19h ou 20h, tant qu'il est pas 8h ou 9h du mat', heure à laquelle on va peut-être commencer à examiner les dossier, on s'en fout non (hint : non, on ne s'en fout pas) ?
Sauf s'il est de connivence avec d'autres collaborateurs (souvent passés) ou potes, un chercheur qui a son nom sur une publi, ça veut dire l'une des choses suivantes dans mon expérience :
Il a effectué la majeure partie de la recherche (si c'est un « vieux » chercheur, ce serait étonnant — c'est à ça que servent les thésards [pour se former] et les jeunes profs [parce qu'ils n'encadrent pas forcément encore de thésards] !)
Il a encadré ou dirigé une ou plusieurs personnes qui ont fait le travail en pratique (ça implique des réunions de travail, de faire des critiques constructives, etc.)
Il est officiellement le directeur de thèse d'un des « vrais » auteurs du papier. C'est à différencier d'un « simple » encadrant : au moins en France (et dans d'autres pays aussi, comme en Chine par ex), être maître de conférences ne signifie pas qu'on a le droit de diriger la recherche d'un thésard de bout en bout. Il faut aussi avoir obtenu une HDR1. Du coup dans plein de labos français, on a un directeur de thèse officiel (mais qui ne suit pas vraiment le travail du/des thésards), et des encadrants qui font le vrai boulot de formation2. Sauf que du coup il faut bien que le directeur figure sur la liste des auteurs quand même, car c'est quand même souvent grâce à lui (enfin, à son nom) qu'un financement a pu être débloqué, un projet (et donc les sous qui vont avec) accepté, etc.
Un autre cas qui arrive de temps en temps : un des co-auteurs parle de sa recherche à quelqu'un (directement, ou bien lors d'un séminaire par exemple), et ce quelqu'un fait une remarque qui permet de débloquer une situation. Suivant le degré de pertinence de la remarque, et à quel point elle permet d'avancer sur le travail, ce genre d'aide peut être reconnu dans les remerciements en fin d'article, voire on peut proposer à cette personne d'être inscrite en tant que co-auteur (et généralement on lui donne alors un droit de regard sur l'article lui-même, et la personne peut aider à la rédaction).
EDIT: j'oubliais aussi le cas où il s'agit d'une collaboration entre différentes équipes ou labos, et où l'un des chercheurs n'a pas forcément un rapport direct avec la recherche, mais où les ressources permettant d'accomplir la recherche se situent dans son labo : nœuds de calcul (avec la partie sysadmin qui va bien), etc. (souvent ce genre de chercheur a aussi participé à la rédaction du dossier de demande de financement…).
Tout ceci étant dit, je connais des chercheurs qui continuent de chercher même à 80 ans passés, et qui publient encore en tant que premier auteur. Alors certes, leurs travaux les plus impressionnants ont été faits il y a plus de 40 ans, mais ils continuent d'améliorer leurs résultats incrémentalement (et pour au moins l'un d'entre eux, de coder eux-mêmes leurs simulateurs…).
À noter que même dans les pays qui ne nécessitent pas de HDR ce comportement existe aussi : un prof a des thésards, et laisse le soin aux postdocs et chercheurs d'encadrer les doctorants, parfois en se fichant un peu d'où en est leur thèse… ↩
D'ailleurs, J.Oliver se garde bien de se faire appeler journaliste (même si en pratique il fait sans doute un bien meilleur job que la plupart des journalistes US, au moins sur les sujets qu'il traite). Il se qualifierait sans doute plutôt d'humoriste…
Meltdown et Spectre sont si loin que ça dans les mémoires?
Du point de vue macro, les processeurs font effectivement ce qu'on leur demande : ils exécutent le code qu'on leur donne, et même s'ils utilisent la spéculation pour aller plus vite, les instructions exécutées qu'il ne fallait pas exécuter sont jetées avant que leur résultat ne soit visible pour l'utilisateur. Dans le cadre de Meltdown, le problème est réellement un « bug » de conception, car les processeurs Intel (et certains processeurs haut de gamme ARM) permettent de charger des pages noyau en cache en passant outre les bits indiquant qui a le droit de lire ce genre d'information1. C'est donc un vrai gros défaut de conception qui dit fuck à la sécurité au nom de la performance (et qu'AMD a évité apparemment). Donc, même si ce n'est sans doute pas une faille voulue par Intel/ARM, c'est quand même un gros manquement en termes de conception.
Dans le cadre de Spectre, c'est différent : on se retrouve avec un algorithme d'exécution dans le désordre (l'algorithme de Tomasulo, qui se base sur les principes d'exécution par flot de données). L'exécution dans le désordre en elle-même n'est pas un problème : si j'ai des instructions qui mettent en œuvre des unités fonctionnelles différentes (UAL, FPU, possiblement des composants spécialisés pour accéder à la mémoire, etc.), du moment que ces instructions auraient été exécutées de toute façon, les exécuter dans le désordre pour gagner du temps n'est vraiment pas un problème. Ce qui est gênant en termes de sécurité, c'est la spéculation d'instructions, car on va chercher des informations au-delà des plages d'adressage autorisées pour un programme donné lors de branchements directs ou indirects, ce qui du coup court-circuite (pour les processeurs courants) droits d'accès.
Du coup autant Meltdown exploite une erreur relativement grossière de conception, autant pour Spectre c'est plus nuancé je trouve (ça n'empêche pas de devoir corriger les deux failles en question bien entendu).
Ou plus exactement malgré le fait qu'on se trouve en mode utilisateur simple, pour des raisons de performances des pages réservées à un utilisateur privilégié sont malgré tout préchargées spéculativement en passant outre le système de protection. ↩
C'est littéralement ce que nous nous disions dans mon labo y'a ~10 ans lorsqu'on a vu des papiers montrant qu'on pouvait récupérer les clefs privés de GnuPG en passant par des side-channel attacks sur le cache : « dans la vraie vie y'a trop de bruit sur un serveur à cause de tous les processus qui tournent pour que ça puisse marcher ». Et bim, 10 ans plus tard, Spectre et Meltdown arrivent.
En l'occurrence, la notion d'analyse du prédicteur de branchement et d'utilisations d'attaques par timing pour récupérer des infos du cache de données avait déjà été abordée dès 2005-2007. Voir ici par exemple.
EDIT: pas vu une autre réponse plus complète que la mienne…
Petite correction : Apple n'est pas « pas mal à l'origine de LLVM ». En fait ils ne le sont même pas du tout. Ils embauchent le mec qui a écrit LLVM, (grosse) nuance. LLVM en tant que tel est un compilateur qui a été financé par la National Science Foundation, sur la prémisse qu'il n'y avait pas de compilateur dont l'architecture était moderne et favorisait la recherche pour les techniques de compilation, et en particulier la recherche pour les transformations optimisantes indépendantes de l'architecture cible.
Par contre depuis, et en partie grâce/à cause du passage de GCC de la GPLv2 à GPLv3, Apple a largement contribué à LLVM, c'est vrai.
Sinon comme le disaient d'autres personnes, toutes ces boites participent toutes à de gros développements pour du logiciel libre (mais évidemment c'est parce que ça leur permet de garder un certain contrôle sur comment certaines briques essentielles sont développées, et malgré tout de mutualiser une partie des efforts).
Je suis convaincu que GCC (ou n'importe quel compilateur) n'est pas capable de parser certains fichiers C parfaitement valides (mais complètement tordus).
Si tu actives certaines optimisations qui créent des graphes complexes (en gros, -O3 avec quelques options en plus par exemple) tu peux clairement arriver à des plantages du compilateur pour certains codes. Par exemple, le fameux code de ffmpeg a quelques fonctions qui font 3000 lignes pour cause de programmeur ne faisant pas confiance au compilo. Bon ben, si jamais on activait les directives de compilation et vectorisation dessus, on pourrait avoir quelques surprises, euh, intéressantes. :-)
Sinon, avec le compilateur d'Intel, il m'est déjà arrivé d'avoir des plantages du genre « Internal error : graph too deep » (ce n'était pas exactement dit comme ça, mais c'est plus ou moins ce que ça veut dire) : c'était la représentation interne du programme en activant toutes les grosses optimisations qui faisait que le compilateur finissait par faire trop de récursions en parcourant/mettant à jour le graphe…
En même temps, quand tu vois que GNU sort alloue (allouait ?) des GIGA octets histoire d'avoir toujours de la place quand il en a besoin (et qu'il s'appuie sur l'allocation de pages à la demande effectuée par le noyau en pratique), Debian a bien raison…
dès qu'on désire parler de façon un peu subtile/avec des constructions un peu complexes.
Tu répondais :
dès qu’on désire n’être compris que d’une élite en fait ?
Non. Je me fais parfaitement comprendre de gens anglophones, et oui, je parle et j'écris sans doute mieux (au sens de la grammaire et de l'orthographe) qu'une bonne partie de la population US pour le dialecte de l'anglais dont se servent les académiques. Ça ne veut pas dire que je parle « mieux » en termes de subtilité dans la langue, et ce, quel que soit le type de population à qui je m'adresse. De plus, il n'y a pas un anglais, mais plusieurs dialectes de l'anglais. L'anglais appris à l'école (je parle du cas US que je connais un peu mieux que le cas UK) est l'anglais « formel » et celui attendu pour écrire ses rédactions, devoirs, etc. Mais il existe différents dialectes hérités des siècles précédents qui, justement contrairement à ce que certains élitistes voudraient faire croire, sont tout aussi valides (mais ont émergé dans des contextes sociaux et géographiques différents de ceux qui rédigent les manuels1).
Par exemple : « We don't need no education », « I can't get no satisfaction », etc., sont des vers qui m'auraient valu une mauvaise note en cours d'anglais, mais pourtant même si ces formulations trahissent une certaine origine sociale, ça ne veut pas dire qu'elles ne sont pas valides. Il serait facile de faire le parallèle avec l'argot, le verlan, etc., qui sont parlés dans certains quartiers ou certaines banlieues, ou cités, mais selon moi les deux seuls « vrais » dialectes qui existent en français sont le français québecois et le français de métropole 2 (les quelques différences de langue entre le français de Suisse ou Belgique me semblent tellement mineurs que ça n'en fait pas des dialectes selon moi, mais je ne suis pas linguiste).
Bref. Pour revenir à ta question : non, je ne parle pas de constructions de langage élitistes, mais bien du parler de tous les jours qui peut être bien plus subtil que ce que tu laisses entendre. Et non, je n'ai pas d'exemple à te donner, là, maintenant, tout de suite, parce que je baigne tellement dans la langue anglaise US que je ne m'en rends plus forcément compte (il aurait fallu qu'on discute de ça il y a 4-5 ans, lorsque c'était encore relativement « nouveau » pour moi).
Par exemple certains dialectes sont hérités de l'esclavage aux USA, mais pas que. Il y a aussi le dialecte anglais hérité des migrants irlandais, etc.↩
Et même ça pourrait être remis en question si on considère les DOM-TOM. ↩
Ton exemple est un peut bizarre. Je pourrais écrire « Je me suis assis sur la chaise en face de la porte et elle s'est cassée. » En quoi cette phrase est-elle moins ambiguë que celle du tabouret en anglais si j'écrire « I took a seat on the stool next to the table and it broke » ?
J’ai toujours trouvé l’anglais supérieur au français dans sa logique générale, pour plein de raisons, ce « problème » de genre en français en est une de plus…
Ah ben justement, l'Anglais n'est pas spécialement meilleur que le français pour le coup. D'ailleurs, les notations de type « s/he » sont courantes justement parce qu'adresser le genre est aussi un problème en langue anglaise. Il existe une forme grammaticalement correcte, mais apparemment peu usitée, qui est d'utiliser « they » comme forme neutre, mais pas mal de profs anglophones la considèrent comme incorrecte (soit parce qu'ils n'ont jamais appris cette règle de grammaire, soit qu'ils la considèrent désuète). Du coup, ça donne des bouquins, par exemple le jeu de rôle « Vampire: The Mascarade » qui en v.o. (et peut-être aussi en v.f. ?) ont pris le parti de tout accorder au féminin — « When the vampire rises, she … », etc.
Quant à la « logique en général » de l'anglais, si la langue me semble au départ plus simple à apprendre que le français, elle montre son manque de cohérence dès qu'on désire parler de façon un peu subtile/avec des constructions un peu complexes. C'est valable tant pour la prononciation que pour l'orthographe ou la grammaire. Ça n'en excuse pas les défauts du français1 en terme de constance et de cohérence bien entendu.
Si j'ai bien compris, avant que Richelieu ne s'en mêle, la règle était d'accorder les phrases en fonction de la proximité avec la dernière composante du sujet. Exemple : « Le camion et la voiture sont vertes. » vs. « La voiture et le camion sont verts. » Personnellement ça ne me dérangerait pas qu'on revienne à cette règle, même si ça me demanderait un peu de temps pour m'adapter. ↩
Tu as bien entendu conscience que du Fortran 77 ça se trouve encore dans des codes relativement modernes dans l'industrie hein ? :-)
Pendant ma thèse (entre 2006 et 2010) j'ai bossé sur des codes en Fortran. TOUS étaient écrits au mieux en Fortran 90. Sur quatre codes industriels, deux étaient écrits en F77. Et il s'agissait d'ISV, donc leurs clients faisaient aussi du code qui se servaient du leur. Certains réclamaient de se conformer à la norme IEEE 754 strictement, même si les nouvelles archis/les nouveaux compilos sont capables d'aller jusqu'à 80 bits de précision (parce que ça passe pas les tests unitaires du client sinon).
Autre exemple con : dans les cours d'info, lorsqu'on enseigne le C aux étudiants, beaucoup, beaucoup de profs continuent d'enseigner C89. Alors que depuis on a eu 2 normes qui sont sorties. Donc ils continuent de forcer les élèves à déclarer toutes leurs variables en haut d'un bloc alors que ça fait 20 ans ou presque que la norme permet de déclarer des variables n'importe où dans un bloc de code.
Je suis à fond pour utiliser F2008 (car en plus y'a Co-Array Fortran et que c'est un sous-langage rigolo :-)), mais ton affirmation selon laquelle un thésard peut dire non à son directeur de thèse n'est que partiellement vraie. Je dis aux élèves de Master/thèse qu'il y a forcément un moment pendant la thèse où il faut apprendre à dire non. Cependant, je dis aussi que généralement, la première année on se contente de fermer sa gueule et d'appliquer les méthodes. On peut (et on doit !) les questionner, mais au final, à de très rares exceptions près, le directeur de thèse en 1ère année reste le patron. Perso F77 m'emmerde, donc j'ai fourni mes codes optimisés aux boites avec qui on bossait en leur disant que je savais pas me satisfaire des contraintes désormais artificielles de F77 et que du coup j'avais codé le tout en F90 (ce qui est globalement vrai). Leur réaction a été soit « t'as accéléré mon code de 30%, et mon compilateur sait mélanger les deux, t'inquiète on gère », soit « pas de problème on réécrira le code en F77 ».
C'est un film culte, car il a plus ou moins été l'un des premiers à montrer les hackers sous un jour relativement positif, mais aussi à utiliser de métaphores complètement débiles pour représenter l'activité de programmation et/ou piratage. Je pensais que ma citation sur le RISC montrait bien que je connais bien la nature du film… et malgré tout, un film qui m'apprend que les gentils hackers sont en Rollerblade alors que les méchants sont en skateboard ne peut être, je le répète, qu'un très grand film. :-)
Si tu parles juste de la « Sprawl Trilogy » je suis assez d'accord. Par contre, si on parle des autres trilogies que Gibson a écrites, je ne suis pas d'accord. Neuromancien en français est pas mal (et c'était un gros tour de force de l'adapter en français à l'époque), et en anglais il est encore plus spectaculaire (le style est encore plus nerveux/incisif). Comte Zéro / Mona-Lisa s'éclate sont aussi très bien, quoi qu'un cran en-dessous de Neuromancien (surtout Comte Zéro, que je trouve bien dans le contexte cyberpunk, mais sans plus)1.
Par contre, la trilogie suivante est aussi très très bonne : la « Bridge Trilogy » se situe dans un futur moins lointain, où le « big one » (gros tremblement de terre attendu en Californie) est arrivé. « Lumière virtuelle » amorce bien la trilogie, « Idoru » la continue tout aussi bien, mais c'est surtout « Tomorrow's Parties » qui est vraiment excellent et fourni une conclusion super satisfaisante.
En fait, plus le temps passe, et moins Gibson va dans le futur, car, de ce que j'ai compris, ça y est, le futur est là, et donc ce qui est intéressant c'est de s'intéresser aux usages de la technologie et de leur impact sur les hommes. En particulier, « Identification des schémas » est pour moi un chef d'œuvre, au moins aussi intéressant à lire que « Neuromancien » (mais dans un style très différent, plus calme/lent). Les romans qui suivent sont légèrement moins bien (pas encore lu « The Peripheral », qui m'attend sagement sur une étagère), mais malgré tout passionnants.
Voilà voilà, c'étaient mes deux cents.
À noter que Masamune Shirou avait publié « The Ghost in the Shell » autour de 1988-1990, et que même si c'est un manga, il avait clairement fait beaucoup de recherches à l'époque, et que le monde cyberpunk qu'il décrit aborde des thèmes très proches de ceux de Neuromancien (nature de ce qui rend quelque chose « vivant », etc.). ↩
Dans ce que tu cites je ne pense pas que l'OP nie que le script pourrait faire une vérification, juste que comme chaque script fait ce qu'il veut, à moins d'examiner chacun à la main, on ne sait pas. Alors que RPM/DEB/etc. on un protocole qu'on sait être suivi pour ce genre de choses (et qui vont t'avertir si quelque chose cloche).
Certes, mais j'allais demander outre le hype, pourquoi une instance Mastodon et pas XMPP ou Diaspora?
Pour paraphraser un autre article (dont je ne retrouve pas le lien, désolé) : parce que si GNU Social existe depuis un bail, Mastodon est le premier système qui soit raisonnablement facile à utiliser, et qui propose une interface moderne, ergonomique, et suffisamment réactive. Bref, un truc qui a un look « pro » tout en assurant les fonctionnalités que tout le monde attend de Twitt^W d'un service de micro-blogging.
À noter que les gens qui aident au développement de Mastodon se posent la question de la migration transparente — voir ici. Ils séparent le problème en deux :
Comment migrer de façon transparente un compte d'une instance à l'autre ? Il y a une partie facile (migrer ceux que « je » suis ou ai bloqués), et une partie plus complexe (faire en sorte que ceux qui me suivent n'aient rien à faire).
Comment migrer les données liées (les messages) émis depuis une instance donnée. C'est plus compliqué, et à mon avis, le seul moyen de le faire est de permettre l'export de ces données. Cependant, dans le fil que j'ai lié, quelqu'un donnait le cas d'un hypothétique robot spammeur qui en profiterait pour flooder plusieurs serveurs grâce à cela pour aller plus vite…
Bref. La migration de l'identité est quelque chose de faisable (mais apparemment le protocole initial, OSocial) pourrait avoir besoin d'une extension pour permettre une telle chose. La migration des messages, c'est plus dur, sauf si c'est « ton » instance.
Si je réponds à quelqu'un, dans 90% des cas, j'estime que c'est suffisamment pertinent pour le fil donné (pas forcément le thème du journal…) pour que je m'embête à rédiger un truc. Du coup je ne moinsse jamais les gens auxquels je réponds (mais je plussoie parfois). Par contre, si je trouve que c'est pas pertinent/très mal argumenté (donc techniquement c'est pertinent, mais j'ai franchement pas le courage ou l'envie d'expliquer pourquoi) alors je moinsse. Il y a aussi sans doute des fois où je moinsse pour dire « pas d'accord » (nul n'est parfait) mais j'essaie de limiter ça autant que possible.
La différence entre Unity et Window Maker est plus ou moins la même qu'entre GNOME et Window Maker: GNOME/KDE/Unity sont des environnements de bureau, là où Window Maker n'est « que » un gestionnaire de fenêtre globalement.
À noter que j'aime beaucoup Window Maker et qu'à l'époque où KDE/Gnome étaient encore balbutiants, c'était mon WM favori, et que même avec Gnome 1, j'utilisais souvent Window Maker en sous-main (j'ai arrêté de le faire à mesure que le WM de GNOME devenait plus intégré et qu'en conséquence les autres WM détonnaient de plus en plus).
Bref. XFCE est lui aussi plus un environnement de bureau qu'un simple gestionnaire de fenêtres. Il intègre tout un tas de fonctions que Window Maker ne gère pas du tout, malheureusement. Mais ce serait un chouette projet d'avoir un environnement de bureau basé sur Window Maker… :)
[^] # Re: Prévisible
Posté par lasher . En réponse au journal v'la ce qui se passe quand on est pas cloud ready. Évalué à 3.
En l'occurrence, donner une deadline ferme, c'est aussi un problème d'équité/égalité devant tous les candidats : tout le monde est traité de façon égale. Parce que si on suit ton raisonnement, alors bon, franchement, 19h ou 20h, tant qu'il est pas 8h ou 9h du mat', heure à laquelle on va peut-être commencer à examiner les dossier, on s'en fout non (hint : non, on ne s'en fout pas) ?
[^] # Re: Un bon résumé de ses travaux scientifiques
Posté par lasher . En réponse au journal Stephen Hawking est bronsonisé. Évalué à 7. Dernière modification le 15 mars 2018 à 16:01.
Sauf s'il est de connivence avec d'autres collaborateurs (souvent passés) ou potes, un chercheur qui a son nom sur une publi, ça veut dire l'une des choses suivantes dans mon expérience :
Un autre cas qui arrive de temps en temps : un des co-auteurs parle de sa recherche à quelqu'un (directement, ou bien lors d'un séminaire par exemple), et ce quelqu'un fait une remarque qui permet de débloquer une situation. Suivant le degré de pertinence de la remarque, et à quel point elle permet d'avancer sur le travail, ce genre d'aide peut être reconnu dans les remerciements en fin d'article, voire on peut proposer à cette personne d'être inscrite en tant que co-auteur (et généralement on lui donne alors un droit de regard sur l'article lui-même, et la personne peut aider à la rédaction).
EDIT: j'oubliais aussi le cas où il s'agit d'une collaboration entre différentes équipes ou labos, et où l'un des chercheurs n'a pas forcément un rapport direct avec la recherche, mais où les ressources permettant d'accomplir la recherche se situent dans son labo : nœuds de calcul (avec la partie sysadmin qui va bien), etc. (souvent ce genre de chercheur a aussi participé à la rédaction du dossier de demande de financement…).
Tout ceci étant dit, je connais des chercheurs qui continuent de chercher même à 80 ans passés, et qui publient encore en tant que premier auteur. Alors certes, leurs travaux les plus impressionnants ont été faits il y a plus de 40 ans, mais ils continuent d'améliorer leurs résultats incrémentalement (et pour au moins l'un d'entre eux, de coder eux-mêmes leurs simulateurs…).
Habilitation à diriger les recherches ↩
À noter que même dans les pays qui ne nécessitent pas de HDR ce comportement existe aussi : un prof a des thésards, et laisse le soin aux postdocs et chercheurs d'encadrer les doctorants, parfois en se fichant un peu d'où en est leur thèse… ↩
[^] # Re: C'est en effet pas mal
Posté par lasher . En réponse au journal Stephen Hawking est bronsonisé. Évalué à 3.
D'ailleurs, J.Oliver se garde bien de se faire appeler journaliste (même si en pratique il fait sans doute un bien meilleur job que la plupart des journalistes US, au moins sur les sujets qu'il traite). Il se qualifierait sans doute plutôt d'humoriste…
[^] # Re: Notepad++ !!!
Posté par lasher . En réponse au journal Quel IDE pour quel langage. Évalué à 2.
OoOoOoh, je ne connaissais pas. Merci ! :)
[^] # Re: Les éditeurs
Posté par lasher . En réponse au journal La bonne faille et la mauvaise faille. Évalué à 3.
Du point de vue macro, les processeurs font effectivement ce qu'on leur demande : ils exécutent le code qu'on leur donne, et même s'ils utilisent la spéculation pour aller plus vite, les instructions exécutées qu'il ne fallait pas exécuter sont jetées avant que leur résultat ne soit visible pour l'utilisateur. Dans le cadre de Meltdown, le problème est réellement un « bug » de conception, car les processeurs Intel (et certains processeurs haut de gamme ARM) permettent de charger des pages noyau en cache en passant outre les bits indiquant qui a le droit de lire ce genre d'information1. C'est donc un vrai gros défaut de conception qui dit fuck à la sécurité au nom de la performance (et qu'AMD a évité apparemment). Donc, même si ce n'est sans doute pas une faille voulue par Intel/ARM, c'est quand même un gros manquement en termes de conception.
Dans le cadre de Spectre, c'est différent : on se retrouve avec un algorithme d'exécution dans le désordre (l'algorithme de Tomasulo, qui se base sur les principes d'exécution par flot de données). L'exécution dans le désordre en elle-même n'est pas un problème : si j'ai des instructions qui mettent en œuvre des unités fonctionnelles différentes (UAL, FPU, possiblement des composants spécialisés pour accéder à la mémoire, etc.), du moment que ces instructions auraient été exécutées de toute façon, les exécuter dans le désordre pour gagner du temps n'est vraiment pas un problème. Ce qui est gênant en termes de sécurité, c'est la spéculation d'instructions, car on va chercher des informations au-delà des plages d'adressage autorisées pour un programme donné lors de branchements directs ou indirects, ce qui du coup court-circuite (pour les processeurs courants) droits d'accès.
Du coup autant Meltdown exploite une erreur relativement grossière de conception, autant pour Spectre c'est plus nuancé je trouve (ça n'empêche pas de devoir corriger les deux failles en question bien entendu).
Ou plus exactement malgré le fait qu'on se trouve en mode utilisateur simple, pour des raisons de performances des pages réservées à un utilisateur privilégié sont malgré tout préchargées spéculativement en passant outre le système de protection. ↩
[^] # Re: Bug (ou fonctionnalité ?)
Posté par lasher . En réponse à la dépêche Deux failles critiques : Meltdown et Spectre. Évalué à 4.
C'est littéralement ce que nous nous disions dans mon labo y'a ~10 ans lorsqu'on a vu des papiers montrant qu'on pouvait récupérer les clefs privés de GnuPG en passant par des side-channel attacks sur le cache : « dans la vraie vie y'a trop de bruit sur un serveur à cause de tous les processus qui tournent pour que ça puisse marcher ». Et bim, 10 ans plus tard, Spectre et Meltdown arrivent.
[^] # Re: Bug (ou fonctionnalité ?)
Posté par lasher . En réponse à la dépêche Deux failles critiques : Meltdown et Spectre. Évalué à 3. Dernière modification le 17 janvier 2018 à 12:06.
En l'occurrence, la notion d'analyse du prédicteur de branchement et d'utilisations d'attaques par timing pour récupérer des infos du cache de données avait déjà été abordée dès 2005-2007. Voir ici par exemple.
EDIT: pas vu une autre réponse plus complète que la mienne…
[^] # Re: Et les poles open-source de ces entreprises ?
Posté par lasher . En réponse au sondage Travailler pour les GAFAM. Évalué à 5.
Petite correction : Apple n'est pas « pas mal à l'origine de LLVM ». En fait ils ne le sont même pas du tout. Ils embauchent le mec qui a écrit LLVM, (grosse) nuance. LLVM en tant que tel est un compilateur qui a été financé par la National Science Foundation, sur la prémisse qu'il n'y avait pas de compilateur dont l'architecture était moderne et favorisait la recherche pour les techniques de compilation, et en particulier la recherche pour les transformations optimisantes indépendantes de l'architecture cible.
Par contre depuis, et en partie grâce/à cause du passage de GCC de la GPLv2 à GPLv3, Apple a largement contribué à LLVM, c'est vrai.
Sinon comme le disaient d'autres personnes, toutes ces boites participent toutes à de gros développements pour du logiciel libre (mais évidemment c'est parce que ça leur permet de garder un certain contrôle sur comment certaines briques essentielles sont développées, et malgré tout de mutualiser une partie des efforts).
[^] # Re: Intérêt ?
Posté par lasher . En réponse au journal Tous les parsers JSON sont mauvais. Évalué à 2.
Je réponds à la bourre, mais :
Si tu actives certaines optimisations qui créent des graphes complexes (en gros,
-O3
avec quelques options en plus par exemple) tu peux clairement arriver à des plantages du compilateur pour certains codes. Par exemple, le fameux code deffmpeg
a quelques fonctions qui font 3000 lignes pour cause de programmeur ne faisant pas confiance au compilo. Bon ben, si jamais on activait les directives de compilation et vectorisation dessus, on pourrait avoir quelques surprises, euh, intéressantes. :-)Sinon, avec le compilateur d'Intel, il m'est déjà arrivé d'avoir des plantages du genre « Internal error : graph too deep » (ce n'était pas exactement dit comme ça, mais c'est plus ou moins ce que ça veut dire) : c'était la représentation interne du programme en activant toutes les grosses optimisations qui faisait que le compilateur finissait par faire trop de récursions en parcourant/mettant à jour le graphe…
[^] # Re: Pas convaincu
Posté par lasher . En réponse au journal Tous les parsers JSON sont mauvais. Évalué à 2.
En même temps, quand tu vois que GNU sort alloue (allouait ?) des GIGA octets histoire d'avoir toujours de la place quand il en a besoin (et qu'il s'appuie sur l'allocation de pages à la demande effectuée par le noyau en pratique), Debian a bien raison…
[^] # Re: beaucoup d'avantages, quelques défauts
Posté par lasher . En réponse au sondage Que pensez-vous des liseuses ?. Évalué à 2.
C'est aussi arrivé de façon plus ciblée (et plus dévastatrice pour sa victime) : https://www.theguardian.com/money/2012/oct/22/amazon-wipes-customers-kindle-deletes-account
[^] # Re: Singulier, pluriel, faut savoir !
Posté par lasher . En réponse au journal [Jeu] Parser de l'écriture inclusive.. Évalué à 5.
Voire aux bateaux et autres véhicules (souvent au féminin), voire… L'anglais est la langue reine pour les exceptions. :-)
[^] # Re: Singulier, pluriel, faut savoir !
Posté par lasher . En réponse au journal [Jeu] Parser de l'écriture inclusive.. Évalué à 2.
Je disais :
Tu répondais :
Non. Je me fais parfaitement comprendre de gens anglophones, et oui, je parle et j'écris sans doute mieux (au sens de la grammaire et de l'orthographe) qu'une bonne partie de la population US pour le dialecte de l'anglais dont se servent les académiques. Ça ne veut pas dire que je parle « mieux » en termes de subtilité dans la langue, et ce, quel que soit le type de population à qui je m'adresse. De plus, il n'y a pas un anglais, mais plusieurs dialectes de l'anglais. L'anglais appris à l'école (je parle du cas US que je connais un peu mieux que le cas UK) est l'anglais « formel » et celui attendu pour écrire ses rédactions, devoirs, etc. Mais il existe différents dialectes hérités des siècles précédents qui, justement contrairement à ce que certains élitistes voudraient faire croire, sont tout aussi valides (mais ont émergé dans des contextes sociaux et géographiques différents de ceux qui rédigent les manuels1).
Par exemple : « We don't need no education », « I can't get no satisfaction », etc., sont des vers qui m'auraient valu une mauvaise note en cours d'anglais, mais pourtant même si ces formulations trahissent une certaine origine sociale, ça ne veut pas dire qu'elles ne sont pas valides. Il serait facile de faire le parallèle avec l'argot, le verlan, etc., qui sont parlés dans certains quartiers ou certaines banlieues, ou cités, mais selon moi les deux seuls « vrais » dialectes qui existent en français sont le français québecois et le français de métropole 2 (les quelques différences de langue entre le français de Suisse ou Belgique me semblent tellement mineurs que ça n'en fait pas des dialectes selon moi, mais je ne suis pas linguiste).
Bref. Pour revenir à ta question : non, je ne parle pas de constructions de langage élitistes, mais bien du parler de tous les jours qui peut être bien plus subtil que ce que tu laisses entendre. Et non, je n'ai pas d'exemple à te donner, là, maintenant, tout de suite, parce que je baigne tellement dans la langue anglaise US que je ne m'en rends plus forcément compte (il aurait fallu qu'on discute de ça il y a 4-5 ans, lorsque c'était encore relativement « nouveau » pour moi).
Par exemple certains dialectes sont hérités de l'esclavage aux USA, mais pas que. Il y a aussi le dialecte anglais hérité des migrants irlandais, etc. ↩
Et même ça pourrait être remis en question si on considère les DOM-TOM. ↩
[^] # Re: Singulier, pluriel, faut savoir !
Posté par lasher . En réponse au journal [Jeu] Parser de l'écriture inclusive.. Évalué à 2.
Ton exemple est un peut bizarre. Je pourrais écrire « Je me suis assis sur la chaise en face de la porte et elle s'est cassée. » En quoi cette phrase est-elle moins ambiguë que celle du tabouret en anglais si j'écrire « I took a seat on the stool next to the table and it broke » ?
[^] # Re: Singulier, pluriel, faut savoir !
Posté par lasher . En réponse au journal [Jeu] Parser de l'écriture inclusive.. Évalué à 7.
Ah ben justement, l'Anglais n'est pas spécialement meilleur que le français pour le coup. D'ailleurs, les notations de type « s/he » sont courantes justement parce qu'adresser le genre est aussi un problème en langue anglaise. Il existe une forme grammaticalement correcte, mais apparemment peu usitée, qui est d'utiliser « they » comme forme neutre, mais pas mal de profs anglophones la considèrent comme incorrecte (soit parce qu'ils n'ont jamais appris cette règle de grammaire, soit qu'ils la considèrent désuète). Du coup, ça donne des bouquins, par exemple le jeu de rôle « Vampire: The Mascarade » qui en v.o. (et peut-être aussi en v.f. ?) ont pris le parti de tout accorder au féminin — « When the vampire rises, she … », etc.
Quant à la « logique en général » de l'anglais, si la langue me semble au départ plus simple à apprendre que le français, elle montre son manque de cohérence dès qu'on désire parler de façon un peu subtile/avec des constructions un peu complexes. C'est valable tant pour la prononciation que pour l'orthographe ou la grammaire. Ça n'en excuse pas les défauts du français1 en terme de constance et de cohérence bien entendu.
Si j'ai bien compris, avant que Richelieu ne s'en mêle, la règle était d'accorder les phrases en fonction de la proximité avec la dernière composante du sujet. Exemple : « Le camion et la voiture sont vertes. » vs. « La voiture et le camion sont verts. » Personnellement ça ne me dérangerait pas qu'on revienne à cette règle, même si ça me demanderait un peu de temps pour m'adapter. ↩
[^] # Re: AH ah ah ...
Posté par lasher . En réponse au journal Java 9 est dehors. Évalué à 2.
Je dis peut-être une connerie, mais si tu tapes
[ -d "$REP" ] || mkdir "$REP"
… Les espaces sont gérés non ?
[^] # Re: Python pour scripter, C/C++ sous la capot.
Posté par lasher . En réponse au journal Un Python qui rivalise avec du C++. Évalué à 3.
Tu as bien entendu conscience que du Fortran 77 ça se trouve encore dans des codes relativement modernes dans l'industrie hein ? :-)
Pendant ma thèse (entre 2006 et 2010) j'ai bossé sur des codes en Fortran. TOUS étaient écrits au mieux en Fortran 90. Sur quatre codes industriels, deux étaient écrits en F77. Et il s'agissait d'ISV, donc leurs clients faisaient aussi du code qui se servaient du leur. Certains réclamaient de se conformer à la norme IEEE 754 strictement, même si les nouvelles archis/les nouveaux compilos sont capables d'aller jusqu'à 80 bits de précision (parce que ça passe pas les tests unitaires du client sinon).
Autre exemple con : dans les cours d'info, lorsqu'on enseigne le C aux étudiants, beaucoup, beaucoup de profs continuent d'enseigner C89. Alors que depuis on a eu 2 normes qui sont sorties. Donc ils continuent de forcer les élèves à déclarer toutes leurs variables en haut d'un bloc alors que ça fait 20 ans ou presque que la norme permet de déclarer des variables n'importe où dans un bloc de code.
Je suis à fond pour utiliser F2008 (car en plus y'a Co-Array Fortran et que c'est un sous-langage rigolo :-)), mais ton affirmation selon laquelle un thésard peut dire non à son directeur de thèse n'est que partiellement vraie. Je dis aux élèves de Master/thèse qu'il y a forcément un moment pendant la thèse où il faut apprendre à dire non. Cependant, je dis aussi que généralement, la première année on se contente de fermer sa gueule et d'appliquer les méthodes. On peut (et on doit !) les questionner, mais au final, à de très rares exceptions près, le directeur de thèse en 1ère année reste le patron. Perso F77 m'emmerde, donc j'ai fourni mes codes optimisés aux boites avec qui on bossait en leur disant que je savais pas me satisfaire des contraintes désormais artificielles de F77 et que du coup j'avais codé le tout en F90 (ce qui est globalement vrai). Leur réaction a été soit « t'as accéléré mon code de 30%, et mon compilateur sait mélanger les deux, t'inquiète on gère », soit « pas de problème on réécrira le code en F77 ».
[^] # Re: Performances SPARC ?
Posté par lasher . En réponse au journal La mort de Solaris et de SPARC. Évalué à 3.
Non non, tu as bien compris. :-)
[^] # Re: Merci
Posté par lasher . En réponse à la dépêche Revue de livre : La face cachée d’Internet, de Rayna Stamboliyska. Évalué à 8.
J'attendais la remarque sur "Hackers". :-)
C'est un film culte, car il a plus ou moins été l'un des premiers à montrer les hackers sous un jour relativement positif, mais aussi à utiliser de métaphores complètement débiles pour représenter l'activité de programmation et/ou piratage. Je pensais que ma citation sur le RISC montrait bien que je connais bien la nature du film… et malgré tout, un film qui m'apprend que les gentils hackers sont en Rollerblade alors que les méchants sont en skateboard ne peut être, je le répète, qu'un très grand film. :-)
[^] # Re: Rien à voir : Neuromancien
Posté par lasher . En réponse au journal Jouer sous GNU/Linux : la série des Shadowrun. Évalué à 5.
Si tu parles juste de la « Sprawl Trilogy » je suis assez d'accord. Par contre, si on parle des autres trilogies que Gibson a écrites, je ne suis pas d'accord. Neuromancien en français est pas mal (et c'était un gros tour de force de l'adapter en français à l'époque), et en anglais il est encore plus spectaculaire (le style est encore plus nerveux/incisif). Comte Zéro / Mona-Lisa s'éclate sont aussi très bien, quoi qu'un cran en-dessous de Neuromancien (surtout Comte Zéro, que je trouve bien dans le contexte cyberpunk, mais sans plus)1.
Par contre, la trilogie suivante est aussi très très bonne : la « Bridge Trilogy » se situe dans un futur moins lointain, où le « big one » (gros tremblement de terre attendu en Californie) est arrivé. « Lumière virtuelle » amorce bien la trilogie, « Idoru » la continue tout aussi bien, mais c'est surtout « Tomorrow's Parties » qui est vraiment excellent et fourni une conclusion super satisfaisante.
En fait, plus le temps passe, et moins Gibson va dans le futur, car, de ce que j'ai compris, ça y est, le futur est là, et donc ce qui est intéressant c'est de s'intéresser aux usages de la technologie et de leur impact sur les hommes. En particulier, « Identification des schémas » est pour moi un chef d'œuvre, au moins aussi intéressant à lire que « Neuromancien » (mais dans un style très différent, plus calme/lent). Les romans qui suivent sont légèrement moins bien (pas encore lu « The Peripheral », qui m'attend sagement sur une étagère), mais malgré tout passionnants.
Voilà voilà, c'étaient mes deux cents.
À noter que Masamune Shirou avait publié « The Ghost in the Shell » autour de 1988-1990, et que même si c'est un manga, il avait clairement fait beaucoup de recherches à l'époque, et que le monde cyberpunk qu'il décrit aborde des thèmes très proches de ceux de Neuromancien (nature de ce qui rend quelque chose « vivant », etc.). ↩
[^] # Re: Je ne comprends pas
Posté par lasher . En réponse au journal Mark Shuttleworth annonce l’abandon d’Unity. Évalué à 4.
Dans ce que tu cites je ne pense pas que l'OP nie que le script pourrait faire une vérification, juste que comme chaque script fait ce qu'il veut, à moins d'examiner chacun à la main, on ne sait pas. Alors que RPM/DEB/etc. on un protocole qu'on sait être suivi pour ce genre de choses (et qui vont t'avertir si quelque chose cloche).
[^] # Re: Numerama : Pourquoi nous avons créé notre instance Mastodon
Posté par lasher . En réponse au journal Mastodon, le réseau social qui monte ?. Évalué à 1.
Pour paraphraser un autre article (dont je ne retrouve pas le lien, désolé) : parce que si GNU Social existe depuis un bail, Mastodon est le premier système qui soit raisonnablement facile à utiliser, et qui propose une interface moderne, ergonomique, et suffisamment réactive. Bref, un truc qui a un look « pro » tout en assurant les fonctionnalités que tout le monde attend de Twitt^W d'un service de micro-blogging.
[^] # Re: Ça ne scalera pas
Posté par lasher . En réponse au journal Mastodon, le réseau social qui monte ?. Évalué à 3.
À noter que les gens qui aident au développement de Mastodon se posent la question de la migration transparente — voir ici. Ils séparent le problème en deux :
Bref. La migration de l'identité est quelque chose de faisable (mais apparemment le protocole initial, OSocial) pourrait avoir besoin d'une extension pour permettre une telle chose. La migration des messages, c'est plus dur, sauf si c'est « ton » instance.
[^] # Re: Diversité
Posté par lasher . En réponse au journal Mark Shuttleworth annonce l’abandon d’Unity. Évalué à 4.
Bon, c'est une méta-discussion, mais…
Si je réponds à quelqu'un, dans 90% des cas, j'estime que c'est suffisamment pertinent pour le fil donné (pas forcément le thème du journal…) pour que je m'embête à rédiger un truc. Du coup je ne moinsse jamais les gens auxquels je réponds (mais je plussoie parfois). Par contre, si je trouve que c'est pas pertinent/très mal argumenté (donc techniquement c'est pertinent, mais j'ai franchement pas le courage ou l'envie d'expliquer pourquoi) alors je moinsse. Il y a aussi sans doute des fois où je moinsse pour dire « pas d'accord » (nul n'est parfait) mais j'essaie de limiter ça autant que possible.
[^] # Re: Pourquoi pas XFCE?
Posté par lasher . En réponse au journal Mark Shuttleworth annonce l’abandon d’Unity. Évalué à 3.
La différence entre Unity et Window Maker est plus ou moins la même qu'entre GNOME et Window Maker: GNOME/KDE/Unity sont des environnements de bureau, là où Window Maker n'est « que » un gestionnaire de fenêtre globalement.
À noter que j'aime beaucoup Window Maker et qu'à l'époque où KDE/Gnome étaient encore balbutiants, c'était mon WM favori, et que même avec Gnome 1, j'utilisais souvent Window Maker en sous-main (j'ai arrêté de le faire à mesure que le WM de GNOME devenait plus intégré et qu'en conséquence les autres WM détonnaient de plus en plus).
Bref. XFCE est lui aussi plus un environnement de bureau qu'un simple gestionnaire de fenêtres. Il intègre tout un tas de fonctions que Window Maker ne gère pas du tout, malheureusement. Mais ce serait un chouette projet d'avoir un environnement de bureau basé sur Window Maker… :)