YBoy360 a écrit 715 commentaires

  • [^] # Re: Révision technique rapide par Christopher Barnatt

    Posté par  (site web personnel) . En réponse au journal une nouvelle framboise. Évalué à 3. Dernière modification le 24 juin 2019 à 12:10.

    D'après TechCrunch, ce n'est pas de l'ethernet over USB 2.0, mais du vrai ethernet.

    J'avais lu un article il y a quelques mois parlant d'une version PRO avec un ASIC programmable, je ne trouve plus rien là-dessus malheureusement.

    J'ajoute par rapport au journal, il y a 2 ports HDMI …

  • [^] # Re: J'y étais

    Posté par  (site web personnel) . En réponse au journal Les 10 ans d'Hadopi. Évalué à 5. Dernière modification le 13 juin 2019 à 16:42.

    J'étais à l'assemblé national devant, puis dedans lors du second vote de la HADOPI.

    Riester est ministre maintenant..

  • [^] # Re: Polysémie

    Posté par  (site web personnel) . En réponse au journal Microsoft Love Linux ... et tout l'écosystème opensource .... Évalué à 3. Dernière modification le 13 juin 2019 à 02:43.

    Comme Dieu est amour, on peut remplacer dans ton texte amour par Dieu(x optionnellement, car il(s) semble(nt) indénombrable(s) si on veut mettre tout le monde d'accord).

    Autant ça fonctionne dans ton texte, autant pour le titre c'est un peu plus compliqué : Microsoft aime Linux, on peut remplacer "aime" par "a de l'amour pour" ou en inversant le sujet et le COD "est de l'amour pour".

    On se retrouve avec 2 possibilités, mais l'une est forcément vrai, c'est : Linux est l'Dieu pour Microsoft.

    Voila, voila, pardon famille tout ça[]

  • [^] # Re: bah ouais

    Posté par  (site web personnel) . En réponse au journal journalistes -> ça m'énerve.... Évalué à 4. Dernière modification le 11 juin 2019 à 02:27.

    Out of order c'est la capacité d'un CPU a regarder dans le cache instruction ce qu'il peut exécuter en parallèle. Par contre, l'écriture en mémoire se fait in order par l'issue stage (ou writeback).

    Si tu as
    a = x + y
    b = u +/* t

    Les 2 opérations et les load (typiquement 17 cycle si il faut loader depuis la mémoire, sans tlb misses) se feront en parallèle, mais a sera écrit en mémoire avant b et si x + y émet un overflow, le registre contenant b ne sera pas modifié, donc cette optimisation ooo n'est pas visible par le programme, et heureusement.

    Un exemple un peu plus compliqué impliquerait des branchements (des if), les CPU moderne essai de prédire la branche la plus probable. Sur les ARM, par défaut, les Switch et les if sont exécuté comme si la condition était vrai (comme si il n'y avait pas de branchement). Le pipeline chevauche le if, lorsque la condition est connu, si il faut faire le jump, alors le pipeline est reseté (plusieurs dizaines de cycles pour les CPU moderne). Sur les processeur itanium, tu n'as carrément pas de branchement, les instructions sont toutes exécuter et discardé en fonction des besoins.

    Peu importe comment fonctionne un CPU, un programme reste une suite d'instruction a exécuter dans l'ordre, peut être parallèlement, mais dans l'ordre. Ce qu'au final fait le CPU par rapport aux écritures mémoire.

  • [^] # Re: bah ouais

    Posté par  (site web personnel) . En réponse au journal journalistes -> ça m'énerve.... Évalué à 4.

    Le pipeline d'un CPU :

    1- "délivre" le résultat des instructions dans leur ordre exacte d'arrivée. Sinon c'est le bordel, mais il va essayer en interne (c.a.d. de façon invisible ou de façon transparente pour le programme exécuté), de paralléliser, d'anticiper les branchements et tout un tas de conneries comme prefectcher les instructions, ma memoire, le TLB ou que sais-je.. c'est totalement traçable, prévisible et tu peux essayer de voir l'état interne du processeur, à tout instant.

    2- exécuter un nombre d'instructions grossièrement constant par cycle.

    Ce n'est pas le cas d'une machine quantique (bien sûr, il n'y a pas de pipeline dans un machine quantique, c'est toute la différence, faisons comme si) :

    1-a tu ne peux pas observer l'état interne du pipeline d'une machine quantique, sans la stopper, et devoir recommencer le calcul
    1-b tu ne peux donc pas isoler une instruction séparément des autres, toutes les parties du problème s'exécute réellement simultanément sur plusieurs cycles (c'est l'intrication qui fait l'intérêt d'un calculateur quantique).
    1-c il n'y a pas d'opération de copie dans un calculateur quantique. Donc pas d'unité "issue" possible qui va copier l'état du registre interne du CPU classique vers la mémoire. le calcul est effectué "en place" (bonne chance pour trouver la condition d'arrêt, si tu connais pas le résultat cherché) ce qui implique 2-b ci-dessous.

    2-a le nombre de calculs par cycle n'est pas une constante
    2-b tout calcul fait à un instant donné à un impacte sur l'état du pipeline "virtuel", tout est intriqué, c.a.d. la longueur virtuelle qu'il faudrait simuler du pipeline d'un calculateur quantique est aussi long que le nombre de cycle du programme exécuté (si on modélise un ordinateur quantique avec un pipeline).

    Comme ce n'est pas la même chose, ces comparaisons sont un peu tirées par les cheveux.

  • [^] # Re: avoir des qbits c'est bien, mais il faut encore qu'ils ne soient pas en décohérence

    Posté par  (site web personnel) . En réponse au journal journalistes -> ça m'énerve.... Évalué à 9.

    On en est même très loin pour 72 : Google annonce juste avoir disposé 72 Qbits les un à côté des autres, avoir stocké un résultat puis relu ce résultat avec un taux d'erreur faible. C'est très bien, mais ça résoud très peu d'aspect du problème pour avoir quelque chose d'exploitable.

  • [^] # Re: bah ouais

    Posté par  (site web personnel) . En réponse au journal journalistes -> ça m'énerve.... Évalué à 10. Dernière modification le 10 juin 2019 à 07:22.

    Le problème, c'est quand les PR s'en mêlent. Là tu comprends qu'il n'y a aucun regard critique de la part de la presse.

    Combien d'articles ont répété qu'IBM avait déjà commercialisé un ordinateur quantique ? Combien disent qu'intel a déjà un CPU quantique ? (Ils ont des photos, ça oui)

    On ne sait même pas si il est possible d'en faire pour notre civilisation, la plupart des journalistes comprennent pas l'intérêt du calculateur quantique, mais ils t'annoncent sans aucun filtres toutes ces conneries.

    Certains informaticiens ne sont pas mieux lotis, un stagiaire m'a annoncé qu'il attendait le GPU quantique..

    Déjà utiliser le terme ordinateur, pour désigner ces machines, (ou calculateur) prouve que personne ne comprends vraiment le gap qu'il y a avec un ordinateur classique. Ordinateur renvoie a l'idée instructions ordonnancées ce qui est vraiment on ne peut plus trompeur pour une machine quantique.

  • [^] # Re: Performance

    Posté par  (site web personnel) . En réponse au journal Moi, expert C++, j'abandonne le C++. Évalué à 1.

    Tu veux dire faire de l'AOP (version générale du Proxy)?

    ça se fait en Java, avec AspectJ par exemple. C'est vrai que ce n'est pas simple.

  • [^] # Re: Performance

    Posté par  (site web personnel) . En réponse au journal Moi, expert C++, j'abandonne le C++. Évalué à 1.

    Je pense que tu connais déjà, c'est moyen "propre" (je ne l'utilise pas des masse), il y a l'annotation Delegate directement en Groovy.

    @TupleConstructor
    class SelectOptionList {
        @Delegate
        List<SelectOption> selectOptions
    // . . .
    }

    SelectOptionList s'utilise comme une liste.

  • # C'est pas mal, mais

    Posté par  (site web personnel) . En réponse au journal La spécialité N.S.I. de la réforme du lycée ( épisode 2 ). Évalué à 1. Dernière modification le 23 mai 2019 à 04:40.

    2 remarques :

    1 - Pourquoi ne pas parler de semi-conducteur, d'algèbre booléenne, ou d'électronique? Un peu H.S. mais la physique et la chimie ne sont pas suffisamment étudiées, trop de filières ne dispensent aucune forme de culture scientifique, c'est dommage.

    2 - 1/3 pour la pratique, c'est un bon début, mais moi j'aurais mis 2 / 3.

    L'idée du logo était pas mal à l'époque (des dinosaures), je faisais des supers trucs graphiques avec, même si les possibilités étaient limitées, ça permettait de pratiquer en se faisant plaisir. Le plaisir d'apprendre en retour fait que je me rappellerai de ces 2 cours même des dizaines d'années plus tard.

    Aujourd'hui il y a le RPi, qui pourrait servir de support pour les TP, et le prochain RPi disposera d'un ASIC programmable (pour l'IA et autres, Vivement!!).

    C'est difficile de rester succinct avec tout ce qu'il est possible d'apprendre.

    C'est p-e une mauvaise idée d'utiliser le RPi, car cela imposerai le Python, ce qui ne serait pas forcement une bonne chose. La pratique peut aussi nuire à l'ouverture d'esprit.. Si il fallait utiliser le RPi (personnellement je serais à fond pour), il faudrait les bonnes mise en garde sur les choix que cela implique.

  • [^] # Re: Sale temps et Qwant

    Posté par  (site web personnel) . En réponse au journal [HS] Microsoft ♥ Linux - Episode V "Qwantanamera". Évalué à 8.

    Les besoins de Qwant sont quand même loin des besoins des GAFAM, mais au-delà de ça, comment font les Baidu ou Yandex, sans les GAFAM ?

    Il existe Amazon, Apple, Orange, SFR, Free … le cloud de MS tient en partie grâce à Orange et SFR…

    Puis pourquoi partir TOUJOURS défaitiste ? Il n'est vraiment pas possible en Europe de faire son(ses) propre Data Center ? Pourtant c'est encore de loin la meilleure solution à long terme.

    MS ne va pas louer ses data center au prix coûtant sur la durée. Si leur moteur de recherche pompe sur Bing 60% des résultats, pourquoi ne pas utiliser Bing directement? Qu'espèrent-ils à long terme ?

    Pourquoi choisir un concurrent direct comme partenaire privilégié ?

    Être pieds et poings lié à MS, c'est comme signer un pacte avec le diable, c'est pour la vie et au-delà. Que ce soit dans les JV, la téléphonie mobile, les partenaires rapproché de MS ont toujours, sans exception terminé empaillé à leur profit.

  • [^] # Re: Sale temps et Qwant

    Posté par  (site web personnel) . En réponse au journal [HS] Microsoft ♥ Linux - Episode V "Qwantanamera". Évalué à 0.

    J'ajoute un truc, si, l'index peut contenir des données personnelles de ceux qui utilisent Qwant pour la recherche interne dans leur entreprise.

  • [^] # Re: Sale temps et Qwant

    Posté par  (site web personnel) . En réponse au journal [HS] Microsoft ♥ Linux - Episode V "Qwantanamera". Évalué à 10.

    Ce qui me gène le plus n'est pas qu'ils utilisent le cloud de Microsoft, ils n'en ont pas eu besoin jusqu'à maintenant, alors bon, je ne vois pas qu'elles explication j'aurais à donner là dessus. Puis entre Scaleway, OVH et autres t'as quand même pas mal de choix, qui aurait été sans doute bien plus en respect avec leur positionnement sur le respect de la vie privée..

    Ce qui me gène vraiment, alors que c'est écrit sur les pages de résultat (je ne sais pas comment j'ai fait pour rater ça), c'est qu'ils réutilisent les résultats de Bing et qu'ils sont dépendants d'eux pour leur régit publicitaire… Donc ils enrichissent Bing. Tes recherches, ton IP, vont chez Bing.

    Donc Qwant == Yahoo == SE de Facebook == Bing recarrosser.. Super!

    Concernant le respect de la vie privée, Microsoft est encore pire que Google. Que ce soit Skype, Office 360, LinkedIn, même Github, ou toutes les participations qu'ils ont dans des sociétés tierces, pour moi ils n'ont strictement rien à envier à Google sur la connaissance de ta vie privée.

  • # Sale temps et Qwant

    Posté par  (site web personnel) . En réponse au journal [HS] Microsoft ♥ Linux - Episode V "Qwantanamera". Évalué à 4.

    à vrai dire ça me déçoit énormément cette annonce de Qwant. Je suis un utilisateur de longue date, pour moi c'est fini. Je ne recommanderai plus Qwant.

    Ce qui me gène le plus, et que je ne savais pas, c'est que la régie publicitaire de Qwant était gérée par Microsoft. Donc en gros, Microsoft capte toutes les recherches de Qwant (et sans doute beaucoup plus, comme ce qu'ils font avec leur participation Facebook, leur clavier virtuel Windows 10 100 % connecter et autres), et il faut accepter ça via un billet de Tristan Nitot parce qu'il est cool et que ça passe parce que c'est lui ?

    Bon bah, Next!

  • # Feuille de route jusqu'à la libération finale

    Posté par  (site web personnel) . En réponse au journal J’ai installé Mageia 7 au lieu de manifester. Évalué à 4.

    La roadmap pour la Mageia 7, c'est évidement quand ce sera prêt, mais il y a quand même des dates pour la RC1 et la version finale (je précise au passage que la Mageia Beta 3 dispose du Kernel 5.1, c'est quand même bon à prendre).

    Donc, pour celles et ceux qui sont intéressés, voici cette roadmap (en Anglais, je ne connais pas trop les équivalents en Français qui soit agréable à lire, puis ça me permet de faire du copier coller (donc moins d'erreurs)) :

    • RC target release around week 19 (May 6th - May 12th) "when its ready"
    • Release Freeze: Monday May 13th, 12:00 UTC (or ~1 week after RC release)
      • nothing gets submitted unless release critical fixes.
    • Final Release iso builds starts…
    • Final release ~week 21-22 (May 20th - June 2nd) depending on release quality… "when its ready"

    Voila, il y a plus qu'a attendre, je précise que la gestation fut longue, et que les dates ci-dessus concerne à priori l'année 2019.

  • [^] # Re: posix

    Posté par  (site web personnel) . En réponse au journal Shebang #!/usr/bin/env sh : testé et approuvé. Évalué à 2.

    Hmmm, merci pour le conseil, c'est récent, car :

    $ cat test.sh
    #!/usr/bin/env -S bash --posix
    echo toto
    $ ./test.sh   
    /usr/bin/env: invalid option -- 'S'
    Try '/usr/bin/env --help' for more information.
    $ uname -a
    Linux nuc-stats 3.14.43-desktop-1.mga4 #1 SMP Thu May 21 21:25:55 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux

    mais sur ma machine, mga7, ça passe.

  • [^] # Re: posix

    Posté par  (site web personnel) . En réponse au journal Shebang #!/usr/bin/env sh : testé et approuvé. Évalué à 2.

    D'ailleurs, comme
    #!/usr/bin/env bash --posix

    ne fonctionne pas, tu dois faire

    #!/usr/bin/env bash
    
    set -o posix
  • [^] # Re: posix

    Posté par  (site web personnel) . En réponse au journal Shebang #!/usr/bin/env sh : testé et approuvé. Évalué à 1.

    j'ai lu cela il y a bien longtemps peut-être un peu rapidement : multiple-arguments-in-shebang

    pour passer des arguments à mes scripts Groovy, je fais un truc immonde :

    #!/bin/bash
    package extract
    
    REM=$/
    # bash stuff here
    export FOOBAR=Hello
    groovy/groovy-2.4.0-beta-3/bin/groovy -cp ./Desktop/jdbc\ driver/pvjdbc2.jar:./Desktop/jdbc\ driver/jpscs.jar "$0" $@
    exit $?
    /$
    // groovy stuff here

    normalement je ne passe jamais d'arguments pour mes scripts Groovy, car les libs se trouve en général sur Maven, mais là, c'est une lib qui n'est plus maintenu depuis 2008, je suis obligé de déclarer le classpath.

  • [^] # Re: posix

    Posté par  (site web personnel) . En réponse au journal Shebang #!/usr/bin/env sh : testé et approuvé. Évalué à 1. Dernière modification le 03 mai 2019 à 12:03.

    en même temps, shebang ne supporte pas les arguments..

    Question puisque l'on est vendredi, que tout est permis

    j'ai testé csh, ksh, bash, aucun ne râle lorsque je fais :
    $ false && truc

    ou

    #!/bin/sh
    
    test=truc
    if [ $test = bidule ]; then
            machin
    fi

    Je me rappelle que sous certaines versions de Solaris 8 c'était impossible…

  • # Ksh

    Posté par  (site web personnel) . En réponse au journal Shebang #!/usr/bin/env sh : testé et approuvé. Évalué à 8. Dernière modification le 02 mai 2019 à 17:09.

    J'ai l'impression d'être en 2005 d'un coup.

    Pas que c'était si lointain, mais parce qu'il y avait dans mon entourage des évangélistes du Ksh, du Sh, mais jamais du Bash.

    Pourquoi bash se fait basher? La compatibilité Posix? c'est vraiment ça le truc?

  • [^] # Re: un libc pour webassembly en somme ?

    Posté par  (site web personnel) . En réponse au journal hey wasm : wasi ! wazaaaaaaa. Évalué à 1.

    j'avais remarqué ton smiley, j'ai pas été très courtois mais ça n'était pas contre toi. En plus t'as raison, c'est Google qui a peur de son ombre qui a fait sombrer les WebComponent et Dart et le reste..

    Il existe maintenant Angular Dart, mais je sais pas. J'ai passé trop de temps à jouer avec des technos hyper prometteuses, j'en ai marre. D'autant plus que faire de l'Angular 7, 8 ou 9 TS inside quand on a fait du Dart avec les WebComponent, ça fait pas envie. On fait tout sur le serveur, et on utilise un minimum de React en Javascript (avec quelques composants en AngularJS).

    Ça vaut ce que ça vaut. C'est pas l'extase, mais mon besoin est surtout que la techno soit pérenne dans le temps. Au moins, Javascript, je pense que c'est là pour un moment.

  • [^] # Re: un libc pour webassembly en somme ?

    Posté par  (site web personnel) . En réponse au journal hey wasm : wasi ! wazaaaaaaa. Évalué à 2.

    Angular, tu veux dire le machin qui bondi de 2 versions tous les 6 mois, ou 50 % du code ressemble à du Json tellement c'est structuré?

    à la belle époque, celle où les développeurs développaient au lieu de faire des dessins débiles dans Photoshop, il était question de mettre une machine virtuelle Dart dans les navigateurs, chose qui ne s'est pas faite.

    Avant Angular et AngularJS, il y avait les WebComponents en Dart … ça à disparu, au même moment que la promesse d'intégrer Dart dans les navigateurs…

    Et oui, j'adorai les WebComponents avec Dart. J'aime vraiment pas Angular.

    Regarde ce blog de 2012 pour en avoir une idée :
    http://blog.sethladd.com/2012/11/your-first-web-component-with-dart.html

    Ce n'est pas toujours le meilleur qui gagne.

  • [^] # Re: un libc pour webassembly en somme ?

    Posté par  (site web personnel) . En réponse au journal hey wasm : wasi ! wazaaaaaaa. Évalué à 1. Dernière modification le 04 avril 2019 à 13:43.

    Oui, j'avais remarqué, après avoir bien joué avec dans le temps.

    Les avantages de native client: déjà sandboxé, possibilité d'utiliser GCC, ou LLVM (portable Native Client) donc tous les langages, gestion des dépendances, presque pas de machine virtuelle, multithread. Le tout en 2013…

    Bien que le projet était Open Source, il faut réinventer la roue, c'est WebAssembly qui a remporté les suffrages. Les objectifs futures de WebAssembly aujourd'hui, ressemblent vraiment à ce que faisait Native Client. Je comprends mal les raisons du détour qu'on est entrain de faire… C'est bien de faire comme la dame évangéliste de chez moz avec ces dessins Photoshop hyper hype, sans aborder le fond (les fonds, car j'ai lu les 2 articles, qui parte dans tout les sens).

    Dans le genre "naufrage dommageable", j'ajouterai Dart qui c'est fait détrôné par TypeScript par paresse et Anti GG.

    J'aimerai bien connaitre l'opinion qu'ont les utilisateurs de TypeScript de Dart pour voir, et les arguments (j'aime autant TypeScript que Javascript, c'est dire).

  • [^] # Re: un libc pour webassembly en somme ?

    Posté par  (site web personnel) . En réponse au journal hey wasm : wasi ! wazaaaaaaa. Évalué à 2.

    C'est un peu comme feu chrome native-client ?

    Sauf que native-client gérait les dépendances…

  • # Arguments ?

    Posté par  (site web personnel) . En réponse au journal Le dégonflage des mythes Wayland... dégonflés sur Reddit. Évalué à 4.

    J'utilise Plasma sous Wayland, et pour info, ça tourne nickel. Et je suis aussi impressionné par les performances des carte AMD en 3D, sous Wayland. Voila pour répondre aux préjugés de ce journal.

    L'autre problème de ce journal, je n'arrive pas à comprendre la teneur des arguments du message de FlukS :

    Mir would have fractured the landscape further

    Err Mir is still around. And really why did Wayland get the blessing? You could say "ahh it had the support of the community" but the question I'd like to say is why did it? It didn't show anything, it was a spec without users, without a decent implementation, that didn't answer the problem back when Mir was created and it still doesn't.

    Wayland est un protocole, en quoi est-ce un problème?

    Mir est encore là, en quoi ça ne divise pas les ressources de la communauté ? Kwin par exemple ne veut pas de 2 protocoles.. La preuve que ça divise!

    the display server was MUCH further behind what Weston was

    Not really, they had Nvidia working what after like 2 years, still Wayland is hit or miss, with some places supporting Nvidia and some places not. Mir supported SDL1 and SDL2. It had users before Wayland, it started behind Wayland and caught up and passed Wayland in parts. Enough that maybe if it got the community support it would be miles ahead right now. Now we are pretty much stuck with Wayland as it is and no end to X11 in sight.

    Fact is the community was hilariously wrong to support Wayland in that argument. It was unfounded support then, I said it then and I was proved right eventually. I said wait and see, let both develop and see which emerges as the better protocol and support that. Now we have Mir with much less resources being put into it (because the community pissed Mark off) and Wayland still not even being used fully in Fedora which is one of the only places it is shipped by default.

    En quoi les points du lien d'origine sont dégonflés ? Ces arguments ne tiennent pas : Mir supporte NVidia et la SDL. J'ai toujours pas compris les manques intrinsèque de Wayland, qui ont justifiés la création de Mir. Pour avoir le support de NVidia? il faut juste payer! Surtout que le support d'NVidia a sans doute été obtenu parce que Ubuntu travaillait avec NVidia avant de travailler avec la communauté…

    En gros, il n'y a rien de démonté par rapport au lien d'origine. Mir a été balancé sans aucune concertation, contrairement à Wayland. C'est une lutte de pouvoir entre Ubuntu d'un coté, et Free Desktop de l'autre. Ubuntu a chercher à détruire Wayland, alors que Wayland veut un X moderne. Je pense qu'il y avait un intérêt pour Ubuntu d'imposer Mir avec le support d'NVidia car une partie de ce qui fait la valeur d'une distribution ce sont les certifications HW. Être maître d'oeuvre sur Mir leur aurait donné un avantage.