Ah, ça c'est peut être lié au problème de XFCE qui ne gérait pas, auparavant la synchronisation avec le « vertical blank » temps où autre fois le canon à électron remontait en haut et qui était le moment d'échanger les tampons d'affichage, ça revient au même aujourd'hui entre deux rafraîchissement des lcd/amoled/…
Du coup, sur des machine un peu pêchue, qui peuvent calculer plus d'une image par seconde, l'image suivante commence à être tracée alors que la première n'est pas affichée. ça oblige à plus de calcul que nécessaire (limité par la fréquence d'affichage) et ça crée les effets du type tearing (la nouvelle image calculée est au tiers ou moitié de l'écran, tandis que l'ancienne est en bas :).
Forcément dans ce cas, on a intérêt à limiter le calcul à la fréquence d'affichage… à se synchroniser sur elle. le CPU/GPU se repose après son boulot et avant l'affichage et rebosse un peu pour l'image suivante.
Enfin, d'un autre côté, ce que je pense de plus en plus des technologies, US, du Hitech thoérique toptop, des technologies à la pointe, mais final, ça coûte tellement cher que ça marche pas et/ou ça se fait dépasser :
Les Russes ont fait au plus simple pour leur fusées, résultat, les premier à lancer un satellite, un animal, puis un homme, puis une femme dans l'espace, les premiers à envoyer quelque chose sur la lune (un robot, qui s'est retrouvé bloqué sur un rocher je crois, encore du hitech, contre un truc simple, un caillou). Les fusées US qui ont été en retard sur tous ces programmes, aujourd'hui ne décollent plus, tout le monde (sauf les chinois qui ont leur propre lanceurs) passe par les russes pour envoyer des gens dans l'ISS.
Pour la production d'énergie, les US ont voulu promouvoir l'atome par dessus tout, c'est super-complexe, c'est chaud pour tout le monde (Long Island, Tchernobyl (ok soviétique/ukrainien), Fukushima). Et attendant, les 2 premières (Chine et Brésil) et la majorité des 10 plus puissantes centrales électriques du monde sont des barrages, avec un simple mur de béton et des turbines.
Les F22/F35 sont au top de la technologie, résultat, ils sont tellement cher à produire, et ont des coût de maintenance/heure de vol qu'on ne les envoie pas en mission sur le terrain de peur de les casser et parce que ça coûte moins cher d'envoyer des vieux modèles/drones pilotés à distance (comme le robot russe sur la lune). Les russes ont déployés pleins d'avions de 5e génération sur les théâtres des conflits, en Syrie par exemple. Les chinois et pakistanais qui coopèrent ont plein de 4e génération, commencent la 5e en plus simple, et les indiens qui on quelques 5e russo-indiens ne s'impliquent pas dans les guerres en on plein. On retrouve dans tous les multirôles russes, sino-pakistanais, français, européens, et Suédois, le plan canard, la techno simple, qui change tout en manœuvre. Les ricains sont poussifs en maniabilité. On dit que l'électronique est le plus important, c'est vrai si on ne prends pas en compte les contre-mesures…
Pour les supercalculateurs on voir la même chose, des bus d'intercommunication top du top, des processeurs et GPU surpuissants au niveau US, mais finalement ça coûte tellement cher, qu'on ne pas en mettre beaucoup, et ils se font griller par le supercalculateur chinois, qui utilise des technos de pc standard, des connexions ethernet standard et des processeurs simples mais très efficaces et moins chers.
D'après moi, l'architecture intel est trop complexe à la base, à des décennies de patch pour tenter d'être compatible pour conserver le marché juteux,
p.s.: J'ai l'impression d'avoir énuméré les pires choses qu'on fait sur terre.
AES, utilise généralement un cœur spécialisé chiffrement, encore une fois on tombe sur ce que je comparais au KISS, quand je parlais des ARM. Ce type d'opération n'est pas inclus dans les processeurs principaux, ça n'aurait aucun intérêt et d'éventuels SoC qui n'auraient aucune volonté à faire de chiffrement.
Ces fonctions sont complètement indépendante du code général, aucun intérêt de les mélanger, elle ont plutôt une fonction de traitement sur un flux de donnée que sur une seule variable ou registre… Il en va de même du DSP (traitement audio/vidéo), des contrôleurs de périphériques, etc…, qui sont cependant dans les SoC, tous au sein de la même puce pour raccourcir les échanges (moins de passage par le circuit imprimé, infiniment plus lent) et réduire par la même consommation/surface utilisée.
Comme je disais plus haut (peut être revoir l'historique pour la collision chronologie), les instructions SIMD à n opérandes sont complètement dans la philosophie RISC, on les trouve depuis des années, la philosophie du RISC, consiste à avoir des instructions simple et les pipeliner au maximum, ce qui est le cas des fonctions muladd (mulsub, etc..) des SIMD. on en trouve dans les processeur RISC depuis au moins 20 ans.
Effectivement, il était annoncé, en mai, devait être présenté, en juin au salon « ISC High Performance conference » (ISC-HPC, à Frankfurt, en Allemagne), mais je n'ai trouvé que peu d'informations sur cet événement, dont rien sur le ThunderX2, EEtimes annonce sa sortie pour la fin de 2017 (« won’t be in volume production until late next year »).
1 an et demi semble très long pour la sortie d'un SoC ARM en grande quantité (pas de produits les utilisant), chez les concurrent, il y a généralement 3 ou 4 mois entre l'annonce et la sortie de produits pour les clients finaux. Si ils continuent dans cette direction, il est clair qu'ils vont se faire distancer par les différents concurrents également en train de se préparer activement sur le marché.
Visiblement, le X-Gene1 d'AppliedMicro (qui est vendu par Gigabytes) en carte mère seulement, à de meilleures performances par cœur que le thunderX (1ere version du moins), il se positionne plus vers les serveurs contenant des petits Xeons au niveau perfs/caractéristiques de la carte mère et proc/prix.
C'est un peu normal que tout le monde ne passe pas d'un seul coup :
* Ceux qui paient, pour des certificats sont en général des professionnels.
* Ceux qui gagnent de l'argent n'ont pas envie que leur partie SSL soit cassée pour économiser ~100 €/an (du moins pas tous).
* Il y a toutes les tâches d'automatisation / test / validation + un peu de « laissons d'abord les autres se casser la pipe et corriger les bugs avant d'y passer, surtout que notre certificat est encore valide [ ] 6 mois [x] 1 an 1/2… »
Après, c'est tout de même bien plus agréable de créer un nouveau certificat en ajoutant le nom d'hôte dans un fichier et en lançant 1 ou 2 scripts qui font le reste, que de passer des heures en paperasse, avoir les lenteurs administratives derrière (sans parler de différents problèmes de mise à jour des contacts dans les bases des fournisseurs, etc…) et devoir recommencer tous les ans… Plus les clients sont nombreux, plus on perd de temps en paperasse. La différence entre <1 minute dans le cas de letsencrypt, à quelques dizaines de minute + des allez-retour (dans le meilleur cas) pour l'autre, et aucune automatisation possible, s'en fait d'autant plus ressentir. startencrypt comble une lacune de ce côté, mais je ne suis pas sur que ce soit suffisant pour continuer à payer 100 à 300 € de plus, à part pour le wildcard,… pour l'instant.
Le port aARM64 de GCC/LLVM est à la fois récent et ancien, ça permet déjà de beaux bench/core/énergie, dans pas mal de SoCs…
Si les logiciels sont libres/ouverts pas de problème de portage (sinon, bugreport, et patchs, ça prend généralement quelques minutes à faire et quelques jours max à approuver (testé)) et quelques mois pour arriver dans les distros. Mais il faut vraiment un test tordu spécifique x86 pour que ça arrive :).
Je crois qu'il y a eu des confusions dans les interprétations de ce que j'ai écrit. Déjà l'évidence des 'GPU' ou 'DPS' pour la supériorité de calcul matriciel ne date pas d'aujourd'hui, ça me parait complément débile de mettre ça en avant sans comprendre les architectures tant c'est fondamental. Cela à tendance à prouvé que vous avez lu l'article en diagonal, ce que n'ont pas fait les rédacteur de Top500, lisez tous les articles à ce sujet s'il vous plaît, ils ont bien insisté sur les réelles avancées proposées et concrétisées par les développeurs/intégrateurs.
Je parlais d'une part d'une Sunway, en tant que processeur de calcul (il a 64 unités "GPGPU" (pour les simpliste) par cœur processeur. Nvidia, qui domine le marché des GPGPU suit la même direction sur ses processeurs ARM sentant un gros marché.
Pour faire simpliste dans le même acabit RISC au niveau CPU pourrait être comparé à KISS au niveau système.
À aucun moment il n'a été évoqué, la vocation du processeur Sunway pour l’exécution de nginx… ? Je parlais des processeurs RISC en général, et des actuelles évolution de l'écosystème ARM au niveau des serveurs, qui est à la fois un problème différent car ce ne sont pas les mêmes besoins au niveau de l'architecture, ni marchés, et liées, car dépendant de systèmes moins cloisonnés (GNU/Linux est aussi dominant sur ce marché).
Le marché, utilisant des systèmes libres bien entendu, alternatif des processeurs ARM64bits est balbutiant (moins de 2 ans, comparés à plus d'une décennie pour les x86) mais déjà très prometteur. Si tous les distributions (Linux/BSD/etc), constructeurs s'y mettent, et ont déjà beaucoup de clients, ça n'est probablement pas pour perdre du temps/argent… Il suffit de comparer les prix à l'achat, benchs, et consommation de ce qui existe.
Comme le fait remarquer l'article dans la page de la comparaison avec les autres ARM. Le ThunderX (version 1) à une puissance par core à peu près équivalente aux Cortex-A57, que l'on trouve dans les téléphones mobiles moyen de gamme de l'année dernière et il y a deux ans. C'est la première gamme d'ARM 64 vits. On est loin de la puissance des Cortex-a72 haut de gamme (que l'on trouve également dans des processeurs à bas prix comme certains Mediatek ou Samsung), qui commencera a être remplacé dans les produits par les Cortex-A73 en 2017. HiSilicon (filiale de Huawei) propose aussi des 64 cœurs Cortex-A57@2.1GHz, pour son premier SoC à destination des serveurs. Leur premier Soc ARMv7 (K3V2, 4*Cortex-A9 32 bits) est sorti en 2012, ça donne idée de la vitesse d'évolution et d'adaptation dans l’écosystème ARM.
Je ne suis pas totalement d'acord avec cette interprétation RISC/CISC. Le jeu d'instruction reste plus simple sur les RISC que sur les CISC aujourd'hui et le fait d'utiliser des instructions complexes consomment toujours plus d'énergie en étant toujours moins optimal. Est-ce que les compilateurs d'aujourd'hui sont capable de penser en terme énergétique.
Le SIMD est une unité de calcul spécialisée au sein du FPU, il est plus typiquement RISC dans sa conception, ses instruction les plus utilisées muladd est une instruction simple dans sa conception mais très parallélisée. Elle est fondamentale dans tout calcul vectoriel/matriciel, le fondement de l'analyse numérique. On en trouvait déjà sur les architecture Power et autres dans les années 1990. Des instructions de type sinus et cosinus au sein des FPU sont par contre totalement CISC, on en trouve pas dans les fonctions des processeurs RISC, mais bien sur les Intel x86, sur les 68K etc. ce type de fonction est calculé, en analyse numérique par développement limité, ce qui revient encore une fois à faire des muladd. On se charge en général de l'optimiser en amont au niveau de l'algorithme, donc, son implémentation matérielle à peu d’intérêt (microcode, plus de câblages inutiles, redondance du code, moins optimal au final).
Le processeur de Sunway ne doit pas dater d'hier non plus, il y a toujours un délai entre le premier processeur sorti d'usine, la production, la conception de l'architecture, la fabrication de ses cartes, le choix de son emplacement, sa construction et sa finalisation. Si la machine est annoncé au TOP500 juin 2016, elle a probablement déjà fait l'objet de tests et applications et ne doit pas non plus dater de juin 2016, etc… c'est aussi pour ça qu'il n'y aura pas encore de supercalculateur avec les derniers d'intel avant 2018. Il est aussi très probable que cette année Shunway ai produit de nouvelle génération de processeurs étant donné l'investissement de l'état. Ici c'était régional, pour des applications pratiques (météo, infrastructures et urbanisme) et l'évolution du logiciel commun à toute la planète, visiblement plein de nœuds à démêler :).
Concernant les supercalculateurs et Intel, toujours est il que personne ne semble vouloir concevoir de supercalculateurs plus puissant avec des Intel, le 3e, fait par cray n'est même pas à la moitié de la puissance de Tianhe-2 et à environ 1/5e de la puissance du Sunway. Personne d'autre n'a fait un ordi de la puissance du Tianhe-2 en Intel et son augmentation de puissance va se faire avec du RISC, la consommation électrique et l'investissement initial des intel est telle que personne ne peut se permettre d'investir dans un calculateur de cette puissance, pour ne pas avoir le budget pour le faire tourner ensuite… Ne nous leurrons pas les évolutions des Intel d'une génération à une autre < 30% d'augmentation de puissance, donc, l'impact est faible au vu de la différence de résultat. Et comme le rappelle les articles du Top500, la puissance éléctrique nécessaire pour faire tourner le TaihuHilight, est bien inférieure, à puissance équivalente, à ces concurrents, malgré une architecture relativement rudimentaire (DDR3 plutôt que DDR4, bus plus lents (qui ne l'empêche pas de battre les autres sur des utilisations pratiques), et devrait entrer dans le green 500 sans trop de problèmes.
Intel casse les prix sur les basse conso (Atom), lourdement concurrencés par des SoC ARM à 5$/10$, par contre, sur les SoC serveurs, les évolutions sont très lente et les prix astronomiques. Ils ont profité de quelques années pour bien marger et faire des réserves financières. Laisser continuer cela, c'est se tirer une balle dans le pied pour nous autres utilisateurs. C'est en train de changer dans ce domaine :).
On est plus à l'époque du PowerPC avec un Linux un peu jeune, et pas tout l'écosystème opensource d'aujourd'hui. L'open source bouffe à peu près tous les marchés à présent (entre Github, les serveurs, supercalculateurs, modems, routeurs, embarqué, machines outils amateurs, téléphonie, etc…), avec une grande portabilité, à l'époque du PowerPC, il y avait en gros Mac et gros systèmes IBM sur Power, et Windows, OS/2 sur Intel. Silicongraphics (MIPS), Sun (SPARC) et Digital moribond (Alpha), tous propriétaires et incompatibles sur les serveurs, et un début de Linux avec quelques rares applications mais sur toutes les archis, c'était le milieu des années 1990, apache n'avait pas 10% des parts de marchés face à NCSA et quelques autres serveurs HTTP propriétaires.
Idéalement, l'ouverture / portage du code nous rend service, Des projets fabless de processeurs Opensource commençaient il y a 2 ou 3 ans, je ne sais pas où ils en sont aujourd'hui, mais on peut espérer une percée légère de ces archis, au même titre que les rasbpi dans un premier temps, pour avoir des objets à bidouille ou sécurisés sans contraintes fermées (pas d'Intel ME par exemple).
Ben, justement, comme je disais, les premiers produits ARM 64bits sont arrivés l'année dernière enfin, fin 2014 plus précisément, le temps que la stack linaro se stabilise et que tout le monde s'y mette à pris du temp. 2015 est resté relativement confidentiel côté serveurs et SBC (quelques rares modèles), moins côté mobile (phone/tablette) où ça a été l'explosion. cette année, ça commence à être moins confidentiel côté serveur avec les marques sus-cités, presque une dizaine de serveurs chez Gigabyte par exemple, avec des Soc moyens, mais en mezzanine (petite carte contenant le Soc), donc upgradable.
Depuis cette année on trouve des ARM 64 bits avec suffisamment de cœurs (48 ou 64) et de puissance pour équivaloir aux Xeon en calcul brut, avec toujours le ratio puissance/énergie beaucoup plus intéressant des RISC. Quelques hébergeurs se sont hasardé à des offres low cost sur des SBC 32 bits depuis 2 ans, je ne sais pas trop si ce marché à attiré du monde; On voit que les SBC 64bits, tout en gardant des prix abordables (<100€) se multiplient cette année (à peu près tout le monde en fait, sauf des marques genre TI complètement larguées). Toutes les distros ont des version ARM, et ça marche déjà très très bien pour le bureau (à l'exception des pilotes fermés GPU/vidéo : limite du driver GPU fermé si ARM Mali, début de pilotes dans la branche principale Mesa pour Broadcommm et depuis plus longtemps les Snapdragon de Qualcomm). Il faut donc mixer fermé/ouvert pour le bureau ou ne pas avoir d'accélération 3d (avec toujours le problème OpenGL vs OpenGL ES (merci Vulkan de résoudre ça, il faut maintenant attendre que les applications soient adaptées).
Côté serveur, du moins applis internet les plus courantes, on s'en branle complètement du pilote 3d/vidéo. Tout est dispo et fonctionne parfaitement sur ce genre d'architecture. Qemu/KVM & Xen fonctionnent aussi, Linaro à fait un papier sur l'état de l'art, qui semble dire que les générations de SoC de l'année dernières était un peu justes, celle de cette années sont appropriées :
Ce nouveau venu est étonnant sur plusieurs points, et présage d'une évolution différentes des serveurs, et c'est pas rien.
Le Sunway/shenway Taihulight utilise des processeurs maisons chinois RISC fait maison, dans certains anciens modèles semblaient inspirés ou compatibles avec le jeu d'instruction DEC Alpha. Donc, les Intel/AMD ne sont plus utilisés dans l'ordinateur le plus puissant, et ça risque de se développer de plus en plus (voir plus bas).
Les chercheurs qui travaille sur cet ordinateur ont plusieurs projets très intéressant pour donner un coup de fouet au code vieillissant. Pour rappel, les bibliothèques d'analyse numérique (beaucoup en fortran, pas mal en c/c++) sont généralement open source (OpenMP, OpenACC and MPI, etc…), comme les mathématiques (quelques millénaires avant GNU/Linux), ce qui permet à tout le monde d'ajouter son grain, à la connaissance et au calcul et à réutiliser. Le problème dans certaines parties, est qu'ils ont plusieurs décennies cumulées de patch sans trop de réorganisation, et plus personne n'y comprend rien. Pour les réseaux neuronaux par exemple, la partie apprentissage n'est pas vraiment scalable (adaptable à un grand nombre de processeur), les performances sont donc médiocre. Les chercheurs ont décidé de remettre ça au propre en même temps qu'ils portent sur cet ordinateur à 10 millions de cœurs (pour rappel le second Tianhe2 a 3 millions de cœurs). Les tests préliminaire avec les changements n'ont utilisé que 8 millions de cœur mais sont déjà prometteurs sur les gains de performance.
Ils vont également essayer de mettre un peu au propre les algorithmes de météorologie qui sont aussi un peu défraîchis.
Concernant le processeur, RISC et fait maison, des changements s'annonce, Intel est, avec le Tianhe-2, à la seconde position, complètement largué, le 3e et suivants étant encore loin derrière le Tianhe-2 qui est lui même loin derrière le 1er en terme de performances, mais 2 autres mauvaises nouvelles se profil pour le x86 dans le monde des supercalculateurs :
Fujitsu est en train de développer un nouveau processeur ARM pour supercalculateur qui promet des performances inégalées, et ça n'est pas leur premier modèle dans ce domaine.
Le gouvernement des États-Unis à eu la bonne idée de tirer une balle dans le pied d'Intel en interdisant l'export vers la Chine, des processeurs à destination du calcul intensif à Intel et AMD. Du coup, fort des résultats du TaihuLight, le gouvernement chinois à décidé d'injecter beaucoup d'argent pour aider les concepteurs de processeurs maison. C'est le cas de Sunway/Shenway et de Phytium, qui fait de l'ARM à destination des supercalculateurs, en particulier le Phytium_Mars, 64 cœurs. Ces deux processeurs devraient permettre de décupler la puissance de calcul de Tianhe-2 dans un premier temps. Au moment ou Intel/AMD se font grignoter des parts de marchés en raison de la baisse des ventes d'ordinateur de bureau et laptop et de l'explosion des tablettes et téléphones sous ARM, Intel semblant également réduire ses investissement dans le domaine du mobile, de l'embarqué (SBC genre rasbpi etc) et les serveurs utilisant des processeurs ARM se multipliant cette année (Gigabyte, Dell, HP, AMD, HiSilicon (Huawei), etc… ), ça fait un marché de plus qui se réduit pour celui-ci. Et la bonne nouvelle, c'est que Linux est l'OS favori de ces plateformes, la majorité des grosses distributions ont déjà été portées.
Dommage parce que loin. Sinon, les SoC type allWinner, Rockchip ou Samsung. Ça n'est peut être pas le même domaine, ces processeurs plus puissant sont plus orientés desktop/mobilité qu'embarqué, mais il y a à la fois du bon travail communautaire pour ces trois là, et pour Rockchip ou Samsung, du bon travail des constructeurs pour l'intégration dans le noyau de base et dans les trois cas, du matériel libre de qualité et abordable.
/me remet à Franck Routier la médaille de la claviphilie et un trophée collector en forme de clavier.
ça fait partie des 2 ou 3 touches qui ont trop de poussières pour que j'ose y toucher. Sur d'autres, au contraire, on ne voit plus le dessin des caractères . J'avais carrément oublié l'existence (ou jamais trop découvert)
Pourquoi ne pas avoir cité « 90 Second Portraits », je n'avais jamais vu ça, et c'est vraiment terrible comme ludo-éducatif. Les personnages de bases sont assez bien trouvé, après avoir croqué le cyclope tentaculaire et le modèle vivant avec des chaussettes sur les oreilles, il y a de quoi être paré pour aller faire le portraitiste à touriste professionnel à Beaubourg ou Place du Tertre ;). J'ai contaminé mon entourage croquophile avec ça en attendant et ça n'est que le début de la contagion. Ça donne envie de l'étendre sur les modèles et décors.
Suppression de SDL dans les moniteurs de retour, nous utilisons maintenant OpenGL (cela devrait être fonctionnel sur la plupart des ordinateurs relativement récents) ;
En fait, ça serait mieux OpenGL ES pour avoir plus de chance de fonctionner sur les processeurs mobiles, suffisamment puissants aujourd'hui pour en faire des machines de bureau convenable. (Blender est pas à 50fps, mais largement utilisable en Gallium + LLVMpipe pour des scènes de base.
Et pitié, EGL, pas GLX (1992=>2012), ça sera obligatoire sous Wayland, mais c'est aussi beaucoup plus efficace sous X (séparation des couches, possibilité d'avoir différentes cartes graphiques, et les pilotes de GPU récent sont ont d'abord des pilotes EGL (comme ça, ça tourne à la fois sous android, chromeos, gnu/linux et autres os basés sur Linux. GLX est (pas complètement officiellement) déprécié, les docs ont été déplacé dans un recoin sur les sites SGI/openGL, elle ne sont pas sur le site de Khronos, contrairement à EGL.
Testé sur ce type de processeur (avec Archlinux ARM), la prévisualisation ne marche pas, je ne comprends pas encore pourquoi. Si OpenGL complet est utilisé, Gallium+LLVMpipe doit faire son boulot. Mais là un carré vert avec des traces de bugs dans un coin. Le problème est peut être tout autre, il faut que je test un peu plus pour faire un rapport de bug…
Au niveau de l'acceleration vidéo dans ma config, ça marche que lorsque je choisi OpenGLES justement. Donc, youtube est lent sous firefox par exemple. VLC permet de jouer les vidéos sans problèmes.
Ah oui, j'avais vu ta présentations aux RMLL de Rawtherapee, je l'utilisais depuis pas mal de temps, mais n'étant pas pro et n'ayant pas d’expériences sur d'autres plate-formes que Linux, j'ai appris des tas de choses, merci à toi pour cette démo !
Entangle pour le contrôle complet des appareils (réflexes, quelques rares anciens modèles pocket, et je crois certains firmwares libres). la version 0.7 comprend la possibilité d'y inclure des des scripts. Il permet aussi de faire du stopmotion avec sa fonction onionskin, et tous les paramètres contrôlables : http://entangle-photo.org
Astuce : Couplé à un chromebook ARM récent GNU/Linux-ifié, c'est le top (ultra-léger <1 Kg, pas cher 150 à 250 €, 10h à 13h d'autonomie (sous chrome, en fait jusqu'à 2 ou 3 jours en coupant le réseau sous GNU/linux), marche nickel pour cette fonction, entre autre).
Hugin ne fait pas que les panorama, il permet aussi de créer des images HDRI à partir d'images multi-exposition de simple pockets ou téléphones. La fonction panorama est aussi pratique pour assembler des images plus grandes que la vitre d'un scanner.
Linux stopmotion, le fork de Stop Motion plutôt discret mais qui avance à grand pas depuis 2 ou 3 ans : http://linuxstopmotion.org
J'utilise personnellement Rawtherapee, mais il y a aussi Darktable, qui permet aussi le contrôle du boîtier pour la capture, qui semble très apprécié par beaucoup, mais où je n'ai jamais pris le tempsviens juste de comprendre comment on export l'image à la fin (il faut retourner dans table lumineuse :) ).
L'excellent, rapide et puissant Geeqie pour se balader dans les collections de photos.
Je n'arrive pas à remettre la main sur l'article qui était me semble t-il dans l'article précédent linuxfr sur le sujet (ou via plusieurs liens intermédiaires), où un un des devs qui avait participé aux 2 projets expliquaient que les dev de libav n'avaient pas beaucoup avancé et étaient de mauvaise foi, diff des dépôts git respectifs à l'appuie. Il y montrait plusieurs exemples de patchs importants (réparant de gros problèmes reportés dans le tracker de libav), patchés rapidement sur ffmpeg, puis, plusieurs mois après copiés à l'identique dans libav, sans citer l'auteur original dans le git ffmpeg et faignant d'ignorer ffmpeg. L'auteur de ffmpeg à été plus honnête en montrant bien qu'il réintégrait les évolutions de libav, lorsque c'était le cas.
Il expliquait également, que libav avait cassé à plusieurs reprises l'API tandis que l'auteur de ffmpeg s'efforçait de conserver la compatibilité aux anciennes versions de ffmpeg et de libav simultanément via différents moyens.
Tout d'abord, grand merci pour la réponse, c'est vrai que la route que j'ai faite en mongolie-Intérieure était majoritairement bitumée (avec lampadaires éolien + panneau solaire) et en minibus et c'est vrai aussi que ça vibrait bien dès qu'on prenait les vrais chemins de steppe. Sans doute que le gros camion dans Urga (1991, 25 ans) réparti mieux sur les roues les nombreux trous et bosses des chemins de steppe. Dans le film Urga, le Russe qui conduit le camion s'endort et se plante dans un lac, il a vraiment de la chance de tomber sur une famille qui vit pas loin. C'est sans doute avant tout une façon pour le réalisateur de montrer la vie des nomades des steppes et les échanges avec les voisins russes et chinois han. Le soleil dans les yeux => problème quand on voyage vers l'Est le matin ça doit être plus sympa entre Cap-town et Tromsø sur ce point. Un type à fait Mont-St Michel Fuji San en vélo couché à voile dans le genre. Je suis très admiratif de vous deux.
Effectivement, sauf depuis peu avec le passage au capitalisme sauvage après des dizaines d'années de communisme, et donc, appauvrissement subite pour les moins aisés, on ne mange traditionnellement/culturellement que de la viande qui broute de l'herbe en Mongolie (façon locale d'être végétarien puisqu'il n'y a pas de fruits/légumes). Une partie du Kazakhstan et Kirghizistan est culturellement quasi-mongole (les restes turco-mongols). Comme le poisson peut potentiellement manger des insectes, il est banni de la nourriture. Le lait de chamelle semble bien répandu dans le Sud-Ouest aussi. On voit que les gamins de 3 ans maîtrisent le chameau comme ici le vélo dans ces régions (voir « l'histoire du chameau qui pleure ») :) et du rennes d'ans d'autres (notamment chez les evenk(i)s. La marmotte doit être un des rares produits de la chasse. Il y a eu un carnage cette année, suite à une épidémie (de peste je crois).
À cheval dans la steppe on a la même sensation qu'à moto visiblement, le trot c'est essoufflant, le galop ça plane. Le Chameau je n'ai fait que rapidement (dans le temps) et lentement (dans la vitesse) dans un petit désert de sable entre Ordos et Baotou, ça secoue plus, mais on est en sécurité entre les deux bosses contrairement au dromadaire où l'on se retrouve au dessus de la bosse. Pas de problèmes de visses sur ces bêtes, mais ça serait probablement moins facile pour le passage à la frontière (quarantaine) sur un si long trajet et probablement moins rapide et d'autres ennuis en perspective.
Je me doutais en regardant la photo que c'était la steppe de Mongolie. Ça a du influencer le projet marmotte non ? :).
Je suis passé pour la deuxième fois en Mongolie-Intérieure il y a quelques mois, mais n'ai pas encore eu l'occasion de goûter à la marmotte. Est-ce qu'elle est très salée comme le mouton ? Je ne sais pas si c'est uniquement une habitude mongole ou l'influence des gens de la province voisine du Shanxi qui y sont nombreux et mangent aussi très salés et très gras (ils se sont en tout cas beaucoup influencés mutuellement). J'ai bien aimé l'alcool de lait (jument ou brebis) distillé et les bonbons de yaourt-fromage séché avec le thé au lait et millet frit.
Les Mongols disent que leur écriture (pas le cyrillique, l'écriture traditionnelle d'origine ouïghoure) est verticale parce que c'est plus facile pour écrire sur le cou d'un cheval. Ça marche peut-être aussi avec le code et la moto ? Un demi-clavier sur chaque poignée du guidon pour les longs trajets dans la steppe toute plate et ne pas s'endormir au volant comme le chauffeur du film Urga :).
Je dirais plutôt que le style plat, mais jouant sur les couleurs est plus clair, plus lisible que les boutons plein de reflets à la Mac OS X, kitsch, inesthétiques et non ergonomiques. La fin d'une mode de m**de, qui n'a que trop duré.
Si le style plat, uni et clair n'était pas le plus pratique à lire, il y a longtemps que les pictos des panneaux de circulation, de 99% des toilettes, des aéroports, des gares, des hôpitaux, des musées et j'en passe seraient bling-bling multireflets qui brille. Parce que dans ces cas, les choses sont faite avec la réflexion et concertation de spécialistes, les contraintes des codes des langues, des cultures, des handicaps, pas pour vendre un produit.
[^] # Re: Mesamatrix
Posté par tao popus . En réponse au journal Coup de boost sur le pilote graphique Intel. Évalué à 1.
Mince, il va falloir recommencer pour Vulkan ;).
[^] # Re: Tearing
Posté par tao popus . En réponse au journal Coup de boost sur le pilote graphique Intel. Évalué à 2.
Ah, ça c'est peut être lié au problème de XFCE qui ne gérait pas, auparavant la synchronisation avec le « vertical blank » temps où autre fois le canon à électron remontait en haut et qui était le moment d'échanger les tampons d'affichage, ça revient au même aujourd'hui entre deux rafraîchissement des lcd/amoled/…
Du coup, sur des machine un peu pêchue, qui peuvent calculer plus d'une image par seconde, l'image suivante commence à être tracée alors que la première n'est pas affichée. ça oblige à plus de calcul que nécessaire (limité par la fréquence d'affichage) et ça crée les effets du type tearing (la nouvelle image calculée est au tiers ou moitié de l'écran, tandis que l'ancienne est en bas :).
Forcément dans ce cas, on a intérêt à limiter le calcul à la fréquence d'affichage… à se synchroniser sur elle. le CPU/GPU se repose après son boulot et avant l'affichage et rebosse un peu pour l'image suivante.
[^] # Re: SUMMIT : Summit The Next Peak in HPC
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à -3.
Enfin, d'un autre côté, ce que je pense de plus en plus des technologies, US, du Hitech thoérique toptop, des technologies à la pointe, mais final, ça coûte tellement cher que ça marche pas et/ou ça se fait dépasser :
D'après moi, l'architecture intel est trop complexe à la base, à des décennies de patch pour tenter d'être compatible pour conserver le marché juteux,
p.s.: J'ai l'impression d'avoir énuméré les pires choses qu'on fait sur terre.
[^] # Re: Rien sur les spécificités du nouveau bébé 1er du top 500 ?
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à -1.
AES, utilise généralement un cœur spécialisé chiffrement, encore une fois on tombe sur ce que je comparais au KISS, quand je parlais des ARM. Ce type d'opération n'est pas inclus dans les processeurs principaux, ça n'aurait aucun intérêt et d'éventuels SoC qui n'auraient aucune volonté à faire de chiffrement.
Ces fonctions sont complètement indépendante du code général, aucun intérêt de les mélanger, elle ont plutôt une fonction de traitement sur un flux de donnée que sur une seule variable ou registre… Il en va de même du DSP (traitement audio/vidéo), des contrôleurs de périphériques, etc…, qui sont cependant dans les SoC, tous au sein de la même puce pour raccourcir les échanges (moins de passage par le circuit imprimé, infiniment plus lent) et réduire par la même consommation/surface utilisée.
Comme je disais plus haut (peut être revoir l'historique pour la collision chronologie), les instructions SIMD à n opérandes sont complètement dans la philosophie RISC, on les trouve depuis des années, la philosophie du RISC, consiste à avoir des instructions simple et les pipeliner au maximum, ce qui est le cas des fonctions muladd (mulsub, etc..) des SIMD. on en trouve dans les processeur RISC depuis au moins 20 ans.
[^] # Re: Rien sur les spécificités du nouveau bébé 1er du top 500 ?
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à 1.
Effectivement, il était annoncé, en mai, devait être présenté, en juin au salon « ISC High Performance conference » (ISC-HPC, à Frankfurt, en Allemagne), mais je n'ai trouvé que peu d'informations sur cet événement, dont rien sur le ThunderX2, EEtimes annonce sa sortie pour la fin de 2017 (« won’t be in volume production until late next year »).
1 an et demi semble très long pour la sortie d'un SoC ARM en grande quantité (pas de produits les utilisant), chez les concurrent, il y a généralement 3 ou 4 mois entre l'annonce et la sortie de produits pour les clients finaux. Si ils continuent dans cette direction, il est clair qu'ils vont se faire distancer par les différents concurrents également en train de se préparer activement sur le marché.
Visiblement, le X-Gene1 d'AppliedMicro (qui est vendu par Gigabytes) en carte mère seulement, à de meilleures performances par cœur que le thunderX (1ere version du moins), il se positionne plus vers les serveurs contenant des petits Xeons au niveau perfs/caractéristiques de la carte mère et proc/prix.
[^] # Re: StartEncrypt
Posté par tao popus . En réponse au journal Petites news dans le monde des autorités de certifications. Évalué à 2.
C'est un peu normal que tout le monde ne passe pas d'un seul coup :
* Ceux qui paient, pour des certificats sont en général des professionnels.
* Ceux qui gagnent de l'argent n'ont pas envie que leur partie SSL soit cassée pour économiser ~100 €/an (du moins pas tous).
* Il y a toutes les tâches d'automatisation / test / validation + un peu de « laissons d'abord les autres se casser la pipe et corriger les bugs avant d'y passer, surtout que notre certificat est encore valide [ ] 6 mois [x] 1 an 1/2… »
Après, c'est tout de même bien plus agréable de créer un nouveau certificat en ajoutant le nom d'hôte dans un fichier et en lançant 1 ou 2 scripts qui font le reste, que de passer des heures en paperasse, avoir les lenteurs administratives derrière (sans parler de différents problèmes de mise à jour des contacts dans les bases des fournisseurs, etc…) et devoir recommencer tous les ans… Plus les clients sont nombreux, plus on perd de temps en paperasse. La différence entre <1 minute dans le cas de letsencrypt, à quelques dizaines de minute + des allez-retour (dans le meilleur cas) pour l'autre, et aucune automatisation possible, s'en fait d'autant plus ressentir. startencrypt comble une lacune de ce côté, mais je ne suis pas sur que ce soit suffisant pour continuer à payer 100 à 300 € de plus, à part pour le wildcard,… pour l'instant.
[^] # Re: Rien sur les spécificités du nouveau bébé 1er du top 500 ?
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à 1.
Le port aARM64 de GCC/LLVM est à la fois récent et ancien, ça permet déjà de beaux bench/core/énergie, dans pas mal de SoCs…
Si les logiciels sont libres/ouverts pas de problème de portage (sinon, bugreport, et patchs, ça prend généralement quelques minutes à faire et quelques jours max à approuver (testé)) et quelques mois pour arriver dans les distros. Mais il faut vraiment un test tordu spécifique x86 pour que ça arrive :).
[^] # Re: Rien sur les spécificités du nouveau bébé 1er du top 500 ?
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à 3.
Je crois qu'il y a eu des confusions dans les interprétations de ce que j'ai écrit. Déjà l'évidence des 'GPU' ou 'DPS' pour la supériorité de calcul matriciel ne date pas d'aujourd'hui, ça me parait complément débile de mettre ça en avant sans comprendre les architectures tant c'est fondamental. Cela à tendance à prouvé que vous avez lu l'article en diagonal, ce que n'ont pas fait les rédacteur de Top500, lisez tous les articles à ce sujet s'il vous plaît, ils ont bien insisté sur les réelles avancées proposées et concrétisées par les développeurs/intégrateurs.
Je parlais d'une part d'une Sunway, en tant que processeur de calcul (il a 64 unités "GPGPU" (pour les simpliste) par cœur processeur. Nvidia, qui domine le marché des GPGPU suit la même direction sur ses processeurs ARM sentant un gros marché.
Pour faire simpliste dans le même acabit RISC au niveau CPU pourrait être comparé à KISS au niveau système.
À aucun moment il n'a été évoqué, la vocation du processeur Sunway pour l’exécution de nginx… ? Je parlais des processeurs RISC en général, et des actuelles évolution de l'écosystème ARM au niveau des serveurs, qui est à la fois un problème différent car ce ne sont pas les mêmes besoins au niveau de l'architecture, ni marchés, et liées, car dépendant de systèmes moins cloisonnés (GNU/Linux est aussi dominant sur ce marché).
Le marché, utilisant des systèmes libres bien entendu, alternatif des processeurs ARM64bits est balbutiant (moins de 2 ans, comparés à plus d'une décennie pour les x86) mais déjà très prometteur. Si tous les distributions (Linux/BSD/etc), constructeurs s'y mettent, et ont déjà beaucoup de clients, ça n'est probablement pas pour perdre du temps/argent… Il suffit de comparer les prix à l'achat, benchs, et consommation de ce qui existe.
[^] # Re: Rien sur les spécificités du nouveau bébé 1er du top 500 ?
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à 2.
Comme le fait remarquer l'article dans la page de la comparaison avec les autres ARM. Le ThunderX (version 1) à une puissance par core à peu près équivalente aux Cortex-A57, que l'on trouve dans les téléphones mobiles moyen de gamme de l'année dernière et il y a deux ans. C'est la première gamme d'ARM 64 vits. On est loin de la puissance des Cortex-a72 haut de gamme (que l'on trouve également dans des processeurs à bas prix comme certains Mediatek ou Samsung), qui commencera a être remplacé dans les produits par les Cortex-A73 en 2017. HiSilicon (filiale de Huawei) propose aussi des 64 cœurs Cortex-A57@2.1GHz, pour son premier SoC à destination des serveurs. Leur premier Soc ARMv7 (K3V2, 4*Cortex-A9 32 bits) est sorti en 2012, ça donne idée de la vitesse d'évolution et d'adaptation dans l’écosystème ARM.
[^] # Re: Rien sur les spécificités du nouveau bébé 1er du top 500 ?
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à 1.
Le thunderX est la précédente génération, avec, notamment, les défauts décrits par Linaro, concernant la virtualisation, il est sorti en 2014…
La deuxième génération, ThunderX2 54 cœurs à 3 Ghz, comble beaucoup de lacunes de la première.
[^] # Re: Rien sur les spécificités du nouveau bébé 1er du top 500 ?
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à 0.
Je ne suis pas totalement d'acord avec cette interprétation RISC/CISC. Le jeu d'instruction reste plus simple sur les RISC que sur les CISC aujourd'hui et le fait d'utiliser des instructions complexes consomment toujours plus d'énergie en étant toujours moins optimal. Est-ce que les compilateurs d'aujourd'hui sont capable de penser en terme énergétique.
Le SIMD est une unité de calcul spécialisée au sein du FPU, il est plus typiquement RISC dans sa conception, ses instruction les plus utilisées muladd est une instruction simple dans sa conception mais très parallélisée. Elle est fondamentale dans tout calcul vectoriel/matriciel, le fondement de l'analyse numérique. On en trouvait déjà sur les architecture Power et autres dans les années 1990. Des instructions de type sinus et cosinus au sein des FPU sont par contre totalement CISC, on en trouve pas dans les fonctions des processeurs RISC, mais bien sur les Intel x86, sur les 68K etc. ce type de fonction est calculé, en analyse numérique par développement limité, ce qui revient encore une fois à faire des muladd. On se charge en général de l'optimiser en amont au niveau de l'algorithme, donc, son implémentation matérielle à peu d’intérêt (microcode, plus de câblages inutiles, redondance du code, moins optimal au final).
[^] # Re: Rien sur les spécificités du nouveau bébé 1er du top 500 ?
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à 2.
Le processeur de Sunway ne doit pas dater d'hier non plus, il y a toujours un délai entre le premier processeur sorti d'usine, la production, la conception de l'architecture, la fabrication de ses cartes, le choix de son emplacement, sa construction et sa finalisation. Si la machine est annoncé au TOP500 juin 2016, elle a probablement déjà fait l'objet de tests et applications et ne doit pas non plus dater de juin 2016, etc… c'est aussi pour ça qu'il n'y aura pas encore de supercalculateur avec les derniers d'intel avant 2018. Il est aussi très probable que cette année Shunway ai produit de nouvelle génération de processeurs étant donné l'investissement de l'état. Ici c'était régional, pour des applications pratiques (météo, infrastructures et urbanisme) et l'évolution du logiciel commun à toute la planète, visiblement plein de nœuds à démêler :).
[^] # Re: Rien sur les spécificités du nouveau bébé 1er du top 500 ?
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à 2.
Concernant les supercalculateurs et Intel, toujours est il que personne ne semble vouloir concevoir de supercalculateurs plus puissant avec des Intel, le 3e, fait par cray n'est même pas à la moitié de la puissance de Tianhe-2 et à environ 1/5e de la puissance du Sunway. Personne d'autre n'a fait un ordi de la puissance du Tianhe-2 en Intel et son augmentation de puissance va se faire avec du RISC, la consommation électrique et l'investissement initial des intel est telle que personne ne peut se permettre d'investir dans un calculateur de cette puissance, pour ne pas avoir le budget pour le faire tourner ensuite… Ne nous leurrons pas les évolutions des Intel d'une génération à une autre < 30% d'augmentation de puissance, donc, l'impact est faible au vu de la différence de résultat. Et comme le rappelle les articles du Top500, la puissance éléctrique nécessaire pour faire tourner le TaihuHilight, est bien inférieure, à puissance équivalente, à ces concurrents, malgré une architecture relativement rudimentaire (DDR3 plutôt que DDR4, bus plus lents (qui ne l'empêche pas de battre les autres sur des utilisations pratiques), et devrait entrer dans le green 500 sans trop de problèmes.
Intel casse les prix sur les basse conso (Atom), lourdement concurrencés par des SoC ARM à 5$/10$, par contre, sur les SoC serveurs, les évolutions sont très lente et les prix astronomiques. Ils ont profité de quelques années pour bien marger et faire des réserves financières. Laisser continuer cela, c'est se tirer une balle dans le pied pour nous autres utilisateurs. C'est en train de changer dans ce domaine :).
On est plus à l'époque du PowerPC avec un Linux un peu jeune, et pas tout l'écosystème opensource d'aujourd'hui. L'open source bouffe à peu près tous les marchés à présent (entre Github, les serveurs, supercalculateurs, modems, routeurs, embarqué, machines outils amateurs, téléphonie, etc…), avec une grande portabilité, à l'époque du PowerPC, il y avait en gros Mac et gros systèmes IBM sur Power, et Windows, OS/2 sur Intel. Silicongraphics (MIPS), Sun (SPARC) et Digital moribond (Alpha), tous propriétaires et incompatibles sur les serveurs, et un début de Linux avec quelques rares applications mais sur toutes les archis, c'était le milieu des années 1990, apache n'avait pas 10% des parts de marchés face à NCSA et quelques autres serveurs HTTP propriétaires.
Idéalement, l'ouverture / portage du code nous rend service, Des projets fabless de processeurs Opensource commençaient il y a 2 ou 3 ans, je ne sais pas où ils en sont aujourd'hui, mais on peut espérer une percée légère de ces archis, au même titre que les rasbpi dans un premier temps, pour avoir des objets à bidouille ou sécurisés sans contraintes fermées (pas d'Intel ME par exemple).
[^] # Re: Rien sur les spécificités du nouveau bébé 1er du top 500 ?
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à 6.
Ben, justement, comme je disais, les premiers produits ARM 64bits sont arrivés l'année dernière enfin, fin 2014 plus précisément, le temps que la stack linaro se stabilise et que tout le monde s'y mette à pris du temp. 2015 est resté relativement confidentiel côté serveurs et SBC (quelques rares modèles), moins côté mobile (phone/tablette) où ça a été l'explosion. cette année, ça commence à être moins confidentiel côté serveur avec les marques sus-cités, presque une dizaine de serveurs chez Gigabyte par exemple, avec des Soc moyens, mais en mezzanine (petite carte contenant le Soc), donc upgradable.
Depuis cette année on trouve des ARM 64 bits avec suffisamment de cœurs (48 ou 64) et de puissance pour équivaloir aux Xeon en calcul brut, avec toujours le ratio puissance/énergie beaucoup plus intéressant des RISC. Quelques hébergeurs se sont hasardé à des offres low cost sur des SBC 32 bits depuis 2 ans, je ne sais pas trop si ce marché à attiré du monde; On voit que les SBC 64bits, tout en gardant des prix abordables (<100€) se multiplient cette année (à peu près tout le monde en fait, sauf des marques genre TI complètement larguées). Toutes les distros ont des version ARM, et ça marche déjà très très bien pour le bureau (à l'exception des pilotes fermés GPU/vidéo : limite du driver GPU fermé si ARM Mali, début de pilotes dans la branche principale Mesa pour Broadcommm et depuis plus longtemps les Snapdragon de Qualcomm). Il faut donc mixer fermé/ouvert pour le bureau ou ne pas avoir d'accélération 3d (avec toujours le problème OpenGL vs OpenGL ES (merci Vulkan de résoudre ça, il faut maintenant attendre que les applications soient adaptées).
Côté serveur, du moins applis internet les plus courantes, on s'en branle complètement du pilote 3d/vidéo. Tout est dispo et fonctionne parfaitement sur ce genre d'architecture. Qemu/KVM & Xen fonctionnent aussi, Linaro à fait un papier sur l'état de l'art, qui semble dire que les générations de SoC de l'année dernières était un peu justes, celle de cette années sont appropriées :
On the Performance of ARM Virtualization
# Rien sur les spécificités du nouveau bébé 1er du top 500 ?
Posté par tao popus . En réponse à la dépêche Le Top 500 des supercalculateurs de juin 2016. Évalué à 10. Dernière modification le 24 août 2019 à 14:33.
Ce nouveau venu est étonnant sur plusieurs points, et présage d'une évolution différentes des serveurs, et c'est pas rien.
Le Sunway/shenway Taihulight utilise des processeurs maisons chinois RISC fait maison, dans certains anciens modèles semblaient inspirés ou compatibles avec le jeu d'instruction DEC Alpha. Donc, les Intel/AMD ne sont plus utilisés dans l'ordinateur le plus puissant, et ça risque de se développer de plus en plus (voir plus bas).
Les chercheurs qui travaille sur cet ordinateur ont plusieurs projets très intéressant pour donner un coup de fouet au code vieillissant. Pour rappel, les bibliothèques d'analyse numérique (beaucoup en fortran, pas mal en c/c++) sont généralement open source (OpenMP, OpenACC and MPI, etc…), comme les mathématiques (quelques millénaires avant GNU/Linux), ce qui permet à tout le monde d'ajouter son grain, à la connaissance et au calcul et à réutiliser. Le problème dans certaines parties, est qu'ils ont plusieurs décennies cumulées de patch sans trop de réorganisation, et plus personne n'y comprend rien. Pour les réseaux neuronaux par exemple, la partie apprentissage n'est pas vraiment scalable (adaptable à un grand nombre de processeur), les performances sont donc médiocre. Les chercheurs ont décidé de remettre ça au propre en même temps qu'ils portent sur cet ordinateur à 10 millions de cœurs (pour rappel le second Tianhe2 a 3 millions de cœurs). Les tests préliminaire avec les changements n'ont utilisé que 8 millions de cœur mais sont déjà prometteurs sur les gains de performance.
Ils vont également essayer de mettre un peu au propre les algorithmes de météorologie qui sont aussi un peu défraîchis.
Inside Look at Key Applications on China’s New Top Supercomputer
Concernant le processeur, RISC et fait maison, des changements s'annonce, Intel est, avec le Tianhe-2, à la seconde position, complètement largué, le 3e et suivants étant encore loin derrière le Tianhe-2 qui est lui même loin derrière le 1er en terme de performances, mais 2 autres mauvaises nouvelles se profil pour le x86 dans le monde des supercalculateurs :
Le résumé et les liens donnés ici sont intéressants à ce sujet : ARMv8 64-bit Processors To Replace Intel Xeon and SPARC64 Processors in Some Supercomputers
# OOohh dommage.
Posté par tao popus . En réponse à la dépêche Séminaire "Portage de Linux sur plateforme ARM" le 10 décembre 2015 à Toulouse. Évalué à 1.
Dommage parce que loin. Sinon, les SoC type allWinner, Rockchip ou Samsung. Ça n'est peut être pas le même domaine, ces processeurs plus puissant sont plus orientés desktop/mobilité qu'embarqué, mais il y a à la fois du bon travail communautaire pour ces trois là, et pour Rockchip ou Samsung, du bon travail des constructeurs pour l'intégration dans le noyau de base et dans les trois cas, du matériel libre de qualité et abordable.
[^] # Re: Quelles touches ?
Posté par tao popus . En réponse au sondage J'utilise les touches "Arrêt Défil" et/ou "Pause/Attn". Évalué à 2.
/me remet à Franck Routier la médaille de la claviphilie et un trophée collector en forme de clavier.
ça fait partie des 2 ou 3 touches qui ont trop de poussières pour que j'ose y toucher. Sur d'autres, au contraire, on ne voit plus le dessin des caractères . J'avais carrément oublié l'existence (ou jamais trop découvert)
# 1 minutes 30 = un portrait
Posté par tao popus . En réponse au journal Les jeux de Tangram Games. Évalué à 1.
Pourquoi ne pas avoir cité « 90 Second Portraits », je n'avais jamais vu ça, et c'est vraiment terrible comme ludo-éducatif. Les personnages de bases sont assez bien trouvé, après avoir croqué le cyclope tentaculaire et le modèle vivant avec des chaussettes sur les oreilles, il y a de quoi être paré pour aller faire le portraitiste à touriste professionnel à Beaubourg ou Place du Tertre ;). J'ai contaminé mon entourage croquophile avec ça en attendant et ça n'est que le début de la contagion. Ça donne envie de l'étendre sur les modèles et décors.
# OpenGL :(
Posté par tao popus . En réponse à la dépêche Kdenlive 15.08 - 4 années de gestation, et comment aider ce logiciel libre à poursuivre sa route. Évalué à 1.
En fait, ça serait mieux OpenGL ES pour avoir plus de chance de fonctionner sur les processeurs mobiles, suffisamment puissants aujourd'hui pour en faire des machines de bureau convenable. (Blender est pas à 50fps, mais largement utilisable en Gallium + LLVMpipe pour des scènes de base.
Et pitié, EGL, pas GLX (1992=>2012), ça sera obligatoire sous Wayland, mais c'est aussi beaucoup plus efficace sous X (séparation des couches, possibilité d'avoir différentes cartes graphiques, et les pilotes de GPU récent sont ont d'abord des pilotes EGL (comme ça, ça tourne à la fois sous android, chromeos, gnu/linux et autres os basés sur Linux. GLX est (pas complètement officiellement) déprécié, les docs ont été déplacé dans un recoin sur les sites SGI/openGL, elle ne sont pas sur le site de Khronos, contrairement à EGL.
Testé sur ce type de processeur (avec Archlinux ARM), la prévisualisation ne marche pas, je ne comprends pas encore pourquoi. Si OpenGL complet est utilisé, Gallium+LLVMpipe doit faire son boulot. Mais là un carré vert avec des traces de bugs dans un coin. Le problème est peut être tout autre, il faut que je test un peu plus pour faire un rapport de bug…
Au niveau de l'acceleration vidéo dans ma config, ça marche que lorsque je choisi OpenGLES justement. Donc, youtube est lent sous firefox par exemple. VLC permet de jouer les vidéos sans problèmes.
[^] # Re: Et ne pas oublier
Posté par tao popus . En réponse à la dépêche Piloter son appareil photo numérique avec des logiciels libres - Mons 15 octobre 2015 (Belgique). Évalué à 1.
Ah oui, j'avais vu ta présentations aux RMLL de Rawtherapee, je l'utilisais depuis pas mal de temps, mais n'étant pas pro et n'ayant pas d’expériences sur d'autres plate-formes que Linux, j'ai appris des tas de choses, merci à toi pour cette démo !
# Et ne pas oublier
Posté par tao popus . En réponse à la dépêche Piloter son appareil photo numérique avec des logiciels libres - Mons 15 octobre 2015 (Belgique). Évalué à 2.
Astuce : Couplé à un chromebook ARM récent GNU/Linux-ifié, c'est le top (ultra-léger <1 Kg, pas cher 150 à 250 €, 10h à 13h d'autonomie (sous chrome, en fait jusqu'à 2 ou 3 jours en coupant le réseau sous GNU/linux), marche nickel pour cette fonction, entre autre).
Hugin ne fait pas que les panorama, il permet aussi de créer des images HDRI à partir d'images multi-exposition de simple pockets ou téléphones. La fonction panorama est aussi pratique pour assembler des images plus grandes que la vitre d'un scanner.
Linux stopmotion, le fork de Stop Motion plutôt discret mais qui avance à grand pas depuis 2 ou 3 ans : http://linuxstopmotion.org
J'utilise personnellement Rawtherapee, mais il y a aussi Darktable, qui permet aussi le contrôle du boîtier pour la capture, qui semble très apprécié par beaucoup, mais où je
n'ai jamais pris le tempsviens juste de comprendre comment on export l'image à la fin (il faut retourner dans table lumineuse :) ).L'excellent, rapide et puissant Geeqie pour se balader dans les collections de photos.
[^] # Re: Bonne nouvelle
Posté par tao popus . En réponse au journal La saga FFmpeg continue. Évalué à 3.
Je n'arrive pas à remettre la main sur l'article qui était me semble t-il dans l'article précédent linuxfr sur le sujet (ou via plusieurs liens intermédiaires), où un un des devs qui avait participé aux 2 projets expliquaient que les dev de libav n'avaient pas beaucoup avancé et étaient de mauvaise foi, diff des dépôts git respectifs à l'appuie. Il y montrait plusieurs exemples de patchs importants (réparant de gros problèmes reportés dans le tracker de libav), patchés rapidement sur ffmpeg, puis, plusieurs mois après copiés à l'identique dans libav, sans citer l'auteur original dans le git ffmpeg et faignant d'ignorer ffmpeg. L'auteur de ffmpeg à été plus honnête en montrant bien qu'il réintégrait les évolutions de libav, lorsque c'était le cas.
Il expliquait également, que libav avait cassé à plusieurs reprises l'API tandis que l'auteur de ffmpeg s'efforçait de conserver la compatibilité aux anciennes versions de ffmpeg et de libav simultanément via différents moyens.
AAahh, je l'ai retrouvé : http://blog.pkh.me/p/13-the-ffmpeg-libav-situation.html
[^] # Re: Vagabondage
Posté par tao popus . En réponse à la dépêche Entretien avec Jehan, développeur GIMP. Évalué à 2.
Tout d'abord, grand merci pour la réponse, c'est vrai que la route que j'ai faite en mongolie-Intérieure était majoritairement bitumée (avec lampadaires éolien + panneau solaire) et en minibus et c'est vrai aussi que ça vibrait bien dès qu'on prenait les vrais chemins de steppe. Sans doute que le gros camion dans Urga (1991, 25 ans) réparti mieux sur les roues les nombreux trous et bosses des chemins de steppe. Dans le film Urga, le Russe qui conduit le camion s'endort et se plante dans un lac, il a vraiment de la chance de tomber sur une famille qui vit pas loin. C'est sans doute avant tout une façon pour le réalisateur de montrer la vie des nomades des steppes et les échanges avec les voisins russes et chinois han. Le soleil dans les yeux => problème quand on voyage vers l'Est le matin ça doit être plus sympa entre Cap-town et Tromsø sur ce point. Un type à fait Mont-St Michel Fuji San en vélo couché à voile dans le genre. Je suis très admiratif de vous deux.
Effectivement, sauf depuis peu avec le passage au capitalisme sauvage après des dizaines d'années de communisme, et donc, appauvrissement subite pour les moins aisés, on ne mange traditionnellement/culturellement que de la viande qui broute de l'herbe en Mongolie (façon locale d'être végétarien puisqu'il n'y a pas de fruits/légumes). Une partie du Kazakhstan et Kirghizistan est culturellement quasi-mongole (les restes turco-mongols). Comme le poisson peut potentiellement manger des insectes, il est banni de la nourriture. Le lait de chamelle semble bien répandu dans le Sud-Ouest aussi. On voit que les gamins de 3 ans maîtrisent le chameau comme ici le vélo dans ces régions (voir « l'histoire du chameau qui pleure ») :) et du rennes d'ans d'autres (notamment chez les evenk(i)s. La marmotte doit être un des rares produits de la chasse. Il y a eu un carnage cette année, suite à une épidémie (de peste je crois).
À cheval dans la steppe on a la même sensation qu'à moto visiblement, le trot c'est essoufflant, le galop ça plane. Le Chameau je n'ai fait que rapidement (dans le temps) et lentement (dans la vitesse) dans un petit désert de sable entre Ordos et Baotou, ça secoue plus, mais on est en sécurité entre les deux bosses contrairement au dromadaire où l'on se retrouve au dessus de la bosse. Pas de problèmes de visses sur ces bêtes, mais ça serait probablement moins facile pour le passage à la frontière (quarantaine) sur un si long trajet et probablement moins rapide et d'autres ennuis en perspective.
[^] # Re: Vagabondage
Posté par tao popus . En réponse à la dépêche Entretien avec Jehan, développeur GIMP. Évalué à 1.
Je me doutais en regardant la photo que c'était la steppe de Mongolie. Ça a du influencer le projet marmotte non ? :).
Je suis passé pour la deuxième fois en Mongolie-Intérieure il y a quelques mois, mais n'ai pas encore eu l'occasion de goûter à la marmotte. Est-ce qu'elle est très salée comme le mouton ? Je ne sais pas si c'est uniquement une habitude mongole ou l'influence des gens de la province voisine du Shanxi qui y sont nombreux et mangent aussi très salés et très gras (ils se sont en tout cas beaucoup influencés mutuellement). J'ai bien aimé l'alcool de lait (jument ou brebis) distillé et les bonbons de yaourt-fromage séché avec le thé au lait et millet frit.
Les Mongols disent que leur écriture (pas le cyrillique, l'écriture traditionnelle d'origine ouïghoure) est verticale parce que c'est plus facile pour écrire sur le cou d'un cheval. Ça marche peut-être aussi avec le code et la moto ? Un demi-clavier sur chaque poignée du guidon pour les longs trajets dans la steppe toute plate et ne pas s'endormir au volant comme le chauffeur du film Urga :).
[^] # Re: Ergonomie
Posté par tao popus . En réponse au sondage Quelle importance a pour vous l’esthétisme de ce qui s'affiche sur votre écran ?. Évalué à -1.
Troll détecté.
Je dirais plutôt que le style plat, mais jouant sur les couleurs est plus clair, plus lisible que les boutons plein de reflets à la Mac OS X, kitsch, inesthétiques et non ergonomiques. La fin d'une mode de m**de, qui n'a que trop duré.
Si le style plat, uni et clair n'était pas le plus pratique à lire, il y a longtemps que les pictos des panneaux de circulation, de 99% des toilettes, des aéroports, des gares, des hôpitaux, des musées et j'en passe seraient bling-bling multireflets qui brille. Parce que dans ces cas, les choses sont faite avec la réflexion et concertation de spécialistes, les contraintes des codes des langues, des cultures, des handicaps, pas pour vendre un produit.