"Apres il y a probablement une possibilite, si tu arrives a faire tourner 4 coeurs a moins d'un tiers de la frequence d'un seul pour le meme resultat, peut etre que tu consommeras moins d'energie (du fait que la consomation est une loi en puissance cubique de la frequence)."
Si tu baisses la fréquence, tu augmentes le temps pour une tache, alors tu peux baisser l'énergie par instruction pour le cpu, mais c'est rarement le cas pour le reste de la puce (cache et contrôleur mémoire). Ainsi une tache souvent plus vite faite à fond, qu'avec une fréquence de moitier. J'ai même lu une étude, ou il baissait la fréquence cpu ou celle du bus mémoire en fonction de la charge qui était cpu bound ou memory bound, il gagnait 10% de consommation.
"Je me demande comment Servo/Rust va s'en sortir de ce cote la."
Le plus simple de mon point de vue est de fournir un Mapreduce multicore efficace. Dans un langage fonctionnelle, on utilise tout les temps les map et fold, c'est donc un usage naturel. Le plus complexe sera de tenir compte de l'organisation mémoire des données pour éviter tout les problèmes de faux partage et de cohérence de cache.
"Ça c'est un problème du logiciel privateur, pas libre."
Tu plaisantes ? Tu connais beaucoup de distribution linux qui supporte "plein" de version de cpu ?
"Avec quel genre de code « normal » on a besoin de performances ?"
compilateur, base de donné, serveur, interface graphique, navigateur internet….
"Aujourd'hui, les processeurs sont obligés d'extraire le parallélisme entre les instructions, dynamiquement alors que ça pourrait mieux être fait de manière statique. "
Le compilo d'Itanium prouve que c'est faux. De plus, pour avoir de bonnes perf, l'itanium a besoin d'un cache code énorme au contraire du x86.
"On peut toujours le faire dans les architectures modernes, mais, je ne sais pas pourquoi, ce genre de technique a très mauvaise presse (MDR). Sans doute, mais c'est une mauvaise raison, parce que cela rend un programme incompréhensible, particulièrement tordu et totalement illisible, dont la maintenance est impossible que par un autre que celui qui l'a écrit (et encore) ?"
Les caches data et code étant séparé, ce genre de bidouille est très peu performante. Pour des raisons de sécurité, on déteste que des données deviennent du code exécutable.
"Les processeurs multicoeurs d'aujourd'hui ont beaucoup de mal à dépasser les 8 cœurs car la complexité de l'unité de ré-ordonnancement des instructions croit avec le carré du nombre de cœurs gérés."
Joli mélange entre superscalaire et multicore. Pour info, le seul cout d'un multi coeur par rapport au mono coeur est la gestion de la cohérence de cache. Le cout du réordonnancement c'est pour un cpu avec plein d'unité de calcul comme l'i7.
", très adapté à la programmation parallèle, les meilleurs Itanium ne dépassent cependant pas 8 cœurs."
Oui, ils sont VLIW, qui gère des paquets de 3 instructions. Selon les générations d'itaniuim, le cpu gère 1 packets de 3, 2 ou 3 packets de 3, donc 9 instructions à la volé.
"La distance occupée entre les éléments composant le supercalculateur : l'information ne peut se déplacer plus vite que la lumière. Aussi, si la distance entre les éléments dépasse plusieurs mètres, des temps de latence de l'ordre de la dizaine de nanoseconde peuvent apparaître et atténuer les performances."
Oui, mais non. Les pertes dans la bufferisation ou dans la transmission (sérialisation, encodage, code correcteur) sont bien plus importante que ce problème là.
"Concernant le second point, si l'on caricature la puissance d'un superordinateur à son nombre de cœurs, avec 256 cœurs sur une même puce, à nombre de cœurs égaux, une seule puce MPPA suffit là où il faudrait 32 processeurs 8 cœurs. On diminue donc la taille du système par 32 et d'autant les risques de latence. Enfin, cela reste une caricature, mais c'est un facteur qui a une réelle importance."
C'est une caricature, car tu oublies complètement la bande passante mémoire.
"la loi de Moore implique une multiplication par 2 tous les 2 ans de la performance et donc de la consommation électrique. "
La loi de Moore stipule un doublement du nombre de transistor pour le même prix, tous les 12 18 ou 24 mois, selon les versions. Il n'est pas question de consommation. Mais ce doublement a été fait en baissant la taille des transistors qui mécaniquement consomme moins.
"Parce que l’efficacité énergétique de ce nouveau processeur amène une réelle rupture technologique qui trouvera un double écho dans le monde des grands centres de données qui sont dans le mur énergétique aujourd'hui et dans le monde de l'embarqué car il rend des applications réalisables aujourd'hui qui étaient impossibles auparavant, demandant une forte puissance de calcul pour un budget consommation restreint."
Oui, mais il ne faudrait pas non plus prendre Intel pour des cons. Toutes les techniques employé par ce cpu sont disponible pour Intel. C'était le projet Larrabee, qui a raté car les GPU sont beaucoup plus puissant. Un GPU propose une nouvelle façon de programmer, sans cohérence mémoire, mais toujours plus facile. Les itanium étaient aussi VLIW dans le but de récupérer le silicium de l’ordonnanceur pour mettre des unités de calcul. Mais le code a tellement enfler, qu'il fallait ajouter des mega octets de cache, là, où le x86 demandait 10x moins. Gagner sur les ordonnanceurs pour y perdre sur le cache n'a pas d’intérêt.
"Les processeurs MPPA 256 sont aussi et avant tout une alternative aux solutions FPGA et ASICS actuellement utilisées dans les projets industriels ayant besoin d'une grande puissance de calcul. Ils diminuent la complexité de programmation de ce type de puces qui demandent plusieurs mois de développement en ramenant ce délai à quelques semaines : « Time is money ! » "
J'ai rarement vu ce genre d'application. Si un standard est bien établis comme celle de la vidéo (h264), un asic sera toujours imbattable en terme de prix et de consommation. Ce genre d'ip est dans tous les téléphones portables. Concernant les FPGA, ils servent souvent pour de la communication ou du traitement où la latence est primordiale. Latence impossible à tenir avec un truc avec un OS. Si le besoin est de la grosse puissance de calcul, les DSP était beaucoup employé.
"Les processeurs Kalray tiennent apparemment clairement leurs engagements et aucun autre processeur du marché ne rivalise aujourd'hui avec leur rendement en terme de puissance/consommation électrique. "
Les coeurs ARM ? Il y a un tas de projet de cpu multicoeur ARM pour aller dans le cloud. L'avantage est que la pile de logiciel est mature sous ARM. Le besoin du cloud est rarement autour de la puissance de calcul, mais plutôt de serveur de donné (web, db, …).
"Bien sur ces ordinateurs seront entièrement personnalisables sur le principe du Phonebloks."
Non, cela n'arrivera jamais. Les connecteurs nécessaires couteraient plus chère que les puces.
"Ils seront équipés de détecteurs en tout genre comme la radioactivité, le cancer, microscope, laser…"
Je parie sur les détecteurs de CO2, Nox, CO,… Bref, la pollution atmosphérique.
Le load balancing ne te fait une tolérance aux pannes en écriture.
"Tu penses qu'il suffit d'un claquement de doigts et, hop, les problèmes de parallélisme sont résolus ?"
Il faut utiliser les outils mis à disposition (mapreduce+bigtable), mais ce n'est pas sorcier non plus. C'est beaucoup moins complexe que de faire du mpi.
N'empèche avant google, personne ne savait faire des applis tournant sur des clusters de 1000 machines, les doigts dans le nez.
Qui est capable de faire une application insensible à un plantage d'un ordinateur complet ? Aujourd'hui cela se démocratise avec les VM, mais c'est encore loin des applis déployés par google.
Les GPU des ARM sont encore simples. Il y a une énorme culture du secret à casser, ce qui n'est pas évident. Mais les acteurs sont aussi peu nombreux (2 ?).
Il suffirait que ARM ouvre les specs de ses gpu, comme ils le font pour leur, cpu et le problème serait réglé.
Il y a d'autre service comme cela, d'utilité public ? Je pense à des miroirs de distribution, au moins sous forme de serveur bittorent. Il doit y en avoir d'autre.
Cela serait utile d'avoir une sorte de distribution linux, sous forme d'image d'OS, à monter dans une machine virtuelle, pour ceux qui loue un PC dans le cloud. Cela pourrait rendre service à beaucoup de gens à un cout minime.
La programmation par flux ressemble beaucoup, à la technique de transformation d'arbre successive. Cela peut souvent paraitre une perte, de recopier les données sont une autre forme. Mais cela permet d'éliminer toute une classe de bug lorsqu'il existe un tas de configuration fautive en lecture. C'est toujours plus facile d'écrire les données sous une forme pratique avant.
"ce qui peut avoir des conséquences sur les performances"
Et pas qu'un peu. Pour une application de copie qui fonctionne par bloc de 15Mo, avec une mise à jour d'un pourcentage de complétion à chaque fin de copie d'un bloc, avec une bande passante de 100 Mo/s, le flush() faisait chuter la vitesse de 20 % !
"Le soucis de l'i18n me pousse aussi à employer des formats de chaîne."
Tu peux développer ? Je n'ai jamais eu à faire à du i18n.
Est-ce que la poste a un service qui définit les API pour faciliter la vie de ses utilisateurs de données, et pour qu'elles soit aussi, un peu stable dans le temps ?
J'ai l'impression que le format des données et la manière de la réutiliser, peut être un sacré frein . ex: que faire d'un scan de document papier en format pdf, fichier .csv mal définit, etc…
Que le mandat de l'UE soit secret pour pouvoir négocier, est compréhensible, mais garder le texte en cours de rédaction secret, ne devrait pas être constitutionnel.
Pour moi le RAII, c'est la libération de la ressource (genre fichier) dans le destructeur, et sa prise de controle dans le constructeur. Tes 2 pointeurs magiques font de la gestion mémoire.
" (je fait du code depuis 1979, j'ai une vague idée :)"
Et vous donnez l'impression d'être bloqué avec les paradigmes de l'époque.
"Mais des vrais fonctions non slotée (c'est à dire NON commandée à l'avance) où l'on est obligé de s'inscrit avant le besoin réel et pour suivre une procédure pré-définie."
Il y a forcément un endroit pour décrire le canal de communication entre l'émetteur et le récepteur.
" dans le cas de Message "sloté" tu défini les segments d'un graphe bayesian "
Non, pas du tout, tu définis un canal de canal de communication.
Et arrêtez de parler de Turing à tout bout de champ. Cela fait un peu ridicule, son ruban simple est une démonstration, que l'on peut écrire touts algorithmes avec pas grand chose, rien de plus. Vous semblez pensez que tout algo se décrit comme sur un ruban de Turing, alors qu'il a seulement démontrer l'implication inverse.
Ta page "avantage" pourrait d'appliquer à n'importe quoi, et cela reste du purement qualitatif, sans quantitatif.
Le code source est noyé. Celui que j'ai pu lire ressemble à du C++/Qt avec du message-passing entre objet. J'ai toujours pas compris l’intérêt de ton truc.
Je pensais à une application de réseau bayésien : la détection de faux commentaires. Tu récupères les date/heures des commentaires, le commentaire, le pseudo de connexion et son IP.
Un bon commentateur cache une seul personne derrière un seul pseudo, et qq IP. Un mauvais commentateur se cache derrière un proxy, dispose de plusieurs pseudo, mais utilise le même genre de mots (on peut détecter une personne avec le contenu de ses textes : fréquence de certains mots, c'est comme une empreinte).
[^] # Re: Mouais
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Kalray un processeur massivement parallèle très impressionnant : Qu’il est loin le temps de mon ZX81. Évalué à 2.
"Apres il y a probablement une possibilite, si tu arrives a faire tourner 4 coeurs a moins d'un tiers de la frequence d'un seul pour le meme resultat, peut etre que tu consommeras moins d'energie (du fait que la consomation est une loi en puissance cubique de la frequence)."
Si tu baisses la fréquence, tu augmentes le temps pour une tache, alors tu peux baisser l'énergie par instruction pour le cpu, mais c'est rarement le cas pour le reste de la puce (cache et contrôleur mémoire). Ainsi une tache souvent plus vite faite à fond, qu'avec une fréquence de moitier. J'ai même lu une étude, ou il baissait la fréquence cpu ou celle du bus mémoire en fonction de la charge qui était cpu bound ou memory bound, il gagnait 10% de consommation.
"Je me demande comment Servo/Rust va s'en sortir de ce cote la."
Le plus simple de mon point de vue est de fournir un Mapreduce multicore efficace. Dans un langage fonctionnelle, on utilise tout les temps les map et fold, c'est donc un usage naturel. Le plus complexe sera de tenir compte de l'organisation mémoire des données pour éviter tout les problèmes de faux partage et de cohérence de cache.
"La première sécurité est la liberté"
[^] # Re: Et les compilateurs?
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Kalray un processeur massivement parallèle très impressionnant : Qu’il est loin le temps de mon ZX81. Évalué à 3.
"Ça c'est un problème du logiciel privateur, pas libre."
Tu plaisantes ? Tu connais beaucoup de distribution linux qui supporte "plein" de version de cpu ?
"Avec quel genre de code « normal » on a besoin de performances ?"
compilateur, base de donné, serveur, interface graphique, navigateur internet….
"Aujourd'hui, les processeurs sont obligés d'extraire le parallélisme entre les instructions, dynamiquement alors que ça pourrait mieux être fait de manière statique. "
Le compilo d'Itanium prouve que c'est faux. De plus, pour avoir de bonnes perf, l'itanium a besoin d'un cache code énorme au contraire du x86.
"La première sécurité est la liberté"
[^] # Re: Pour comparer les performances
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Kalray un processeur massivement parallèle très impressionnant : Qu’il est loin le temps de mon ZX81. Évalué à 6.
"On peut toujours le faire dans les architectures modernes, mais, je ne sais pas pourquoi, ce genre de technique a très mauvaise presse (MDR). Sans doute, mais c'est une mauvaise raison, parce que cela rend un programme incompréhensible, particulièrement tordu et totalement illisible, dont la maintenance est impossible que par un autre que celui qui l'a écrit (et encore) ?"
Les caches data et code étant séparé, ce genre de bidouille est très peu performante. Pour des raisons de sécurité, on déteste que des données deviennent du code exécutable.
"La première sécurité est la liberté"
# arm ?
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Kalray un processeur massivement parallèle très impressionnant : Qu’il est loin le temps de mon ZX81. Évalué à 10.
"Les processeurs multicoeurs d'aujourd'hui ont beaucoup de mal à dépasser les 8 cœurs car la complexité de l'unité de ré-ordonnancement des instructions croit avec le carré du nombre de cœurs gérés."
Joli mélange entre superscalaire et multicore. Pour info, le seul cout d'un multi coeur par rapport au mono coeur est la gestion de la cohérence de cache. Le cout du réordonnancement c'est pour un cpu avec plein d'unité de calcul comme l'i7.
", très adapté à la programmation parallèle, les meilleurs Itanium ne dépassent cependant pas 8 cœurs."
Oui, ils sont VLIW, qui gère des paquets de 3 instructions. Selon les générations d'itaniuim, le cpu gère 1 packets de 3, 2 ou 3 packets de 3, donc 9 instructions à la volé.
"La distance occupée entre les éléments composant le supercalculateur : l'information ne peut se déplacer plus vite que la lumière. Aussi, si la distance entre les éléments dépasse plusieurs mètres, des temps de latence de l'ordre de la dizaine de nanoseconde peuvent apparaître et atténuer les performances."
Oui, mais non. Les pertes dans la bufferisation ou dans la transmission (sérialisation, encodage, code correcteur) sont bien plus importante que ce problème là.
"Concernant le second point, si l'on caricature la puissance d'un superordinateur à son nombre de cœurs, avec 256 cœurs sur une même puce, à nombre de cœurs égaux, une seule puce MPPA suffit là où il faudrait 32 processeurs 8 cœurs. On diminue donc la taille du système par 32 et d'autant les risques de latence. Enfin, cela reste une caricature, mais c'est un facteur qui a une réelle importance."
C'est une caricature, car tu oublies complètement la bande passante mémoire.
"la loi de Moore implique une multiplication par 2 tous les 2 ans de la performance et donc de la consommation électrique. "
La loi de Moore stipule un doublement du nombre de transistor pour le même prix, tous les 12 18 ou 24 mois, selon les versions. Il n'est pas question de consommation. Mais ce doublement a été fait en baissant la taille des transistors qui mécaniquement consomme moins.
"Parce que l’efficacité énergétique de ce nouveau processeur amène une réelle rupture technologique qui trouvera un double écho dans le monde des grands centres de données qui sont dans le mur énergétique aujourd'hui et dans le monde de l'embarqué car il rend des applications réalisables aujourd'hui qui étaient impossibles auparavant, demandant une forte puissance de calcul pour un budget consommation restreint."
Oui, mais il ne faudrait pas non plus prendre Intel pour des cons. Toutes les techniques employé par ce cpu sont disponible pour Intel. C'était le projet Larrabee, qui a raté car les GPU sont beaucoup plus puissant. Un GPU propose une nouvelle façon de programmer, sans cohérence mémoire, mais toujours plus facile. Les itanium étaient aussi VLIW dans le but de récupérer le silicium de l’ordonnanceur pour mettre des unités de calcul. Mais le code a tellement enfler, qu'il fallait ajouter des mega octets de cache, là, où le x86 demandait 10x moins. Gagner sur les ordonnanceurs pour y perdre sur le cache n'a pas d’intérêt.
"Les processeurs MPPA 256 sont aussi et avant tout une alternative aux solutions FPGA et ASICS actuellement utilisées dans les projets industriels ayant besoin d'une grande puissance de calcul. Ils diminuent la complexité de programmation de ce type de puces qui demandent plusieurs mois de développement en ramenant ce délai à quelques semaines : « Time is money ! » "
J'ai rarement vu ce genre d'application. Si un standard est bien établis comme celle de la vidéo (h264), un asic sera toujours imbattable en terme de prix et de consommation. Ce genre d'ip est dans tous les téléphones portables. Concernant les FPGA, ils servent souvent pour de la communication ou du traitement où la latence est primordiale. Latence impossible à tenir avec un truc avec un OS. Si le besoin est de la grosse puissance de calcul, les DSP était beaucoup employé.
"Les processeurs Kalray tiennent apparemment clairement leurs engagements et aucun autre processeur du marché ne rivalise aujourd'hui avec leur rendement en terme de puissance/consommation électrique. "
Les coeurs ARM ? Il y a un tas de projet de cpu multicoeur ARM pour aller dans le cloud. L'avantage est que la pile de logiciel est mature sous ARM. Le besoin du cloud est rarement autour de la puissance de calcul, mais plutôt de serveur de donné (web, db, …).
"Bien sur ces ordinateurs seront entièrement personnalisables sur le principe du Phonebloks."
Non, cela n'arrivera jamais. Les connecteurs nécessaires couteraient plus chère que les puces.
"Ils seront équipés de détecteurs en tout genre comme la radioactivité, le cancer, microscope, laser…"
Je parie sur les détecteurs de CO2, Nox, CO,… Bref, la pollution atmosphérique.
"La première sécurité est la liberté"
[^] # Re: Brace yourselves, bullshit is coming.
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 1. Dernière modification le 08 janvier 2014 à 15:51.
Le load balancing ne te fait une tolérance aux pannes en écriture.
"Tu penses qu'il suffit d'un claquement de doigts et, hop, les problèmes de parallélisme sont résolus ?"
Il faut utiliser les outils mis à disposition (mapreduce+bigtable), mais ce n'est pas sorcier non plus. C'est beaucoup moins complexe que de faire du mpi.
"La première sécurité est la liberté"
[^] # Re: au sujet du Vinyle vs CD vs MP3
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche NwAvGuy O2 : l’amplificateur casque sous licence Creative Common. Évalué à 3.
Le problème est surtout qu'il n'existe pas de format pour ça.
"La première sécurité est la liberté"
[^] # Re: Brace yourselves, bullshit is coming.
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 3.
'soupir'
"un module ne ralenti pas les autres"
Comment 2 trucs pourrait aller aussi vite qu'un seul ?
Pour mettre tes 2 modules ensembles, tu décris bien la connexion entre eux par un fichier XML, il y a donc bien un 3ième truc qui fait la liaison.
"La première sécurité est la liberté"
[^] # Re: L'escroquerie audiophile
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche NwAvGuy O2 : l’amplificateur casque sous licence Creative Common. Évalué à 2.
D'ailleurs, toutes les enceintes devraient être amplifié. Cela permet ainsi de faire des filtres actifs et d'avoir un bien meilleur rendement.
"La première sécurité est la liberté"
[^] # Re: L'histoire se repette !
Posté par Nicolas Boulay (site web personnel) . En réponse au journal Sailfish OS embarque une partie propriétaire. Évalué à 2.
Dommage que opengraphics n'est rien donné. Il aurait pu attaquer le marcher des IP par le bas avec un super driver opensource.
"La première sécurité est la liberté"
[^] # Re: Brace yourselves, bullshit is coming.
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 3.
N'empèche avant google, personne ne savait faire des applis tournant sur des clusters de 1000 machines, les doigts dans le nez.
Qui est capable de faire une application insensible à un plantage d'un ordinateur complet ? Aujourd'hui cela se démocratise avec les VM, mais c'est encore loin des applis déployés par google.
"La première sécurité est la liberté"
[^] # Re: Brace yourselves, bullshit is coming.
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 2.
C'est la programmation modulaire, n'importe quel langage permet de le faire.
"La première sécurité est la liberté"
[^] # Re: L'histoire se repette !
Posté par Nicolas Boulay (site web personnel) . En réponse au journal Sailfish OS embarque une partie propriétaire. Évalué à 1.
Mais par rapport au part de marché de ARM et de imgtec, le reste ne représente pas grand chose non ?
"La première sécurité est la liberté"
[^] # Re: L'histoire se repette !
Posté par Nicolas Boulay (site web personnel) . En réponse au journal Sailfish OS embarque une partie propriétaire. Évalué à 1. Dernière modification le 08 janvier 2014 à 11:25.
Les GPU des ARM sont encore simples. Il y a une énorme culture du secret à casser, ce qui n'est pas évident. Mais les acteurs sont aussi peu nombreux (2 ?).
Il suffirait que ARM ouvre les specs de ses gpu, comme ils le font pour leur, cpu et le problème serait réglé.
"La première sécurité est la liberté"
# serveur d'utilité public ?
Posté par Nicolas Boulay (site web personnel) . En réponse au journal Blague : Plouf le serveur. Évalué à 3.
Il y a d'autre service comme cela, d'utilité public ? Je pense à des miroirs de distribution, au moins sous forme de serveur bittorent. Il doit y en avoir d'autre.
Cela serait utile d'avoir une sorte de distribution linux, sous forme d'image d'OS, à monter dans une machine virtuelle, pour ceux qui loue un PC dans le cloud. Cela pourrait rendre service à beaucoup de gens à un cout minime.
"La première sécurité est la liberté"
[^] # Re: Conférence
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 3.
La programmation par flux ressemble beaucoup, à la technique de transformation d'arbre successive. Cela peut souvent paraitre une perte, de recopier les données sont une autre forme. Mais cela permet d'éliminer toute une classe de bug lorsqu'il existe un tas de configuration fautive en lecture. C'est toujours plus facile d'écrire les données sous une forme pratique avant.
"La première sécurité est la liberté"
[^] # Re: Brace yourselves, bullshit is coming.
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 2.
"ce qui peut avoir des conséquences sur les performances"
Et pas qu'un peu. Pour une application de copie qui fonctionne par bloc de 15Mo, avec une mise à jour d'un pourcentage de complétion à chaque fin de copie d'un bloc, avec une bande passante de 100 Mo/s, le flush() faisait chuter la vitesse de 20 % !
"Le soucis de l'i18n me pousse aussi à employer des formats de chaîne."
Tu peux développer ? Je n'ai jamais eu à faire à du i18n.
"La première sécurité est la liberté"
# api ?
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche DataPoste, le programme OpenData du groupe La Poste. Évalué à 9.
Est-ce que la poste a un service qui définit les API pour faciliter la vie de ses utilisateurs de données, et pour qu'elles soit aussi, un peu stable dans le temps ?
J'ai l'impression que le format des données et la manière de la réutiliser, peut être un sacré frein . ex: que faire d'un scan de document papier en format pdf, fichier .csv mal définit, etc…
"La première sécurité est la liberté"
# démocratie des accords internationaux...
Posté par Nicolas Boulay (site web personnel) . En réponse au journal TAFTA (Trans-Atlantic Free Trade Agreement). Évalué à 10.
Que le mandat de l'UE soit secret pour pouvoir négocier, est compréhensible, mais garder le texte en cours de rédaction secret, ne devrait pas être constitutionnel.
"La première sécurité est la liberté"
[^] # Re: Brace yourselves, bullshit is coming.
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 1.
Pour moi le RAII, c'est la libération de la ressource (genre fichier) dans le destructeur, et sa prise de controle dans le constructeur. Tes 2 pointeurs magiques font de la gestion mémoire.
"La première sécurité est la liberté"
[^] # Re: Brace yourselves, bullshit is coming.
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 5.
Il ne faut pas exagérer non plus. On faisait du c++ avant ce genre de pseudo garbage collector.
"La première sécurité est la liberté"
[^] # Re: hello world
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 1.
" (je fait du code depuis 1979, j'ai une vague idée :)"
Et vous donnez l'impression d'être bloqué avec les paradigmes de l'époque.
"Mais des vrais fonctions non slotée (c'est à dire NON commandée à l'avance) où l'on est obligé de s'inscrit avant le besoin réel et pour suivre une procédure pré-définie."
Il y a forcément un endroit pour décrire le canal de communication entre l'émetteur et le récepteur.
" dans le cas de Message "sloté" tu défini les segments d'un graphe bayesian "
Non, pas du tout, tu définis un canal de canal de communication.
Et arrêtez de parler de Turing à tout bout de champ. Cela fait un peu ridicule, son ruban simple est une démonstration, que l'on peut écrire touts algorithmes avec pas grand chose, rien de plus. Vous semblez pensez que tout algo se décrit comme sur un ruban de Turing, alors qu'il a seulement démontrer l'implication inverse.
"La première sécurité est la liberté"
[^] # Re: hello world
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 3.
Le cahier des charges, c'est un spamassassin pour détecter les personnes payés à écrire un commentaire, et non une "personne légitime".
si tu veux du contenu dans ton wiki, copie colle, le texte d'ici, j'ai pas envie de m'inscrire à un truc de plus.
"La première sécurité est la liberté"
[^] # Re: hello world
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 2.
"Tutos1 et Tutos2… produisent le Tutos3 SANS aucune modifications de leur code-source respectif et sans se ralentir l'une, l'autre."
Comme les signaux/slot de Qt ?
"La première sécurité est la liberté"
[^] # Re: hello world
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 6.
Ta page "avantage" pourrait d'appliquer à n'importe quoi, et cela reste du purement qualitatif, sans quantitatif.
Le code source est noyé. Celui que j'ai pu lire ressemble à du C++/Qt avec du message-passing entre objet. J'ai toujours pas compris l’intérêt de ton truc.
"La première sécurité est la liberté"
[^] # Re: hello world
Posté par Nicolas Boulay (site web personnel) . En réponse à la dépêche Concours "Evenja Café", un nouveau paradigme de programmation. Évalué à 2.
Je pensais à une application de réseau bayésien : la détection de faux commentaires. Tu récupères les date/heures des commentaires, le commentaire, le pseudo de connexion et son IP.
Un bon commentateur cache une seul personne derrière un seul pseudo, et qq IP. Un mauvais commentateur se cache derrière un proxy, dispose de plusieurs pseudo, mais utilise le même genre de mots (on peut détecter une personne avec le contenu de ses textes : fréquence de certains mots, c'est comme une empreinte).
"La première sécurité est la liberté"