Je fais une thèse qui vise à démontrer que la notation obtenue sur Linuxfr est uniquement liée au titre du post sans quasiment aucun rapport avec le contenu. Merci de ta participation au fait.
Dans ton exemple :
1ere passe
-debut : step = 0
-entre dans la boucle for
step = 0+1 = 1
nbr dans {0-10}
element[0] choisit si nbr=0 (une chance sur onze, ca part mal)
probablitié de choix de element[0]: 1/11
2eme passe (si nbr<>0)
- debut step=1
- boucle : step=1+1=2
nbr dans {0-10}
element[1] choisit si nbr<2 (deux chances sur onze, on est pas beau)
probabilité de choix de element[1] : 10/11*2/11=20/121 (le premier nbr n'est pas 0 et le second est 0 ou 1)
3eme passe (si nbr<>0 puis nbr<>0 et nbr<>1)
-debut step=2
- boucle : step=2+2=4
nbr dans {0-10}
element[2] choisit si nbr<4 (4 chances sur 11)
probabilité de choix de l'element[2] : 10/11*9/11*4/11= 360/1331 ( premier nbr différent de 0, deuxième nbr différent de 0 ou 1, troisième nbr est 0,1,2 ou 3)
etc.
Allez une solution qui marche en pseudo code :
$total=0;
pour $element dans $dico
($total=$total+$element.valeur;)
fin pour;
$index=aleatoire(1-$total); #nombre entier aléatoire entre 1 et $total inclus
$i=1;
$postition=0;
tant que $i<$index
($i=$i+$dictionnaire[$position].valeur;
$position=$position+1;)
fin tant que;
renvoit $position;
Dans le cas particulier cité en exemple on aura bien un $total à 10
donc $index sera compris entre 1 et 10
si $index vaut 1 : pas d'execution de la boucle (1<1 est faux), le système renvoit $postion=0
La position 0 a une chance sur 10 d'être choisie ($index=1)
si $index vaut 2, un passage dans la boucle (1<2 est vrai), $i passe à 2 (1+$dictionnaire[0].valeur) et pas de deuxième passage dans la boucle. Le système renvoit $position=1
La position 1 a une chance sur dix d'être choisie ($index=2)
si index vaut 3 ou 4 : 2 passage dans la boucle :
init : $i=1
première passe : $i=2
seconde passe : $i=4 et (4<4 est faux)
Le système renvoit $position=2
la position 3 a deux chances sur dix d'être choisie ($index=3 ou $index=4)
La société dans laquelle il vit, il la comprend très bien, malheureusement, c'est celle dans laquelle nous vivons nous qu'il a bien du mal à comprendre.
Apparament il a du mal à comprendre la loi qu'il a fait voter, le rôle du conseil constitutionnel et la séparation des pouvoirs.
Je pense qu'il ne comprend pas grand chose en fait...
Et il faut ajouter à cela que les chiffres du clavier sont des images, sans attribut alt.
Le logiciel de la caisse d'épargne (et c'est d'ailleurs le seul à ma connaissance) utilise les "extended infos" des options d'accessibilités de Microsoft. Sous linux il y a également moyen d'activer ces options.
Une fois ces options activées, le logiciel pour mal-voyant et non-voyant JAWS et les logiciels compatibles (c'est à dire quasiment tous, car Jaws n'a pas bardé de de brevets ses technos, et est le leader du marché des logiciels d'interface assitants brailles) il apparait alors des informatiosn supplémentaires qui permettent entre autre de connaitre dans quel fenêtre on se trouve, à quel endroit et le contenu de l'objet. La caisse d'épargne ayant fait les choses bien, les informations sur l'objet contiennent une information supplémentaire qui permet de lire le chiffre sur lequel on se trouve.
En ce qui concerne la notion de curseur, les même options d'accessibilités couplé à un terminal permettent de se déplacer très rapidement dans tous les objets de la page. Les informations qui te paraissent absurdes quand à la méthode pour se positionner "sur" le clavier seront tout à fait claire pour une personne qui a utilisé un terminal braille ou un outil d'assistance à la saisie (clavier mono-main par exemple). En plus après vérification le clavier virtuel est accessible en appuyant plusieurs fois de suite sur tabulation.
Je pense que le truc a du être testé avec un aveugle car il respecte assez bien la logique bas/droite "classique". (N.B : logique bas/droite : aller vers le bas me fait parcourir uen liste d'élément, vers la droite je déscend d'un niveau dans l'arborescence, vers la gauche je remonte d'un niveau dans l'arborescence et vers le haut je récupère le nom de la zone dans laquelle je me trouve. )
En bref, même si le nouveau dispositif est surement plsu pénible que le précédent, il n'en reste pas moins qu'il a manifestement été soigné pour les mal-voyants. Fait suffisament rare pour pouvoir être signalé.
Autant je comrpend que le geek moyen ne sache pas combien il y a de l à colonne, mais parler de voltage et d'amperage c'est un crime !
Pour en revenir à notre brulé en puissance, la résistance (tiens d'ailleurs il ne viendrait à personne l'idée de parler d'ohmage Elianne) du corps humain dépend de la tension qui le traverse En dessous de 20V a moins d'avoir les mains vraiment moite le corps humain est isolant. Au delà de 300-400v il devient relativement bon conducteur. Le moment ou le corps humain a une dissipation d'energie electrique maximale (ie une grosse partie de la quantité de courant qui rentre dans le corps se transforme en chaleur) est aux alentours de 50-100v .
Après bien sur ca dépend de la quantité d'energie fournie (ie la puissance ) Parceque dissiper ne ce serait-ce que 1% de plusieurs milliers de watts ca peut faire très mal.
Oui la variable était réinitialisée et réutilisée à plusieurs endroits.
Le script était bien sur nettement plus long que celà, j'ai juste mis les deux commandes qui font rire.
éléctrocutée : la personne s'est pris du courant electrique de façon suffisament forte pour causer un choc cardiaque (arrêt, arythmie) dont elle ne s'est pas encore remise.
electrifiée : la personne est actuellement parcourue par un courant electrique (le fait qu'elle soit vivante ou morte est accessoire).
electrisée : la personne a pris une décharge electrique (normale ou statique) qui lui a laissée une perturbation interne. Généralement des dégats sous forme de brulures, mais techniquement une personne avec les cheveux dressés sur la tête suite à un passage dans un champs electrostatique est electrisée.
Il n'y en a pasparmis ces termes un qui soit plus "grave" que d'autres. Ne pas oublier que l'on electrocute volontairement des patients pour faire repartir leur coeur. De même on peut se causer de graves brulures electriques, éventuellement mortelles sans pour autant avoir été electrocuté (surtout avec des tensions de 50 à 100v). On peut même être coupé par un arc electrique sans pratiquement avoir jamais été electrifié....
Personellement j'aime bien le classique mais toujorus efficace :
export mon_repertoire="/usr/local/truc" && rm -rf $mon_repretoire/*
Sinon une fois un pote suite au foirgae d'un script de siganture des fichiers avait semé des fichiers à 0 octects un peu partout, il a donc fait un find / -size 0b -rm {};
C'est quand le file est arrivé sur le repertoire /dev qu'il a compris pourquoi il y avait une option -empty
Ce qui nous ammene à la règle d'or de l'informatique : Avant de toucher au serveur, ne te pose pas de question et fait un backup. La question "ai-je besoin d'un backup" ne fait pas exception à la règle.
La première consiste à vérifier que Hotplug est bien configuré (c'est coldplug qui prend en charge maintenant). je ne connais pas bien la distrib, mais il peut être interressant de s'assurer que la dernière version est bien installée. Il peut aussi s'agir d'un conflit entre automount/magicmount ou autre et udev. En fait udev reconnait et créé le device, mais le mounte rne le voit pas et ne créé pas les entrées fstab qui vont bien. Dans ce cas la il faut faire le mount à la main.
Une deuxième solution consiste à retirer le module usb mass storage et à le reinsérer :
modprobe -r usb-storage
modprobe usb-storage
/!\ : Tous les périphs de staquages USB seront déconnectés et il est très probable que toute la chaine USB soit réinitialisée.
Donc ça veut dire que les données peuvent être déchiffrées avec plusieurs clés différentes ?
Attention a ne pas confondre,
Le lecteur commence par valider l'ensemble des composants via un principe de challenge/response et de vérification de signatures vis à vis des clefs primaires. C'est là qu'il y a les clefs qui identifient le matériel (mais ce sont des clefs de signature, pas de chiffrage)
C'est seulement une fois que la chaine de confiance est validée qu'il se décidera à lire les données "comme il faut" et là on retombe sur un système de type CSS avec 3 clefs croisées au lieu de deux.
Bien entendu les clefs utilisées en lecture changent rarement (seulement lors des montées de version HDCP) et sont incompatibles entre elles (ie un disque aux normes HDCP w.x ne peut pas être décodé avec les clefs de la version HDCP y.z ) donc pas de recoupement possible...
Comment on peut savoir quel appareil a été utilisé pour pirater ?
Pour les stations multimédias ayant accès à l'internet, le numéro "suspect" est remonté directement par l'apareil lui même. Celà peut se faire gràce au code de vérification et de mise à jour de firmware exécuté par les appareils avant la lecture du média. (Le code de validation se trouve sur le média)
Si si, chaque appareil possède sa clef unique normalement. Il possède également un numéro de version HDCP et un numéro de modèle. Exactement comme les MAC sur les cartes réseaux (la techno est bien au point et ne coute pas très cher) . Derrière le firmware est signé par la clef constructeur, elle même signé par les clefs primaires (éqivalent des root-certificates). Et le système permet "d'alterer" la lecture si un de ces paramêtres ne vous convient pas.
C'est très pratique, si un seul appareil est utilisé pour le piratage on ne désactive que celui là, si c'est un modèle qui n'est pas suffisament protégé on peut interdire la lecture à tous les appareils de ce modèle en une seule vérification. Et si un constructeur va contre la ligne du part^w^w^w^w^w^w ne respecte pas complètement les stricts standard HDCP on peut révoquer sa clef et ainsi rendre inutile l'ensemble des modèles qu'il a construit.
ce sera plus ou moins facile (pour un électronicien) de récupérer les données juste avant leur affichage sur la dalle
Détrompe-toi c'est extrèmement complexe. Le signal n'est complètement déchiffré qu'au moment de l'envoi des informations aux différents controlleurs de la dalle, il faut donc bien connaitre les caractéristique technique de la dalle pour pouvoir en faire quelquechose. De plus les systèmes HD-Ready sont "tamper proof", pas question de lire un HD-DVD pendant que l'écran est ouvert ou si l'impédance à la sortie d'un des composants maitre est supérieur/inférieur au valeurs limites. Pour finir les modules sur lesquels il serait interressant de se greffer sont parfois moulé dans de la résine (ca coute moins cher à changer qu'à réparer de toute facon) donc pour accéder au cable il faut gratter 2cm de jaja (mais pas 2,05cm, sinon vous coupez les fils). Tout est fait pour que les manips soient très difficiles en dehors d'un labo de haute technologie, donc l'electronicien même doué il va avoir du mal.
Ca c'est déjà produit en fait (Problème lors de la mise à jour des clefs, paf le firmware).
Alors dans ce cas là il faut renvoyer à l'usine pour recertifier le bousin - trois semaines d'attente - Et puis lors de la relecture du HD-DVD ca recoince et re - trois semaine d'attente - Bien sur pour éviter de payer des frais monstrueux sous garantie ils ont décidés d'envoyer sur place des "certifs primaires", c'est a dire des clefs qui génèrent les clefs qui sont dans la télé, et qui peuvent au choix servir à générer de nouvelles clefs ou à revalider un firmware en conservant l'ancienne clef.
L'avantage c'est que maintenant on peut déplante run firmware directement au comptoir du SAV en quelques minutes.
Par contre curieusement un certains nombre de "magic box" (Des boites qui font croire au système qu'il est branché sur un périph HDCP COMPLIANT avant de resoritr un signal déprotégé) capables de se recertifer elles même sont apparues.
Certains des spammeurs actuels "initialisent" les robots à la main. Grosso modo il y a un mec (un vrai avec 70% de flotte dans l'organisme) derrière un ordi qui va remplir les champs à la mano et ensuite répliquer ce qu'il a rempli dans les robots. C'est une technique assez lente mais qui marche très bien. Le dit humain (ou presque, c'ets un spammeur après tout) est prèvenu quand les sites "populaires" changent de formulaires ou d'aspect. Nous reviendorns sur comment les contrer dans un instant
Après il y a les try and guess. Il s'agit de robots qui vont essayer toutes les combinaisons possibles jusqu'à réussir à refourger leur spam. Ils sont très faciles à stopper, il suffit de mémoriser dans la session (en pur server-side ca va de soit) le nombre d'essais (N) infructueux du robot et de créer N champs/checkbox/input aléatoires supplémentaires à chaque nouvel essai. En partant sur une base de 6 champs cachés, le robot s'épuise à essayer de poster avant d'abandonner ou de planter. Si ca consomme trop de bande passante il suffit de valider les commentaires aux troisième essai et de les détruire dans les dix secondes qui suivent.
Il existerait également des robots plus intelligents capables de "comprendre" via les CSS quels sont les champs visibles et ceux qui sont cachés. Ils sont rare mais en voie d'expansion. La technique pour les contrer consisterait à mettre les champs "invalidants" en visible mais derrière une bannière ou une image, donc toujours techniquement invisible pour l'utilisateur. A noter que l'on peut aussi jouer du boutton submit à gogo un peu partout sur la page mais totalement absurdes pour l'utilisateur final, qui irait s'amuser à clicker sur ton ponpon alors qu'il y a un gros bouton "envoyer" à la fin du commentaire - a part un bot qui prend le premier < Input type="submit" ... > bien sur
Au final une technique qui marche très bien pour les commentaires dans des sites très en vue, mais qui nécessite des sessions (idéalement serveur only) : on génére K+6 noms aléatoires que l'on stoque en base de données dans une table temporaire avec l'identifiant de session. Ensuite en lieu et place des nom de saisie on affiche en lieu et place les nom aléatoires en intercalant toujours aléatoirement quelque spans ou div que l'on masque (en l'envoyant hors champs ou avec l'attribut invisible façon zen garden CSS). Il en résulte un formulaire qui change tout le temps et ou il est impossible de savoir à quoi correspond le 3ème champs sans "lire" le site. Gros inconvennient de cette méthode : elle semble nuire à l'accessibilité (du moins d'après les moteurs d'évaluation).
Sinon reste les habituels test de reconnaissances avec des textes ou des images et une seule solution possible. (Mais les images barbouillées sont à banir, elles sont terribles pour les gens qui ont des problèmes de vue)
Et j'ai rarement vu des gens m'exprimer de l'indicible à la fête de la musique.
J'en suis désolé pour toi. Personellement j'ai à plusieurs reprises éprouvé des sensations qui même si elle ne touche pas forcément à l'indicible Kantien (Lequel a quand même le double paradoxe d'être indicible, décrit par Kant et d'être philo-artistique) rentrent quand même dans la lignée du agréable mais difficilement descriptible.
De toute façon il se trouve qu'en France la fête de la musique relève de l'évènement culturel, c'est à dire d'un système assez complexe dans lequel rentrent le béret, la baguette de pain, le coq et les Champs Elysées le tout formant suivant qu'on les montre ou qu'on les cache, l'identité culturelle, les racines ou le "typiquement francais". Le but de l'évènement culturel n'est pas nécessairement de prétendre à faire de l'art (difficile en effet de déclarer que l'on sera artiste jeudi de 21h à l'aube - même le grand Dali s'étant planté à ce sujet) mais au mois de suciter étonnement curiosité ou simplement amusement auprès de ceux qui y participent.
Car admettons le franchement la fête de la musique n'a pas (à part sur son ampleur) plus de prétention que le bal musette du 14 juillet de St Paul les Picaidères; Lequel est, n'en déplaise aux poujadistes crispés de l'extraordinaire, un évènement culturel.
La culture relève de bien plus que seulement de l'art, et la fête de la musique est un endroit de découverte, de ballades, de rencontres et effectivement peut être de génie artistique (mais rien ne le garantit) et tout celà sans qu'à un seul moment Zidane ne vienne faire les éloges d'une eau même pas gazeuse.
Donc un beau jour les gentils policiers vont commencer à suivre une voiture sous pretexte qu'elle s'est trouvé au mauvis endroit au mauvais moment 3 fois de suite ?
Les témoins ont vu une Ford verte, on fait quoi au propriétaire ? On l'abbat à vue quand il enlève sa doudoune dans le métro ?
Quand on surveille statistiquement avec un arsenal aussi poussé un ensemble aussi grand que "toutes les voitures en Grande Bretagne" on tombe forcément sur des cas hautement improbable (cf Théorie des grands nombres). Et il fait quoi l'honnête père de famille dans la voiture s'est retrouvé 4 fois de suite au mauvais endroit au mauvais moment ?
Parceque même si on est obligé de le relacher "faute de preuves" le mec qui vit dans un petit bourg en Banlieue de Londres et qui voit Scotland mettre sa maison à sac suite à une affaire de viols répétés il va avoir du mal à s'en remettre.
"Les gens honnêtes n'ont rien à craindre de la police britannique, et ils le savent."
Tout à fait, jamais aucun agent de police n'ira utiliser ce système pour connaitre l'adresse privée de telle ou telle star dont il conanit la voiture. Jamais personne n'aura l'idée d'utiliser ce système pour savoir qui est l'informateur du journaliste qui écrit un article compromettant sur le chef de la police locale et bien entendu jamais un mafieu infiltré n'osera utiliser cet outil contre la police pour découvrir un indic par exemple. Tout va bien.
Quand on connait la faiblesse du recoupement statistique dans un cas ou l'énnoncé est trop flou ou trop mal ciblé et la force de celui-ci quand il est au contraire bien ciblé on ne peut que craindre les débordements de ce système.
Se servir de cet outil pour traquer les mauvais payeur d'ammendes est intrusif mais passons, par contre utiliser cet outil comme un élément d'enquète (ou pire comme un élément de preuve) est une annerie (à moins de s'assurer préalablement que les personnes qui ont accès au système de recoupement possèdent une formation en probabilité et en stochastique des plus complètes).
Bref bonne chance à Monsieur Smith qui aura commis la bétise de faire le même trajet qu'un magnat de la pègre locale trois jours de suite.
Microsoft a une R&D de folie. Vraiment. Fait un tour sur le site de microsoft research, c'est impressionant le nombre de publications de *qualités*.
Très honnêtement ce que l'on trouve sur Microsoft Reasearch (pour être parfaitement exact : ce que j'y ai vu, car je n'ai pas tout lu) ca se rapproche plus de la veille technologique appliquée que de la R&D.
Microsoft est en ce moment à fond sur deux technos qui m'interressent : les machines virtuelles, et les bases de données multidimensionnelles (en l'occurence ici sous la forme de cubes OLAP). Ben sur ces deux points Microsoft a pas sorti grand chose de révolutionnaire (alors que c'est leur second coeur de métier) par contre ils ont pas mal ammélioré l'existant.
Certes on s'est éloigné du temps ou MS quand il avait besoin d'une techno rachetait trois boites qui avaient fait de la recherche dans cette techno, mais on est pas encore au moment ou MS remet en cause lui même ses modèles de scheduler, de cache ou de compilation. Ceci étant il existe de très bons chercheurs aux US qui font de l'appliqué et il n'y a pas vraiment besoin de faire autre chose que d'évaluer les solutions universitaires et de proposer des implémentations/adaptations sur des cas concrets. (Ce que MS fait très bien nous sommes d'accord). Ceci étant si on compare au monde du libre, on re récupère le sens premier des mots R&D d'entreprise. Le Hurd est uen véraitbale mine d'information pour tous ceux qui lorgnent sur les microkernels (universitaires compris), OpenBSD est uen source intarrissable en ce qui concerne la compilation en C et la séparation des privilèges, Linux a des modèles d'allocation mémoire et de scheduling qui était considéré comme hautement expérimentaux il y a pas 5 ans (et encore ils ont souvent été assez violamment modifiés).
Par contre il aprait qu'en IHM (mais là j'y connais rien de rien) MS sont tout à la pointe de la recherche.
Je parlais d'entreprises, pas d'université ou de centre de recherche...
Oui mais mon point est que les entreprises, même grosses, même américaines elles ont pas des sections R&D de folie. J'ai soigneusement évité de citer IBM qui est l'exception à mon sens (avec une vraie R&D novatrice dans tous les sens du terme), mais la plupart des concepteurs de puce attendent le SOI2 ou le diamant synthétique pour faire des puces à 10Ghz et la plupart des éditeurs de logiciel attendent les puces à 10Ghz... C'est triste mais c'est comme çà.
C'est à dire quasiement toutes...
Restons sobre, disons quasiment toutes les plateformes grand public. (PDA exclus)
Il n'y a pas que les applis web publique dans la vie.. XUL est tout à fait envisageable en intranet.
J'imaginais bien l'utilisation de XUL dans un cadre intranet. Seulement il est assez difficile de vendre le produit à un client si je ne peux pas concrètement lui dire ce qu'il apporte. Comment je fais gober du lezard à mon fan de e bleu ?
Sur le web publique, oui, mais en intranet, pas tout à fait vrai. il existe des plugins, des lib xforms coté serveurs etc... Même gecko prend en charge XForms (c'est peut être par lui d'ailleurs que XForms va un peu plus se démocratiser).
Tu as plus de chance que moi si tu as vu XForms utilisé en prod. Vu la toile de réseau intra et extra net que l'on a et les relations entre les réseaux on est obligé de mapper pas à pas toute la session en base de données. On aurait tout interet à utiliser des processus XForms avec des recoupement au niveau client. Mais j'ai pas vu de propal en ce sens (bon le tranet c'est pas sous ma tutelle du tout, mais pour avoir évoqué le sujet plusieurs fois j'ai pas l'impression que la techno soit hyper répandue).
XUL ? systeme de tag prédefini ?? difficilement extensible ? Je crois qu'il faut que tu te renseignes sur XBL, qui est la pierre angulaire de XUL. Ya pas plus extensible que XUL grâce à XBL (et aussi aux overlays...)
Je me suis mal exprimé, ce que je reproche le plus à XUL c'est d'être un objet pur client. il ne dialogue qu'avec le moteur Gecko et seul le moteur Gecko dialogue avec lui. Donc, de ce que j'en ai compris, même si j'ai un construct XUL du feu de dieu il faut quand même que je le casse en formulaires à la main pour pouvoir remonter les infos au serveur si le besoin s'en fait sentir. La plupart des frameworks web 2.0 masquent cette partie.
Va voir des frameworks comme backbase... la plupart des trucs en Ajax font tellement des requêtes dans tous les sens, que les serveurs peinent à délivrer les informations, que la bande passante souffre etc..
Oui ca c'est typique des developpeurs qui découvrent un nouveau jouet. Il suffit de les coller sur un PIII 500Mhz avec 1Go de ram et ils deviennent tout de suite nettement plus raisonnables. ceci étant le framework que l'on utilise actuellement fait plus de mal à la base de données qu'au serveur web (CF sessions mappées pas à pas plus haut). Mais c'est lié à notre archi un poil bancale.
Pour quoi faire ? Et qui te dit si à l'avenir tu ne vas pas pouvoir ?
Là c'est pour mes délires persos avec XCB, j'ai besoin d'un outil de rendu assez flexible (et là le couple XUL/Gecko a l'air pas mal) pour tester mes outils (faire un proof of concept) MAIS gecko ne me convient pas du tout tant au niveau design, qu'au niveau gestion du cache, stratégie d'affichage etc. Donc je vexu pouvoir le jeter plus tard (si possible en gardant quand même mes scripts XUL pour les coller sur un autre moteur de rendu).
gni ? depuis quand il faut configurer/recompiler gecko pour faire une appli xul ?? web de surcroit ???
Là j'étais dans une optique de client semilourd comme un application d'admin qui fait appel à des services n-tiers directement ou tout simplement un portail spécifique non web (par exemple pour la présentation de certains documents chiffrés).
En fait mon argumentaire était le suivant :
- J'ai du mal à voir l'interet en web/intranet
- J'ai du mal à voir l'interet en panel de rendering pur
- J'ai du mal à voir l'interet pour le dev d'applications dédiées.
Seulement présenté comme celà c'est assez vexant (et ce n'est pas vraiment mon but) , je ne demande qu'à être convaincu du bien fondé de la technologie. Mais les recherches que j'ai effectué de mon coté ne m'ont pas permis de comprendre le champs d'application de XUL, ou du moins les avantages qu'il y avait à utiliser XUL plutôt qu'un autre framework. (A part pour ce qui est des panes de rendu, mais reste le défaut de se trimballer TOUT gecko même dans les pane "simples")
C'est justement le cas pour XUL. De plus en plus de monde l'utilise. Je l'observe chaque semaine sur xulfr, via les stats de frequentation, les questions sur les forums, et les contrats qui déboulent chez nous. Ce n'est pas parce que TOI tu utilises peu d'appli xul que d'autres ne les utilisent pas. Par exemple, que fait tu de ces centaines d'extensions à Firefox (en XUL bien sûr, qui pour 99% d'entre elles, le dev n'a rien eu à compiler) ?
Attention pour tout ce qui est plugins sur Gecko, thèmes, skins, add-ons et que sais-je encore je comprend bien l'interet de XUL. C'est en XUL en tant que contenu que je ne crois pas, XUL en tant qu'outil augmentant les possibilité de Gecko ca me va.
Sauf à Redmond et dans la silicon valley. Ce qui est malheureux...
Vous auriez dit Berkely, MIT, Columbia j'aurais été un peu d'accord. Encore que j'aurais gentillement dit que l'INRIA et Le Polytechniceum de Lausanne jouait dans une cours pas très loin. Mais honnêtement alors que Microsoft s'apprète (avec beaucoup de mal apparament) à sortir son douxième produit basé sur le même kernel, que SGI agonise et passe sous Linux et que SUN vend des architectures AMD64 peut-on vraiment encore citer les US comme le fleuron de la recherche appliquée ? Les US brevètent, çà oui, mais pour ce qui est d'inventer par contre ... Pour l'instant on se contente surtout d'améliorations (dans la mesure ou l'implémentation est pas trop buguée.)
parce que XUL, c'est une nouvelle manière de réaliser des interfaces graphiques
Indépendamment de la technique invoquée, la manière n'est en elle même pas très nouvelle. Certains générateurs de rapports et dans une moindre mesure certains logiciels de RAD utilisent des approches comparables.(L'utilisateur "décrit" son interface dans un langage, et ca description est compilée puis rendue à l'écran).
Parce que Gecko est multi plateforme, que XUL est portable.
XUL est très moyennement portable de ce que j'en ai vu, et pour ainsi dire pas porté du tout. A ma connaissance hors de gecko point de salut et point de XUL (arretez-moi si je me trompe) donc XUL ne fait que profiter des plateformes sur lesquels tourne Gecko...
Parce que coté applis web, ça te permet d'être beaucoup plus productif et d'avoir une appli plus reactive et légère que tous ces trucs en ajax.
A deux conditions tout de même : a) que le navigateur connecté soit un gecko et b) que la machine qui fait tourner l'appli XUL ait assez de mémoire/ressources (dit sans intention de troll, mais je ne vois pas comment le formuler autrement).
Quoi que l'on puisse reprocher à Ajax ou aux technos "DHTML Plus" au niveau des temps de réponse, ça met rarement une machine à genoux (à moins de coder n'importe comment) et ca marche pas trop mal en applications intranet. Ceci étant je n'ai jamais vu d'applications professionelle de XUL (à part NVU peut-être si il y en a dedans) et ma réticence vis à vis de l'occupation des ressources vient peut-être d'erreurs grossières dans les applis XUL que j'ai vu tourner.
Parce qu'un XUL like est en voie de normalisation au W3C
A mon sens, ca irait plutôt contre vous çà. Le "Layer Like" sorti par le W3C au bon temps d'HTML 4 il a fait très mal aux inventeurs du layer. De plus même si c'est normalisé dans tous les sens, ca ne veut pas dire que ca sera utilisé. XForm est normalisé depuis près d'un an etpersonne ne semble décidé à se jeter dessus. De même le moteur Gecko peine clairement avec les CSS2/3 (et on ne va ni parler d'internet explorer ni parler de DOM parcequ'on va encore facher du monde).
Bref, on en revient toujours à la même question qu'est-ce que ca apporte en vrai ?
Bref -> capitalisation du savoir faire, possibilité de réutiliser toutes ces compétences ailleurs. Surtout que XUL est copié dans pas mal de lib (faut voir le nombre de lib en java qui permettent de faire du xul-like..).
Le problème étant que dans le cadre d'une appli Java, je vois tout l'intéret d'un XUL like. Pouvoir initaliser/gerer/modifier ses beans (ou ejb, ou MMO) à coup de tags modifiables dynamiquement par des scritps c'est très sympa, mais c'est fondamentalement extensible. Je prend les tags dont j'ai besoin, je rajoute avec du code les tags qui manquent et je fais un prog qui me convient. Pas besoin de plonger dans les profondeurs de Gecko si des impératifs de place m'obligent à couper els fonctionnalités qui ne me servent à rien. Celà vient peut être de ma culture de dev (ou peut-être parceque je suis encore trop "proche du système") mais un système de Tags prédéfini, difficilement extensible et lié de manière très forte à une techno spécifique çelà ne me tente que moyennement.
ref, tu m'a l'air d'avoir emis un avis sur XUL sans même te documenter. Gecko et XUL sont des technos d'avenir, c'est un fait. Tous les indicateurs le prouvent (que ce soit du coté de la standardisation, que du coté de l"'industrialisation").
Détrompe-toi, sans être un initié des arcannes de XUL je me suis penché sur la question assez sérieusement. Grosso-modo j'avais besoin d'un moteur de rendu assez rapidement et j'ai voulu savoir si en prenant une solution XUL+Gecko je pourrais un jour me débarasser de Gecko (pour le remplacer par un autre moteur de rendu). En ce qui concerne les technos d'avenir, j'en ai essuyé 3 de pleins fouet (HTML-Web, Java et XML et consors) A chaque fois il fallait tout casser pour refaire dans "la techno d'avenir", indépendamment de si c'était pertinant ou pas. Si il faut apprendre XUL parceque le client veux qu'on lui fasse ses livres de comptes en XUL, je le ferais. De même que je fais aujourd'hui des parseurs XML/XSLT en lieu et place de convertisseurs de formats de données en Java.
Comment tu vas vite en besogne. Généralise pas. Corrige : "Parce que pour l'instant elle n'a rien pour *me*plaire." Mais ce n'est pas vraiment étonnant, vu que tu semble plutôt interressé par tout ce qui est système.
Honnêtement les RAD m'interressent aussi beaucoup, mais j'ai l'impression (le préjugé ?) assez nette que le temps que je gagne à créer l'interface en XUL je le reperd dérrière à configurer Gecko et à compiler le tout avec XULrunner.
La complexité impliquée pour compiler uen application comme Mozilla, NVU ou même plus récamment SongBird me laisse pantois et un peu frileux vis à vis des technos utilisées.
La techno est répandue. Je ne sais combien de dizaine de millions de gecko installés sur les postes à travers le monde, ce n'est pas insignifiant tout de même.
Vous êtes bien assis ? Parceque si c'est insignifiant. Une techno n'est significative qu'une fois que l'on commence à s'en servir. Il y a sur terre des millions de machines sous Linux qui pourraient utiliser les ACL Posix, mais qui ne le font pas. Le reflexe de la planête entière est de claquer du sudo à toutes les sauces alors que cette commande idiote aurait du disparaitre. La plupart des distrib n'ont même pas de packages complètement à jour. Donc les ACL Posix sous Linux c'est insignifiant. De la même façon en 5 ans sous Mozilla puis Firefox je n'ai quasiment jamais utilisé d'autre XUL que celu fournit de base à l'installation. J'ai du aller une fois sur un site en XUL et j'ai peutêtre mon plug-in de download qui exploite XUL. Je ne sais pas si on peut considérer celà comme significatif, et je pense sincèrement que mon expérience sous Moz est assez facilement généralisable.
Et puis la santé financière de la boîte va bien. Inutile de diffamer, merci. (Tu crois qu'on embaucherait si on allait mal ??).
Je ne parle en aucun cas de la santé financière de l'entreprise,mais de son assise. Un groupe comme Total, même en plein déficit a une bien meilleure assise financière que DI en pleine période de bénéfices reccords. Soyons clair est-ce que vous avez une bonne trèsorerie ? est-ce que le fond de roulement est OK, est-ce que vous être assurés comme il faut en cas de procès/catastrophe/maladie/fuite d'infos ? En d'autres termes si demain pour une raison X ou Y ca commence à aller mal (très) combien de temps vous survivez ?
Que vous le vouliez ou non un cadre qui quiterait sa grosse boite confortable mais soporifique pour venir bosser avec vous serait assez probablement en prise de risque. Ceci étant l'aventure vaut peut-être le coup, mais ca reste une aventure.
Justement XUL, rentre dans cette section... M'enfin ça tu le découvrira quand tu te sera vraiment renseigné sur la techno.
Comme vous vous permettez une pique de conclusion : je fais de même.
Je voulais du Web 2.0 qui marche, celui avec l'ajax tout lent.
Cite-moi par exemple 10 éditeurs de logiciel en France, qui font de la R&D, et qui sont connus internationnalement...
Pourquoi en feraient-il ? Du moins ceux qui en font (c'est à dire à peu près toute quand même) pourquoi l'utiliseraient-ils ? La France (au sens les entreprises francaises) ne veut pas de technos diférentes. Il est quasiment impossible de sortir du tout Microsoft et quand on y arrive c'est pour refourguer une base de donnée Oracle ou Sybase. De là la R&D sert à faire de joli dessin, à dire au client qu'on le prépare au nouveau paradigme programmatique et fonctionnel des années à venir. Les éditeurs de logiciels qui innovent c'est pas qu'il y en a pas, c'est qu'il y en a plus.
Sinon BVRP est encore assez vivant, Ubisoft et Infogrammes font encore un peu de R&D dans les coins, et il y a de très bon produits en gestion comptables et fiscales internationnales (Cartesis,CEGID ). Mais la vraie R&D (à savoir autre chose que de la veille technologique suivie d'implémentation de test "pour voir" ) est morte à peu près partout dans le monde.
En France, tu n'as quasiement que des SSII, rempli de développeurs qui s'investissent peu dans la R&D, même à titre perso (SSII = vendeur de viande comme diraient certains). Peu de centre de R&D. Aprés on s'étonne de l'hégémonie américaine sur le marché des logiciels.
C'est clair que si on les boites francaises investissait à fond en R&D (avec le soutien de l'état par exemple) on aurait beaucoup de superbes success-story à la Bull. Et puis Honnêtement si des boites comme Oracle, Microsoft, Symantec ou Apple sont en tête des ventes c'est pas grace à leur section R&D epoustoufflant, je dirais même que c'est au contraire parcequ'elles collent au plus proche de ce qui a déjà été fait les années précédente en rajoutant avec parcimonie une idée rigolote à gauche, une interface soignée à droite et un truc vaguement proprio au millieu.
Alors là, détrompe toi. Beaucoup de boîtes sont obligés de former des developpeurs parce qu'il n'y a personne sur le marché XUL/Gecko.
Sans vouloir être vexant c'est un peu normal. Sur mon temps de loisir je joue avec OpenBSD (surtout Carp et PFSync en ce moment), Erlang OTP et XCB (le remplaçant XLib, pas le presse papier). Tous ces trucs sont relativement obscurs, pas franchement très en vogue sur les CV et il est plus que probable que je ne me servirais pas souvent de ces technos en environnement porfessionnel. Seulement voilà, OpenBSD, ERlang et XCB m'aprenne ennormément de choses réutilisables en dehors du contexte direct d'application. Sécurité, qualité de code, redondance de protocole, fiabilité pour OpenBSD; Programmation fonctionnelle, temps réel mou, programmation communiquante et mécanismes asynchrones pour Erlang et pour XCB le protocole X, les mécanismes de messages/signaux internes etc.
La question est donc pourquoi apprendre le XUL a part pour connaitre le XUL ? Qu'est-ce que je fais de mes connaissances XUL si d'ici deux ans tout le monde laisse tomber ? A quels paradygme nouveau m'ouvre XUL ?
De la réponse à ces questions résulte l'interet que peut avoir XUL aux yeux d'un epersonen qui n'en a pas besoin professionellement. A mon sens cet interet est très réduit.
Les technologies évoluants, c'est à toi de te tenir au courant, de te mettre à jour durant toute ta carrière, sous peine de finir dans un placard parce que plus personne n'a plus besoin de tes compétences sur les technos vieilles de 35 ans... Et je te rappelle que ton employeur est dans l'obligation de te payer régulièrement des formations... Mais combien font valoir ce droit ? combien s'investissent dans la mise à jour de leurs compétences ? De ce que j'ai vu en SSII, vraiment qu'une faible minorité. (d'où le "flemard et suiveur").
Que les ingénieurs en SSII aient du mal avec les formations c'est un fait, généralement il suffit d'assiter uen fois à ce que les "grandes" SSII appellent des formations internes pour savoir que l'on est vachement mieux chez le client (et qu'on y apprend plus au passage). Ensuite la formation bouquin + connexion internet marche pas trop mal si on s'en donne la peine et ca permet d'utiliser le vrai argent à passer des certifications plutôt que des formations, mais bon.
Ceci étant quand le client demande une formation avant de prendre un gars, la formation se passe à toute allure. Mais une fois de plus ca se borne le plus osuvent à passer trois jours dans un bocal avec douze péquins et un prof. Après ces trois jours tu reoturnes voir ton employeur et tu le regardes droit dans les yeux pour lui dire "Ca y est je maitrise à fond la gestion de domaine Exchange pluggués sur Active Directory " avant de retourner faire 8 mois de java bien basic chez le client.
Pour se former à quoi que ce soit il faut du temps et de la mise en pratique. Comme le client en a rien à foutre de la techno XUL, que la techno XUL tu n'as pas envie/besoin de t'en servri au quotidien sur ton temps de loisir , ben la techno XUL elle passe à la trappe.
La question n'est donc pas de traiter de "flemard et suiveur" les informaticiens mais de se psoer (sérieusement) la qestion de savoir ce qui pourrait rendre la techno XUL attractive. Parceque pour l'instant elle a rien pour plaire au néophyte.
Il faut obligatoirement être chomeur pour postuler à un poste ?
Pour lacher un poste qui te nourri et qui paye le loyer pour un presque poste presque sur portant sur une techno pas super répandue dans une boite pas super assise financièrement il faut quand même avoir la vocation.
Même si ils ne sont pas spécialistes, ils peuvent le devenir non ? un chomeur a droit à des heures de formations non ? un chomeur qui veut s'en sortir, il essait d'apprendre de nouvelles compétences non ? (surtout un informaticien, ça devrait être dans ses gênes ce genre de reflexe :-) )
D'abord le chomeur il a le droit a des formations, mais c'est pas forcément lui qui choisit (même rarement). Ensuite dans la liste des technos qui plaisent au marché du travail et qui sont garantie durable XUL n'arrive une fois de plus pas en tête. Donc le chommeur qui veut s'en sortir il va apprendre Web2.0, Java, J2EE, SAP, Oracle, SQL Server, Active Directory, Sybase, même GAP... mais pas XUL.
Pour conclure : libre à vous de croire que l'absence critique de compétences XUL est due exclusivement à la flemardise franchouillarde en ce qui concerne les nouvelles technos de moins de 35 ans. Mais ne soyez que moyennement surpris si on se moque de vous qand vous cassez des tables de rage.
Cet exemple précis me semble assez mal choisi. La plupart des langages de programmation n'imposent pas que la valeur de retour d'une fonction ne dépende que de ses arguments (même parmi les langages dits fonctionnels). Et quand c'est le cas, GCC permet ce genre d'optimisation aussi (attributs pure et const).
je faisais allusion aux techniques comem le fragment cache de la Dynamo. Mais c'est vrai que j'aurais du dire "Si le contexte d'exécution de focntion se représente alors ..." mais c'est vraiment très pédant, et pas forcément compréhensible en plus vu le double sens du mot contexte d'éxecution dans une discussion sur les threads (contexte au sens emplacement d'éxecution du thread et contexe au sens empreinte données+pile d'execution)
Par ailleurs, qu'est-ce que tu entends par "self linking dynamique" ? Google m'aide pas beaucoup.
C'est une des techniques les plus gore qui soit avec les bibliothèques dynamique. Il s'agit en fait de réussir à forcer une bibliothèque à se charger elle même puis à utiliser tout un tas d'effet de bord pour modifier le comportement de certaines fonctions de façon à ce que lorsque la même bibliothèque sera appelé par un autre programme, celui ci aura le comportement modifié et non le comportement initial.
Ce genre de techniques étaient utilisées de façon très light pour faire passer des message entre les processus via la biliothèque (oui ca a été possible, sous windows notamment) mais maintenant c'est fini. Ceci étant il resterait encore de très "jolies" choses à faire avec des virtual, des callback et en s'appuyant un peu sur les méccanismes du kernel.
Je n'ai pas d'exemple de ce que l'on peut faire sur un OS moderne...
[^] # Petites fleurs, papillons et lapins roses
Posté par Jerome Herman . En réponse au journal Tirage aléatoire dans un tableau. Évalué à 2.
Je fais une thèse qui vise à démontrer que la notation obtenue sur Linuxfr est uniquement liée au titre du post sans quasiment aucun rapport avec le contenu. Merci de ta participation au fait.
# Faux, absurde et debordement
Posté par Jerome Herman . En réponse au journal Tirage aléatoire dans un tableau. Évalué à 4.
1ere passe
-debut : step = 0
-entre dans la boucle for
step = 0+1 = 1
nbr dans {0-10}
element[0] choisit si nbr=0 (une chance sur onze, ca part mal)
probablitié de choix de element[0]: 1/11
2eme passe (si nbr<>0)
- debut step=1
- boucle : step=1+1=2
nbr dans {0-10}
element[1] choisit si nbr<2 (deux chances sur onze, on est pas beau)
probabilité de choix de element[1] : 10/11*2/11=20/121 (le premier nbr n'est pas 0 et le second est 0 ou 1)
3eme passe (si nbr<>0 puis nbr<>0 et nbr<>1)
-debut step=2
- boucle : step=2+2=4
nbr dans {0-10}
element[2] choisit si nbr<4 (4 chances sur 11)
probabilité de choix de l'element[2] : 10/11*9/11*4/11= 360/1331 ( premier nbr différent de 0, deuxième nbr différent de 0 ou 1, troisième nbr est 0,1,2 ou 3)
etc.
Allez une solution qui marche en pseudo code :
$total=0;
pour $element dans $dico
($total=$total+$element.valeur;)
fin pour;
$index=aleatoire(1-$total); #nombre entier aléatoire entre 1 et $total inclus
$i=1;
$postition=0;
tant que $i<$index
($i=$i+$dictionnaire[$position].valeur;
$position=$position+1;)
fin tant que;
renvoit $position;
Dans le cas particulier cité en exemple on aura bien un $total à 10
donc $index sera compris entre 1 et 10
si $index vaut 1 : pas d'execution de la boucle (1<1 est faux), le système renvoit $postion=0
La position 0 a une chance sur 10 d'être choisie ($index=1)
si $index vaut 2, un passage dans la boucle (1<2 est vrai), $i passe à 2 (1+$dictionnaire[0].valeur) et pas de deuxième passage dans la boucle. Le système renvoit $position=1
La position 1 a une chance sur dix d'être choisie ($index=2)
si index vaut 3 ou 4 : 2 passage dans la boucle :
init : $i=1
première passe : $i=2
seconde passe : $i=4 et (4<4 est faux)
Le système renvoit $position=2
la position 3 a deux chances sur dix d'être choisie ($index=3 ou $index=4)
etc.
[^] # Re: MAIS bordel !
Posté par Jerome Herman . En réponse au journal RDDV: Lettre ouverte aux internautes. Évalué à 3.
Apparament il a du mal à comprendre la loi qu'il a fait voter, le rôle du conseil constitutionnel et la séparation des pouvoirs.
Je pense qu'il ne comprend pas grand chose en fait...
[^] # Re: trop pas sécure
Posté par Jerome Herman . En réponse au journal Quand La Caisse d'Épargne s'y met aussi.... Évalué à 10.
Le logiciel de la caisse d'épargne (et c'est d'ailleurs le seul à ma connaissance) utilise les "extended infos" des options d'accessibilités de Microsoft. Sous linux il y a également moyen d'activer ces options.
Une fois ces options activées, le logiciel pour mal-voyant et non-voyant JAWS et les logiciels compatibles (c'est à dire quasiment tous, car Jaws n'a pas bardé de de brevets ses technos, et est le leader du marché des logiciels d'interface assitants brailles) il apparait alors des informatiosn supplémentaires qui permettent entre autre de connaitre dans quel fenêtre on se trouve, à quel endroit et le contenu de l'objet. La caisse d'épargne ayant fait les choses bien, les informations sur l'objet contiennent une information supplémentaire qui permet de lire le chiffre sur lequel on se trouve.
En ce qui concerne la notion de curseur, les même options d'accessibilités couplé à un terminal permettent de se déplacer très rapidement dans tous les objets de la page. Les informations qui te paraissent absurdes quand à la méthode pour se positionner "sur" le clavier seront tout à fait claire pour une personne qui a utilisé un terminal braille ou un outil d'assistance à la saisie (clavier mono-main par exemple). En plus après vérification le clavier virtuel est accessible en appuyant plusieurs fois de suite sur tabulation.
Je pense que le truc a du être testé avec un aveugle car il respecte assez bien la logique bas/droite "classique". (N.B : logique bas/droite : aller vers le bas me fait parcourir uen liste d'élément, vers la droite je déscend d'un niveau dans l'arborescence, vers la gauche je remonte d'un niveau dans l'arborescence et vers le haut je récupère le nom de la zone dans laquelle je me trouve. )
En bref, même si le nouveau dispositif est surement plsu pénible que le précédent, il n'en reste pas moins qu'il a manifestement été soigné pour les mal-voyants. Fait suffisament rare pour pouvoir être signalé.
[^] # Re: Erreur typique
Posté par Jerome Herman . En réponse au journal encore une perle du journalisme. Évalué à 5.
AAAARRRRGGGGHHHH : INTENSITE !!!
Autant je comrpend que le geek moyen ne sache pas combien il y a de l à colonne, mais parler de voltage et d'amperage c'est un crime !
Pour en revenir à notre brulé en puissance, la résistance (tiens d'ailleurs il ne viendrait à personne l'idée de parler d'ohmage Elianne) du corps humain dépend de la tension qui le traverse En dessous de 20V a moins d'avoir les mains vraiment moite le corps humain est isolant. Au delà de 300-400v il devient relativement bon conducteur. Le moment ou le corps humain a une dissipation d'energie electrique maximale (ie une grosse partie de la quantité de courant qui rentre dans le corps se transforme en chaleur) est aux alentours de 50-100v .
Après bien sur ca dépend de la quantité d'energie fournie (ie la puissance ) Parceque dissiper ne ce serait-ce que 1% de plusieurs milliers de watts ca peut faire très mal.
[^] # Re: Comme si c'était hier
Posté par Jerome Herman . En réponse au journal Il y a 2 catégories d'administrateurs .... Évalué à 2.
Le script était bien sur nettement plus long que celà, j'ai juste mis les deux commandes qui font rire.
[^] # Re: Erreur typique
Posté par Jerome Herman . En réponse au journal encore une perle du journalisme. Évalué à 6.
electrifiée : la personne est actuellement parcourue par un courant electrique (le fait qu'elle soit vivante ou morte est accessoire).
electrisée : la personne a pris une décharge electrique (normale ou statique) qui lui a laissée une perturbation interne. Généralement des dégats sous forme de brulures, mais techniquement une personne avec les cheveux dressés sur la tête suite à un passage dans un champs electrostatique est electrisée.
Il n'y en a pasparmis ces termes un qui soit plus "grave" que d'autres. Ne pas oublier que l'on electrocute volontairement des patients pour faire repartir leur coeur. De même on peut se causer de graves brulures electriques, éventuellement mortelles sans pour autant avoir été electrocuté (surtout avec des tensions de 50 à 100v). On peut même être coupé par un arc electrique sans pratiquement avoir jamais été electrifié....
[^] # Re: Comme si c'était hier
Posté par Jerome Herman . En réponse au journal Il y a 2 catégories d'administrateurs .... Évalué à 6.
export mon_repertoire="/usr/local/truc" && rm -rf $mon_repretoire/*
Sinon une fois un pote suite au foirgae d'un script de siganture des fichiers avait semé des fichiers à 0 octects un peu partout, il a donc fait un find / -size 0b -rm {};
C'est quand le file est arrivé sur le repertoire /dev qu'il a compris pourquoi il y avait une option -empty
Ce qui nous ammene à la règle d'or de l'informatique : Avant de toucher au serveur, ne te pose pas de question et fait un backup. La question "ai-je besoin d'un backup" ne fait pas exception à la règle.
# Deux solutions
Posté par Jerome Herman . En réponse au message PCMCIA non reconnue. Évalué à 2.
Une deuxième solution consiste à retirer le module usb mass storage et à le reinsérer :
modprobe -r usb-storage
modprobe usb-storage
/!\ : Tous les périphs de staquages USB seront déconnectés et il est très probable que toute la chaine USB soit réinitialisée.
[^] # Re: Comment cracker un film HD
Posté par Jerome Herman . En réponse au journal Defective by Design. Évalué à 2.
Attention a ne pas confondre,
Le lecteur commence par valider l'ensemble des composants via un principe de challenge/response et de vérification de signatures vis à vis des clefs primaires. C'est là qu'il y a les clefs qui identifient le matériel (mais ce sont des clefs de signature, pas de chiffrage)
C'est seulement une fois que la chaine de confiance est validée qu'il se décidera à lire les données "comme il faut" et là on retombe sur un système de type CSS avec 3 clefs croisées au lieu de deux.
Bien entendu les clefs utilisées en lecture changent rarement (seulement lors des montées de version HDCP) et sont incompatibles entre elles (ie un disque aux normes HDCP w.x ne peut pas être décodé avec les clefs de la version HDCP y.z ) donc pas de recoupement possible...
[^] # Re: Hum
Posté par Jerome Herman . En réponse au journal Defective by Design. Évalué à 1.
Pour les stations multimédias ayant accès à l'internet, le numéro "suspect" est remonté directement par l'apareil lui même. Celà peut se faire gràce au code de vérification et de mise à jour de firmware exécuté par les appareils avant la lecture du média. (Le code de validation se trouve sur le média)
[^] # Re: Hum
Posté par Jerome Herman . En réponse au journal Defective by Design. Évalué à 2.
C'est très pratique, si un seul appareil est utilisé pour le piratage on ne désactive que celui là, si c'est un modèle qui n'est pas suffisament protégé on peut interdire la lecture à tous les appareils de ce modèle en une seule vérification. Et si un constructeur va contre la ligne du part^w^w^w^w^w^w ne respecte pas complètement les stricts standard HDCP on peut révoquer sa clef et ainsi rendre inutile l'ensemble des modèles qu'il a construit.
Génial non ?
[^] # Re: Comment cracker un film HD
Posté par Jerome Herman . En réponse au journal Defective by Design. Évalué à 3.
Détrompe-toi c'est extrèmement complexe. Le signal n'est complètement déchiffré qu'au moment de l'envoi des informations aux différents controlleurs de la dalle, il faut donc bien connaitre les caractéristique technique de la dalle pour pouvoir en faire quelquechose. De plus les systèmes HD-Ready sont "tamper proof", pas question de lire un HD-DVD pendant que l'écran est ouvert ou si l'impédance à la sortie d'un des composants maitre est supérieur/inférieur au valeurs limites. Pour finir les modules sur lesquels il serait interressant de se greffer sont parfois moulé dans de la résine (ca coute moins cher à changer qu'à réparer de toute facon) donc pour accéder au cable il faut gratter 2cm de jaja (mais pas 2,05cm, sinon vous coupez les fils). Tout est fait pour que les manips soient très difficiles en dehors d'un labo de haute technologie, donc l'electronicien même doué il va avoir du mal.
[^] # Re: Hum
Posté par Jerome Herman . En réponse au journal Defective by Design. Évalué à 8.
Alors dans ce cas là il faut renvoyer à l'usine pour recertifier le bousin - trois semaines d'attente - Et puis lors de la relecture du HD-DVD ca recoince et re - trois semaine d'attente - Bien sur pour éviter de payer des frais monstrueux sous garantie ils ont décidés d'envoyer sur place des "certifs primaires", c'est a dire des clefs qui génèrent les clefs qui sont dans la télé, et qui peuvent au choix servir à générer de nouvelles clefs ou à revalider un firmware en conservant l'ancienne clef.
L'avantage c'est que maintenant on peut déplante run firmware directement au comptoir du SAV en quelques minutes.
Par contre curieusement un certains nombre de "magic box" (Des boites qui font croire au système qu'il est branché sur un périph HDCP COMPLIANT avant de resoritr un signal déprotégé) capables de se recertifer elles même sont apparues.
# Le spam, l'autre sens de la vie...
Posté par Jerome Herman . En réponse au journal Comment font les spammeurs de blogs ?. Évalué à 10.
Après il y a les try and guess. Il s'agit de robots qui vont essayer toutes les combinaisons possibles jusqu'à réussir à refourger leur spam. Ils sont très faciles à stopper, il suffit de mémoriser dans la session (en pur server-side ca va de soit) le nombre d'essais (N) infructueux du robot et de créer N champs/checkbox/input aléatoires supplémentaires à chaque nouvel essai. En partant sur une base de 6 champs cachés, le robot s'épuise à essayer de poster avant d'abandonner ou de planter. Si ca consomme trop de bande passante il suffit de valider les commentaires aux troisième essai et de les détruire dans les dix secondes qui suivent.
Il existerait également des robots plus intelligents capables de "comprendre" via les CSS quels sont les champs visibles et ceux qui sont cachés. Ils sont rare mais en voie d'expansion. La technique pour les contrer consisterait à mettre les champs "invalidants" en visible mais derrière une bannière ou une image, donc toujours techniquement invisible pour l'utilisateur. A noter que l'on peut aussi jouer du boutton submit à gogo un peu partout sur la page mais totalement absurdes pour l'utilisateur final, qui irait s'amuser à clicker sur ton ponpon alors qu'il y a un gros bouton "envoyer" à la fin du commentaire - a part un bot qui prend le premier < Input type="submit" ... > bien sur
Au final une technique qui marche très bien pour les commentaires dans des sites très en vue, mais qui nécessite des sessions (idéalement serveur only) : on génére K+6 noms aléatoires que l'on stoque en base de données dans une table temporaire avec l'identifiant de session. Ensuite en lieu et place des nom de saisie on affiche en lieu et place les nom aléatoires en intercalant toujours aléatoirement quelque spans ou div que l'on masque (en l'envoyant hors champs ou avec l'attribut invisible façon zen garden CSS). Il en résulte un formulaire qui change tout le temps et ou il est impossible de savoir à quoi correspond le 3ème champs sans "lire" le site. Gros inconvennient de cette méthode : elle semble nuire à l'accessibilité (du moins d'après les moteurs d'évaluation).
Sinon reste les habituels test de reconnaissances avec des textes ou des images et une seule solution possible. (Mais les images barbouillées sont à banir, elles sont terribles pour les gens qui ont des problèmes de vue)
[^] # Re: Arff
Posté par Jerome Herman . En réponse au journal [HS] Grève de la musique. Évalué à 3.
J'en suis désolé pour toi. Personellement j'ai à plusieurs reprises éprouvé des sensations qui même si elle ne touche pas forcément à l'indicible Kantien (Lequel a quand même le double paradoxe d'être indicible, décrit par Kant et d'être philo-artistique) rentrent quand même dans la lignée du agréable mais difficilement descriptible.
De toute façon il se trouve qu'en France la fête de la musique relève de l'évènement culturel, c'est à dire d'un système assez complexe dans lequel rentrent le béret, la baguette de pain, le coq et les Champs Elysées le tout formant suivant qu'on les montre ou qu'on les cache, l'identité culturelle, les racines ou le "typiquement francais". Le but de l'évènement culturel n'est pas nécessairement de prétendre à faire de l'art (difficile en effet de déclarer que l'on sera artiste jeudi de 21h à l'aube - même le grand Dali s'étant planté à ce sujet) mais au mois de suciter étonnement curiosité ou simplement amusement auprès de ceux qui y participent.
Car admettons le franchement la fête de la musique n'a pas (à part sur son ampleur) plus de prétention que le bal musette du 14 juillet de St Paul les Picaidères; Lequel est, n'en déplaise aux poujadistes crispés de l'extraordinaire, un évènement culturel.
La culture relève de bien plus que seulement de l'art, et la fête de la musique est un endroit de découverte, de ballades, de rencontres et effectivement peut être de génie artistique (mais rien ne le garantit) et tout celà sans qu'à un seul moment Zidane ne vienne faire les éloges d'une eau même pas gazeuse.
[^] # Re: Rien capté
Posté par Jerome Herman . En réponse au journal "TOGO Considered Harmful". Évalué à 2.
Retourne manger de la quiche, c'est pour ton bien.
# Statistiquement idiot
Posté par Jerome Herman . En réponse au journal Reconnaissance automatique et criminalité. Évalué à 10.
Les témoins ont vu une Ford verte, on fait quoi au propriétaire ? On l'abbat à vue quand il enlève sa doudoune dans le métro ?
Quand on surveille statistiquement avec un arsenal aussi poussé un ensemble aussi grand que "toutes les voitures en Grande Bretagne" on tombe forcément sur des cas hautement improbable (cf Théorie des grands nombres). Et il fait quoi l'honnête père de famille dans la voiture s'est retrouvé 4 fois de suite au mauvais endroit au mauvais moment ?
Parceque même si on est obligé de le relacher "faute de preuves" le mec qui vit dans un petit bourg en Banlieue de Londres et qui voit Scotland mettre sa maison à sac suite à une affaire de viols répétés il va avoir du mal à s'en remettre.
"Les gens honnêtes n'ont rien à craindre de la police britannique, et ils le savent."
Tout à fait, jamais aucun agent de police n'ira utiliser ce système pour connaitre l'adresse privée de telle ou telle star dont il conanit la voiture. Jamais personne n'aura l'idée d'utiliser ce système pour savoir qui est l'informateur du journaliste qui écrit un article compromettant sur le chef de la police locale et bien entendu jamais un mafieu infiltré n'osera utiliser cet outil contre la police pour découvrir un indic par exemple. Tout va bien.
Quand on connait la faiblesse du recoupement statistique dans un cas ou l'énnoncé est trop flou ou trop mal ciblé et la force de celui-ci quand il est au contraire bien ciblé on ne peut que craindre les débordements de ce système.
Se servir de cet outil pour traquer les mauvais payeur d'ammendes est intrusif mais passons, par contre utiliser cet outil comme un élément d'enquète (ou pire comme un élément de preuve) est une annerie (à moins de s'assurer préalablement que les personnes qui ont accès au système de recoupement possèdent une formation en probabilité et en stochastique des plus complètes).
Bref bonne chance à Monsieur Smith qui aura commis la bétise de faire le même trajet qu'un magnat de la pègre locale trois jours de suite.
[^] # Re: revenons en au fond:
Posté par Jerome Herman . En réponse à la dépêche Ubuntu : le canard pimpant est arrivé !. Évalué à 0.
Le monde est petit
[^] # Re: Dernz...
Posté par Jerome Herman . En réponse au journal Qu'il est bon de rire parfois - initiation à l'humour alsacien.. Évalué à 5.
A tes souhaits.
[^] # Re: J'adore
Posté par Jerome Herman . En réponse au journal L'informatique française va mal!. Évalué à 3.
Très honnêtement ce que l'on trouve sur Microsoft Reasearch (pour être parfaitement exact : ce que j'y ai vu, car je n'ai pas tout lu) ca se rapproche plus de la veille technologique appliquée que de la R&D.
Microsoft est en ce moment à fond sur deux technos qui m'interressent : les machines virtuelles, et les bases de données multidimensionnelles (en l'occurence ici sous la forme de cubes OLAP). Ben sur ces deux points Microsoft a pas sorti grand chose de révolutionnaire (alors que c'est leur second coeur de métier) par contre ils ont pas mal ammélioré l'existant.
Certes on s'est éloigné du temps ou MS quand il avait besoin d'une techno rachetait trois boites qui avaient fait de la recherche dans cette techno, mais on est pas encore au moment ou MS remet en cause lui même ses modèles de scheduler, de cache ou de compilation. Ceci étant il existe de très bons chercheurs aux US qui font de l'appliqué et il n'y a pas vraiment besoin de faire autre chose que d'évaluer les solutions universitaires et de proposer des implémentations/adaptations sur des cas concrets. (Ce que MS fait très bien nous sommes d'accord). Ceci étant si on compare au monde du libre, on re récupère le sens premier des mots R&D d'entreprise. Le Hurd est uen véraitbale mine d'information pour tous ceux qui lorgnent sur les microkernels (universitaires compris), OpenBSD est uen source intarrissable en ce qui concerne la compilation en C et la séparation des privilèges, Linux a des modèles d'allocation mémoire et de scheduling qui était considéré comme hautement expérimentaux il y a pas 5 ans (et encore ils ont souvent été assez violamment modifiés).
Par contre il aprait qu'en IHM (mais là j'y connais rien de rien) MS sont tout à la pointe de la recherche.
[^] # Re: J'adore
Posté par Jerome Herman . En réponse au journal L'informatique française va mal!. Évalué à 5.
Oui mais mon point est que les entreprises, même grosses, même américaines elles ont pas des sections R&D de folie. J'ai soigneusement évité de citer IBM qui est l'exception à mon sens (avec une vraie R&D novatrice dans tous les sens du terme), mais la plupart des concepteurs de puce attendent le SOI2 ou le diamant synthétique pour faire des puces à 10Ghz et la plupart des éditeurs de logiciel attendent les puces à 10Ghz... C'est triste mais c'est comme çà.
C'est à dire quasiement toutes...
Restons sobre, disons quasiment toutes les plateformes grand public. (PDA exclus)
Il n'y a pas que les applis web publique dans la vie.. XUL est tout à fait envisageable en intranet.
J'imaginais bien l'utilisation de XUL dans un cadre intranet. Seulement il est assez difficile de vendre le produit à un client si je ne peux pas concrètement lui dire ce qu'il apporte. Comment je fais gober du lezard à mon fan de e bleu ?
Sur le web publique, oui, mais en intranet, pas tout à fait vrai. il existe des plugins, des lib xforms coté serveurs etc... Même gecko prend en charge XForms (c'est peut être par lui d'ailleurs que XForms va un peu plus se démocratiser).
Tu as plus de chance que moi si tu as vu XForms utilisé en prod. Vu la toile de réseau intra et extra net que l'on a et les relations entre les réseaux on est obligé de mapper pas à pas toute la session en base de données. On aurait tout interet à utiliser des processus XForms avec des recoupement au niveau client. Mais j'ai pas vu de propal en ce sens (bon le tranet c'est pas sous ma tutelle du tout, mais pour avoir évoqué le sujet plusieurs fois j'ai pas l'impression que la techno soit hyper répandue).
XUL ? systeme de tag prédefini ?? difficilement extensible ? Je crois qu'il faut que tu te renseignes sur XBL, qui est la pierre angulaire de XUL. Ya pas plus extensible que XUL grâce à XBL (et aussi aux overlays...)
Je me suis mal exprimé, ce que je reproche le plus à XUL c'est d'être un objet pur client. il ne dialogue qu'avec le moteur Gecko et seul le moteur Gecko dialogue avec lui. Donc, de ce que j'en ai compris, même si j'ai un construct XUL du feu de dieu il faut quand même que je le casse en formulaires à la main pour pouvoir remonter les infos au serveur si le besoin s'en fait sentir. La plupart des frameworks web 2.0 masquent cette partie.
Va voir des frameworks comme backbase... la plupart des trucs en Ajax font tellement des requêtes dans tous les sens, que les serveurs peinent à délivrer les informations, que la bande passante souffre etc..
Oui ca c'est typique des developpeurs qui découvrent un nouveau jouet. Il suffit de les coller sur un PIII 500Mhz avec 1Go de ram et ils deviennent tout de suite nettement plus raisonnables. ceci étant le framework que l'on utilise actuellement fait plus de mal à la base de données qu'au serveur web (CF sessions mappées pas à pas plus haut). Mais c'est lié à notre archi un poil bancale.
Pour quoi faire ? Et qui te dit si à l'avenir tu ne vas pas pouvoir ?
Là c'est pour mes délires persos avec XCB, j'ai besoin d'un outil de rendu assez flexible (et là le couple XUL/Gecko a l'air pas mal) pour tester mes outils (faire un proof of concept) MAIS gecko ne me convient pas du tout tant au niveau design, qu'au niveau gestion du cache, stratégie d'affichage etc. Donc je vexu pouvoir le jeter plus tard (si possible en gardant quand même mes scripts XUL pour les coller sur un autre moteur de rendu).
gni ? depuis quand il faut configurer/recompiler gecko pour faire une appli xul ?? web de surcroit ???
Là j'étais dans une optique de client semilourd comme un application d'admin qui fait appel à des services n-tiers directement ou tout simplement un portail spécifique non web (par exemple pour la présentation de certains documents chiffrés).
En fait mon argumentaire était le suivant :
- J'ai du mal à voir l'interet en web/intranet
- J'ai du mal à voir l'interet en panel de rendering pur
- J'ai du mal à voir l'interet pour le dev d'applications dédiées.
Seulement présenté comme celà c'est assez vexant (et ce n'est pas vraiment mon but) , je ne demande qu'à être convaincu du bien fondé de la technologie. Mais les recherches que j'ai effectué de mon coté ne m'ont pas permis de comprendre le champs d'application de XUL, ou du moins les avantages qu'il y avait à utiliser XUL plutôt qu'un autre framework. (A part pour ce qui est des panes de rendu, mais reste le défaut de se trimballer TOUT gecko même dans les pane "simples")
C'est justement le cas pour XUL. De plus en plus de monde l'utilise. Je l'observe chaque semaine sur xulfr, via les stats de frequentation, les questions sur les forums, et les contrats qui déboulent chez nous. Ce n'est pas parce que TOI tu utilises peu d'appli xul que d'autres ne les utilisent pas. Par exemple, que fait tu de ces centaines d'extensions à Firefox (en XUL bien sûr, qui pour 99% d'entre elles, le dev n'a rien eu à compiler) ?
Attention pour tout ce qui est plugins sur Gecko, thèmes, skins, add-ons et que sais-je encore je comprend bien l'interet de XUL. C'est en XUL en tant que contenu que je ne crois pas, XUL en tant qu'outil augmentant les possibilité de Gecko ca me va.
[^] # Re: J'adore
Posté par Jerome Herman . En réponse au journal L'informatique française va mal!. Évalué à 10.
Vous auriez dit Berkely, MIT, Columbia j'aurais été un peu d'accord. Encore que j'aurais gentillement dit que l'INRIA et Le Polytechniceum de Lausanne jouait dans une cours pas très loin. Mais honnêtement alors que Microsoft s'apprète (avec beaucoup de mal apparament) à sortir son douxième produit basé sur le même kernel, que SGI agonise et passe sous Linux et que SUN vend des architectures AMD64 peut-on vraiment encore citer les US comme le fleuron de la recherche appliquée ? Les US brevètent, çà oui, mais pour ce qui est d'inventer par contre ... Pour l'instant on se contente surtout d'améliorations (dans la mesure ou l'implémentation est pas trop buguée.)
parce que XUL, c'est une nouvelle manière de réaliser des interfaces graphiques
Indépendamment de la technique invoquée, la manière n'est en elle même pas très nouvelle. Certains générateurs de rapports et dans une moindre mesure certains logiciels de RAD utilisent des approches comparables.(L'utilisateur "décrit" son interface dans un langage, et ca description est compilée puis rendue à l'écran).
Parce que Gecko est multi plateforme, que XUL est portable.
XUL est très moyennement portable de ce que j'en ai vu, et pour ainsi dire pas porté du tout. A ma connaissance hors de gecko point de salut et point de XUL (arretez-moi si je me trompe) donc XUL ne fait que profiter des plateformes sur lesquels tourne Gecko...
Parce que coté applis web, ça te permet d'être beaucoup plus productif et d'avoir une appli plus reactive et légère que tous ces trucs en ajax.
A deux conditions tout de même : a) que le navigateur connecté soit un gecko et b) que la machine qui fait tourner l'appli XUL ait assez de mémoire/ressources (dit sans intention de troll, mais je ne vois pas comment le formuler autrement).
Quoi que l'on puisse reprocher à Ajax ou aux technos "DHTML Plus" au niveau des temps de réponse, ça met rarement une machine à genoux (à moins de coder n'importe comment) et ca marche pas trop mal en applications intranet. Ceci étant je n'ai jamais vu d'applications professionelle de XUL (à part NVU peut-être si il y en a dedans) et ma réticence vis à vis de l'occupation des ressources vient peut-être d'erreurs grossières dans les applis XUL que j'ai vu tourner.
Parce qu'un XUL like est en voie de normalisation au W3C
A mon sens, ca irait plutôt contre vous çà. Le "Layer Like" sorti par le W3C au bon temps d'HTML 4 il a fait très mal aux inventeurs du layer. De plus même si c'est normalisé dans tous les sens, ca ne veut pas dire que ca sera utilisé. XForm est normalisé depuis près d'un an etpersonne ne semble décidé à se jeter dessus. De même le moteur Gecko peine clairement avec les CSS2/3 (et on ne va ni parler d'internet explorer ni parler de DOM parcequ'on va encore facher du monde).
Bref, on en revient toujours à la même question qu'est-ce que ca apporte en vrai ?
Bref -> capitalisation du savoir faire, possibilité de réutiliser toutes ces compétences ailleurs. Surtout que XUL est copié dans pas mal de lib (faut voir le nombre de lib en java qui permettent de faire du xul-like..).
Le problème étant que dans le cadre d'une appli Java, je vois tout l'intéret d'un XUL like. Pouvoir initaliser/gerer/modifier ses beans (ou ejb, ou MMO) à coup de tags modifiables dynamiquement par des scritps c'est très sympa, mais c'est fondamentalement extensible. Je prend les tags dont j'ai besoin, je rajoute avec du code les tags qui manquent et je fais un prog qui me convient. Pas besoin de plonger dans les profondeurs de Gecko si des impératifs de place m'obligent à couper els fonctionnalités qui ne me servent à rien. Celà vient peut être de ma culture de dev (ou peut-être parceque je suis encore trop "proche du système") mais un système de Tags prédéfini, difficilement extensible et lié de manière très forte à une techno spécifique çelà ne me tente que moyennement.
ref, tu m'a l'air d'avoir emis un avis sur XUL sans même te documenter. Gecko et XUL sont des technos d'avenir, c'est un fait. Tous les indicateurs le prouvent (que ce soit du coté de la standardisation, que du coté de l"'industrialisation").
Détrompe-toi, sans être un initié des arcannes de XUL je me suis penché sur la question assez sérieusement. Grosso-modo j'avais besoin d'un moteur de rendu assez rapidement et j'ai voulu savoir si en prenant une solution XUL+Gecko je pourrais un jour me débarasser de Gecko (pour le remplacer par un autre moteur de rendu). En ce qui concerne les technos d'avenir, j'en ai essuyé 3 de pleins fouet (HTML-Web, Java et XML et consors) A chaque fois il fallait tout casser pour refaire dans "la techno d'avenir", indépendamment de si c'était pertinant ou pas. Si il faut apprendre XUL parceque le client veux qu'on lui fasse ses livres de comptes en XUL, je le ferais. De même que je fais aujourd'hui des parseurs XML/XSLT en lieu et place de convertisseurs de formats de données en Java.
Comment tu vas vite en besogne. Généralise pas. Corrige : "Parce que pour l'instant elle n'a rien pour *me*plaire." Mais ce n'est pas vraiment étonnant, vu que tu semble plutôt interressé par tout ce qui est système.
Honnêtement les RAD m'interressent aussi beaucoup, mais j'ai l'impression (le préjugé ?) assez nette que le temps que je gagne à créer l'interface en XUL je le reperd dérrière à configurer Gecko et à compiler le tout avec XULrunner.
La complexité impliquée pour compiler uen application comme Mozilla, NVU ou même plus récamment SongBird me laisse pantois et un peu frileux vis à vis des technos utilisées.
La techno est répandue. Je ne sais combien de dizaine de millions de gecko installés sur les postes à travers le monde, ce n'est pas insignifiant tout de même.
Vous êtes bien assis ? Parceque si c'est insignifiant. Une techno n'est significative qu'une fois que l'on commence à s'en servir. Il y a sur terre des millions de machines sous Linux qui pourraient utiliser les ACL Posix, mais qui ne le font pas. Le reflexe de la planête entière est de claquer du sudo à toutes les sauces alors que cette commande idiote aurait du disparaitre. La plupart des distrib n'ont même pas de packages complètement à jour. Donc les ACL Posix sous Linux c'est insignifiant. De la même façon en 5 ans sous Mozilla puis Firefox je n'ai quasiment jamais utilisé d'autre XUL que celu fournit de base à l'installation. J'ai du aller une fois sur un site en XUL et j'ai peutêtre mon plug-in de download qui exploite XUL. Je ne sais pas si on peut considérer celà comme significatif, et je pense sincèrement que mon expérience sous Moz est assez facilement généralisable.
Et puis la santé financière de la boîte va bien. Inutile de diffamer, merci. (Tu crois qu'on embaucherait si on allait mal ??).
Je ne parle en aucun cas de la santé financière de l'entreprise,mais de son assise. Un groupe comme Total, même en plein déficit a une bien meilleure assise financière que DI en pleine période de bénéfices reccords. Soyons clair est-ce que vous avez une bonne trèsorerie ? est-ce que le fond de roulement est OK, est-ce que vous être assurés comme il faut en cas de procès/catastrophe/maladie/fuite d'infos ? En d'autres termes si demain pour une raison X ou Y ca commence à aller mal (très) combien de temps vous survivez ?
Que vous le vouliez ou non un cadre qui quiterait sa grosse boite confortable mais soporifique pour venir bosser avec vous serait assez probablement en prise de risque. Ceci étant l'aventure vaut peut-être le coup, mais ca reste une aventure.
Justement XUL, rentre dans cette section... M'enfin ça tu le découvrira quand tu te sera vraiment renseigné sur la techno.
Comme vous vous permettez une pique de conclusion : je fais de même.
Je voulais du Web 2.0 qui marche, celui avec l'ajax tout lent.
[^] # Re: J'adore
Posté par Jerome Herman . En réponse au journal L'informatique française va mal!. Évalué à 10.
Pourquoi en feraient-il ? Du moins ceux qui en font (c'est à dire à peu près toute quand même) pourquoi l'utiliseraient-ils ? La France (au sens les entreprises francaises) ne veut pas de technos diférentes. Il est quasiment impossible de sortir du tout Microsoft et quand on y arrive c'est pour refourguer une base de donnée Oracle ou Sybase. De là la R&D sert à faire de joli dessin, à dire au client qu'on le prépare au nouveau paradigme programmatique et fonctionnel des années à venir. Les éditeurs de logiciels qui innovent c'est pas qu'il y en a pas, c'est qu'il y en a plus.
Sinon BVRP est encore assez vivant, Ubisoft et Infogrammes font encore un peu de R&D dans les coins, et il y a de très bon produits en gestion comptables et fiscales internationnales (Cartesis,CEGID ). Mais la vraie R&D (à savoir autre chose que de la veille technologique suivie d'implémentation de test "pour voir" ) est morte à peu près partout dans le monde.
En France, tu n'as quasiement que des SSII, rempli de développeurs qui s'investissent peu dans la R&D, même à titre perso (SSII = vendeur de viande comme diraient certains). Peu de centre de R&D. Aprés on s'étonne de l'hégémonie américaine sur le marché des logiciels.
C'est clair que si on les boites francaises investissait à fond en R&D (avec le soutien de l'état par exemple) on aurait beaucoup de superbes success-story à la Bull. Et puis Honnêtement si des boites comme Oracle, Microsoft, Symantec ou Apple sont en tête des ventes c'est pas grace à leur section R&D epoustoufflant, je dirais même que c'est au contraire parcequ'elles collent au plus proche de ce qui a déjà été fait les années précédente en rajoutant avec parcimonie une idée rigolote à gauche, une interface soignée à droite et un truc vaguement proprio au millieu.
Alors là, détrompe toi. Beaucoup de boîtes sont obligés de former des developpeurs parce qu'il n'y a personne sur le marché XUL/Gecko.
Sans vouloir être vexant c'est un peu normal. Sur mon temps de loisir je joue avec OpenBSD (surtout Carp et PFSync en ce moment), Erlang OTP et XCB (le remplaçant XLib, pas le presse papier). Tous ces trucs sont relativement obscurs, pas franchement très en vogue sur les CV et il est plus que probable que je ne me servirais pas souvent de ces technos en environnement porfessionnel. Seulement voilà, OpenBSD, ERlang et XCB m'aprenne ennormément de choses réutilisables en dehors du contexte direct d'application. Sécurité, qualité de code, redondance de protocole, fiabilité pour OpenBSD; Programmation fonctionnelle, temps réel mou, programmation communiquante et mécanismes asynchrones pour Erlang et pour XCB le protocole X, les mécanismes de messages/signaux internes etc.
La question est donc pourquoi apprendre le XUL a part pour connaitre le XUL ? Qu'est-ce que je fais de mes connaissances XUL si d'ici deux ans tout le monde laisse tomber ? A quels paradygme nouveau m'ouvre XUL ?
De la réponse à ces questions résulte l'interet que peut avoir XUL aux yeux d'un epersonen qui n'en a pas besoin professionellement. A mon sens cet interet est très réduit.
Les technologies évoluants, c'est à toi de te tenir au courant, de te mettre à jour durant toute ta carrière, sous peine de finir dans un placard parce que plus personne n'a plus besoin de tes compétences sur les technos vieilles de 35 ans... Et je te rappelle que ton employeur est dans l'obligation de te payer régulièrement des formations... Mais combien font valoir ce droit ? combien s'investissent dans la mise à jour de leurs compétences ? De ce que j'ai vu en SSII, vraiment qu'une faible minorité. (d'où le "flemard et suiveur").
Que les ingénieurs en SSII aient du mal avec les formations c'est un fait, généralement il suffit d'assiter uen fois à ce que les "grandes" SSII appellent des formations internes pour savoir que l'on est vachement mieux chez le client (et qu'on y apprend plus au passage). Ensuite la formation bouquin + connexion internet marche pas trop mal si on s'en donne la peine et ca permet d'utiliser le vrai argent à passer des certifications plutôt que des formations, mais bon.
Ceci étant quand le client demande une formation avant de prendre un gars, la formation se passe à toute allure. Mais une fois de plus ca se borne le plus osuvent à passer trois jours dans un bocal avec douze péquins et un prof. Après ces trois jours tu reoturnes voir ton employeur et tu le regardes droit dans les yeux pour lui dire "Ca y est je maitrise à fond la gestion de domaine Exchange pluggués sur Active Directory " avant de retourner faire 8 mois de java bien basic chez le client.
Pour se former à quoi que ce soit il faut du temps et de la mise en pratique. Comme le client en a rien à foutre de la techno XUL, que la techno XUL tu n'as pas envie/besoin de t'en servri au quotidien sur ton temps de loisir , ben la techno XUL elle passe à la trappe.
La question n'est donc pas de traiter de "flemard et suiveur" les informaticiens mais de se psoer (sérieusement) la qestion de savoir ce qui pourrait rendre la techno XUL attractive. Parceque pour l'instant elle a rien pour plaire au néophyte.
Il faut obligatoirement être chomeur pour postuler à un poste ?
Pour lacher un poste qui te nourri et qui paye le loyer pour un presque poste presque sur portant sur une techno pas super répandue dans une boite pas super assise financièrement il faut quand même avoir la vocation.
Même si ils ne sont pas spécialistes, ils peuvent le devenir non ? un chomeur a droit à des heures de formations non ? un chomeur qui veut s'en sortir, il essait d'apprendre de nouvelles compétences non ? (surtout un informaticien, ça devrait être dans ses gênes ce genre de reflexe :-) )
D'abord le chomeur il a le droit a des formations, mais c'est pas forcément lui qui choisit (même rarement). Ensuite dans la liste des technos qui plaisent au marché du travail et qui sont garantie durable XUL n'arrive une fois de plus pas en tête. Donc le chommeur qui veut s'en sortir il va apprendre Web2.0, Java, J2EE, SAP, Oracle, SQL Server, Active Directory, Sybase, même GAP... mais pas XUL.
Pour conclure : libre à vous de croire que l'absence critique de compétences XUL est due exclusivement à la flemardise franchouillarde en ce qui concerne les nouvelles technos de moins de 35 ans. Mais ne soyez que moyennement surpris si on se moque de vous qand vous cassez des tables de rage.
[^] # Re: ...
Posté par Jerome Herman . En réponse à la dépêche Erlang/OTP R11B supporte les architectures multiprocesseur. Évalué à 2.
je faisais allusion aux techniques comem le fragment cache de la Dynamo. Mais c'est vrai que j'aurais du dire "Si le contexte d'exécution de focntion se représente alors ..." mais c'est vraiment très pédant, et pas forcément compréhensible en plus vu le double sens du mot contexte d'éxecution dans une discussion sur les threads (contexte au sens emplacement d'éxecution du thread et contexe au sens empreinte données+pile d'execution)
Par ailleurs, qu'est-ce que tu entends par "self linking dynamique" ? Google m'aide pas beaucoup.
C'est une des techniques les plus gore qui soit avec les bibliothèques dynamique. Il s'agit en fait de réussir à forcer une bibliothèque à se charger elle même puis à utiliser tout un tas d'effet de bord pour modifier le comportement de certaines fonctions de façon à ce que lorsque la même bibliothèque sera appelé par un autre programme, celui ci aura le comportement modifié et non le comportement initial.
Ce genre de techniques étaient utilisées de façon très light pour faire passer des message entre les processus via la biliothèque (oui ca a été possible, sous windows notamment) mais maintenant c'est fini. Ceci étant il resterait encore de très "jolies" choses à faire avec des virtual, des callback et en s'appuyant un peu sur les méccanismes du kernel.
Je n'ai pas d'exemple de ce que l'on peut faire sur un OS moderne...