Ben, c'est pas ce qui s'en rapproche le plus, c'est carrément son équivalent, sauf que :
- y'a que 100 000$ à la clef (contre 1 000 000$ pour les Nobel si je ne m'abuse) ;
- ça a lieu tous les 4 ans (contre tous les ans pour les Nobel) ;
- il faut avoir moins de 40 ans pour pouvoir être nommé.
Parlant de MPEG 4 :
« En l'occurence quand tu lit, tu utilise, donc tu viole le brevet.
POINT. »
T'es sûr de toi ? De ce que j'ai compris, la façon de décoder le MPEG 4 est très bien spécifiée par la norme, alors que l'encodage est laissé au soin du fabricant de logiciel. Si c'est bien ça, celui qui décode n'a aucun brevet qui le concerne.
En fait, si tu regardes bien la première saison, on utilise presque toujours des maths utilisées en physique, justement. Ce sont des maths appliquées, et comme telles, elles sont là pour modéliser un problème concrêt. Les maths pures nous dépassent tous ou presque, de toute manière.
Le fait est que la musique qu'on nous balance la plupart du temps à la télé ou la radio, c'est effectivement du consommable, alors pourquoi ne pas avoir ces chansons SANS LES PUBS ENTRE ? :-)
J'ai vu des centaines de softs en version 0.x avec les sources dispo. Aucun de ceux-ci n'a abouti au final (je ne parle que de ceux qui n'ont pas abouti hein, il y en a qui ont avancé :-) ).
Perso, qu'ils filent des préversions en attendant d'avoir une version assez stable ne me choque pas. Parce que les gens qui font des rapports de bug, au début, c'est largement suffisant, alors que les gens qui proposent un patch sur un soft considéré comme pas tout à fait terminé, c'est pas génial, surtout s'ils comptent distribuer la chose en double licence comme pour Qt (vu qu'il faut respecter le style de codage, etc.).
En plus, tu fais comme s'ils n'allaient pas rendre le code libre, mais ils vont le faire.
On parle de format dans le contexte informatique, donc je trouve la remarque plutôt inutile... car suintant la mauvaise foi. Alors, on trolle, on trolle, mais ça fatigue, à la fin.
Pas d'accord. J'aime beaucoup mes Might & Magic 4 et 5 (aaaaaah, Clouds of Xeen, Darkside of Xeen :'-) ), il n'empêche que ce que propose NWN est quand même vachement plus abouti techniquement parlant, et apporte énormément à l'ambiance.
Je n'ai jamais acheté une bête de course pour jouer (je joue de moins en moins, et ai tendance à préférer les jeux un minimum linéaires, justement à cause de ça), même si quand même, j'essaie que chaque nouvelle machine ne soit pas du bas de gamme non plus. Ce n'est pas pour rien : c'est aussi pour profiter des avancées techniques qui sont exploitées dans les jeux vidéos, et celles-ci sont parfois d'ordre purement esthétiques, certes, mais permettent de mieux se plonger dans le jeu.
Sur ce, je retourne jouer à Jedi Knight : Jedi Academy, qui utilise l'antédiluvien moteur de Quake 3 (les nouvelles techniques de la mort qui tue, je ne les vois que trois ans plus tard :-) ).
« C'est vraiment une manie de ramener ce faux argument.
Les jeux récents (à quelques exception près, mais les exceptions osnt des démos technologiques qui ne sortiraient pas sur les vielles consoles non plus) tournent sur de vieux PC. »
Ma réponse était là pour prévenir le côté « une console est obsolète au bout de x années, alors que le PC non ». En pratique, je joue peu, et la plupart du temps, les jeux étaient déjà « vieux » (plus d'un an ;-) ) quand mon PC a été acheté.
Le fait est que la console force les programmeurs à faire avec un matériel fini, là où ces derniers s'autorisent à rajouter tout un tas d'effets supplémentaires lorsque un ou deux ans se sont écoulés depuis le dernier PC haut de gamme (effets désactivables, bien sûr). Maintenant, je persiste : avec trois ans d'ancienneté pour un PC relativement costaud, on peut toujours jouer à des jeux récents sans rien changer à la configuration (à la condition de désinstaller certains programmes, sans doute), mais on commence déjà à voir la machine devenir poussive. Pour reprendre l'exemple de ce que tu appelles « démos technologiques », sous Linux, il n'y a pas cinquante jeux qui existent, et entre autres, il y a Doom³. Ben je peux lui dire adieu, avec la machine que j'ai. Ou alors, avoir un jeu aussi beau que Quake 3 (allez, un chouilla plus beau), en baissant tous les détails.
« Et surtout, mais la c'est encore une autre histoire qui ne concerne pas le prix, une console n'est absolument pas le meilleur support de jeu, en tous cas pas pour moi, amateur de jeux de stratégie (aucun sur console) »
Je peux me tromper, mais j'avais bien cru voir passer des RTS sur console (GBA entre autres) ... Je ne dis pas qu'ils sont au même niveau que ceux existant sur PC, mais affirmer qu'il n'y en a aucun, c'est pour le moins hasardeux.
« et de FPS (non, un FPS à la manette, ce n'est pas un FPS, c'est un jouet, il faut une souris pour maitriser un FPS), »
Alors là par contre, m'étant pris une taule (il y a longtemps) à Duke Nukem 3D contre des mecs vraiment très forts à la souris et au joystick/joypad, désormais j'évite d'avoir ce genre de commentaire à propos des FPS [1]. J'ai tendance à être comme toi et préférer le clavier/souris, mais il ne faut pas oublier quelque chose : un FPS fait pour console a été étudié un minimum pour que l'ergonomie du pad soit adaptée.
« (oui, j'adore aussi Super Mario Bros 4, je peux y jouer sur PC grace à un émulateur, et pas sur PS2/Xbox360, c'est idiot non?) »
Ça tombe bien, ils veulent permettre d'acheter à pas cher les jeux NES/SNES/Master System/Megadrive/PC-Engine et quelques autres pour la Wii de Nintendo. Comme ça, tu pourras jouer à tous ces jeux légalement [2]. :-)
« C'est peut-être le meilleur support de jeu pour toi, mais pas pour tout le monde, merci de ne pas généraliser. »
Ben, c'est mon avis, signé avec mon pseudo (qui permet assez facilement de retrouver ma véritable identité sur le net). Je dis déjà trop « Moi, je [pense que]...», donc j'essaie d'éviter les redondances inutiles. Il est évident qu'il s'agit de mon avis, et pas d'une vérité universelle. Effectivement, pour certaines catégories de jeux (tiens, tu as oublié les simulateurs, notamment de vol), le PC est quasiment le passage obligé. C'est en fait le seul cas où le PC est « obligatoire » : les jeux non présents sur console. [3] :-)
[1] Certes, j'étais plutôt moyen à DN, mais quand même « moyen plus »...
[2] Et là, je cache mes émulateurs et ROM neo-geo sous le tapis...
[3] Un peu comme Windows est presqu'obligatoire si on veut jouer à des jeux récents sur PC ...
« Ouai enfin en même temps je ne vois pas bien ce qui pouvait manquer pour faire un jeu qui déchire. Déjà certains jeux commerciaux sous Linux présentaient et présente toujours (savage 1 et 2) des effets qui sont largement assez "modernes" et suffisament saisissants pour servir de support marketing à un jeu comme Neverwinter Nights II. »
Ben c'est simple, si tu fais NWN 2, tu ne veux pas faire exactement le même que le 1 (sinon ça s'appelle une extension). Donc tu améliores ce que le jeu proposera non seulement en termes d'options, mais aussi du point de vue purement technique (ergonomie, effets visuels, options de jeu, etc).
Dire qu'on n'a pas besoin de nouveaux effets de la mort qui tue, dans le domaine du jeu vidéo, c'est comme dire que le téléphone fixe se suffit très bien à lui-même, merci pour lui, et non merci, pas besoin d'un mobile. C'est une opinion qui se respecte, ça se comprend très bien, mais il se trouve que pour beaucoup de gens, le mobile apporte réellement quelque chose (par exemple, j'ai un sens de l'orientation pourri, il vaut mieux donc que j'aie mon mobile avec moi pour la prochaine fois où je me perdrai en allant chez un ami).
Ben pour les jeux vidéo, entre un jeu super bien du point de vue intérêt, et un jeu super bien dans le même genre, mais avec une technique dix fois meilleures (plus beau, etc), je préfère le deuxième - je sais, je suis superficiel, c'est la beauté intérieure qui compte.
Reste le côté beau sans intérêt : quel que soit le jeu, sa beauté, etc, s'il n'a pas d'intérêt, on y joue quelques fois, et on arrête assez vite (je te laisse faire le parallèle avec la beauté intérieure/extérieure, tout ça).
[Parlant de Final Fantasy XII]
« Mais alors qu'est qu'il est moche, on croirait que ca date de... 5 ans. ben oui, effectivement, comme ca tourne sur une machine qui a 5 ans, c'est aussi moche que des jeux d'il y a 5 ans, et cette qualité pourrait très bien passer sur ton PC de 5 ans aussi. »
N'importe quoi. Je ne parle pas spécifiquement pour FFXII que je ne connais pas. Mais je me souviens très bien de la différence d'un point de vue technique entre FF VII et FF IX (tous deux sortis sur PS première du nom). Techniquement, il y a un monde, ainsi qu'une capacité à exploiter le matériel qui n'est clairement pas la même en fin de vie de la console.
De plus, même s'il existe de nouveaux effets géniaux et magiques sur les jeux PC récents, s'il te faut la carte graphique qui coûte le prix d'une demi console tous les 2 ou 3 ans, je ne vois pas trop l'intérêt - d'autant plus que généralement il faut aussi au moins booster la RAM avec (ou alors, ton PC t'a coûté très cher, et à ce moment-là, tu fais partie de la moyenne des hard-core gamers sur PC, qui sont plus proches de la trentaine que de la vingtaine, et donc de toute manière c'est ta passion et tu as les moyens).
Pour quelqu'un avec un budget raisonnable, la console est franchement encore le meilleur support de jeu, sauf si tu as de toute façon décidé de changer d'ordinateur, auquel cas investir un peu plus massivement que d'habitude se justifie. Pour mémoire, il y a quelques années (en août 2002 plus précisément), j'ai acheté mon ordinateur actuel (AMD XP1800+, 512Mo de RAM DDR PC2100, CM Abit, GeForce 4 Ti, HDD 100Go, et le reste). La configuration s'approchait des 900-950 euros sans écran. Certes, ça m'a permis de jouer à pas mal de jeux à l'aise, mais en pratique, maintenant, il est hors de question de jouer correctement sur des jeux vraiment récents, sauf à tout mettre au minimum ou presque - ou alors en tout cas, je n'aurai rien de plus beau que ce qui se fait sur console actuellement. Étant donné que désormais c'est surtout le côté CM+CPU+RAM qui sont le facteur limitant (ah oui, c'est de l'AGP, pas du PCI-E), j'aurai le droit de me racheter presque un PC en entier si je veux pouvoir jouer à des jeux récents.
Avec ce genre de raisonnement, on va vite rigoler dans les autres sciences et technologies. J'imagine déjà mes collègues matheux qui devront apprendre l'Allemand pour pouvoir correctement parler entre eux de certaines fonctions mathématiques, parce qu'inventées par Leibnitz.
« Alors restons sérieux et utilisons les mots anglais quand cela améliore la clarté du propos. »
Le fait est que, mis à part framework qui effectivement n'a pas de réel équivalent français, tous les autres mots ont une traduction intelligible, sans ambigüité possible, du moment que tu es du métier. Je lis sans problème la littérature technique en Anglais, mais je mets un point d'honneur à parler français, même lorsque je parle d'informatique. Je trouve bien plus ridicule de parler de software en lieu et place de logiciel, par exemple (seule exception notable : dire « un soft » va plus vite que dire « un logiciel » :-) ).
Je te conseille vivement la lecture de mon article du mois dernier dans linux mag, cela pourrais te servir à arrêter de mentir, soit délibérément, soit par ignorance.
On ne ment pas par ignorance. Que vous ayez des échanges animés, soit (surtout que vous êtes loin d'être inintéressants à lire), mais lorsqu'on traite quelqu'un de menteur, c'est plus aggressif et violent je trouve que de le traiter d'abruti (qui peut se comprendre comme étant une perte momentanée de sang froid - même à l'écrit).
Tu peux éventuellement parler de mauvaise foi, mais le mensonge, c'est "sérieux".
Posté par lasher .
En réponse au sondage XML est.
Évalué à 2.
« Mais je comprends, quand on ne connaît rien d'autre que XML et que l'on n'a aucune notion des languages passés tels que Lisp il est difficile d'avoir de l'imagination et surtout d'avoir le moindre regard critique pour les outils que l'on utilise. »
Et sur ces bonnes paroles, où tu ne fais qu'être aggressif, et parler pour ne rien dire, je te laisse le dernier mot.
Et de façon générale, ça fait un bout de temps que cette histoire traîne, justement. Donc si la FSF n'est pas contente, il « suffit » qu'elle commence le procès : depuis que la Freebox existe ou presque, j'entends parler de cette histoire de GPL gna gna gna (mon avis perso importe peu ici, donc je ne le donne pas). Puisque visiblement ça traîne, et qu'aucune des deux parties ne semble vouloir bouger, il semble justifié de demander un arbitrage. Ou alors on se tait, parce que ça commence à bien faire.
Euh, l'image ISO bootable, c'est juste l'installation par le réseau hein ? Parce qu'à ma connaissance, les images strictement identiques à celles des CD officiels sont interdites de redistribution ...
Posté par lasher .
En réponse au sondage XML est.
Évalué à 2.
Bon, je ne réponds qu'à la fin de ton post, ce qui précède n'étant pas argumenté correctement (analogie pas pertinentes, entre autres).
« Le pifomètre ne s'est pas trompé cette fois-ci, mais malheureusement les tables de hachage, les listes et Lisp ont existé bien avant XML. »
Le rapport avec XML ? Ce sont des structures de données dont tu parles, moi je parle d'un format de stockage, semi-structuré - et donc par définition hiérarchique, auquel la structuration en arbre pour symboliser ladite hiérarchie [des types entre autres] convient bien.
« [...] on a besoin d'au moins 5 languages pour faire des simples pages web (sql, java/python/php/langage métier, html/xml, css, javascript), »
Voyons un peu. HTML/XML sont là pour le contenu, CSS/XSL pour le rendu (et n'oublions pas que XSLT et XQuery vont quand même plus loin que ça, et permettent de générer tout un tas d'autres sorties), JavaScript pour le côté dynamique côté client, et SQL pour les bases de données.
Je ne dis pas que c'est génial, mais j'aimerais que tu m'expliques comment tu comptes simplifier le tout. Le langage généraliste qui fait tout est à exclure, car alors ce serait une usine à gaz monstrueuse (il n'y a qu'à voir les JSP au début - et même maintenant c'est pas joli à voir, malgré les simplifications et le rajout des tags). Il se trouve qu'une base de donnée n'est pas uniquement utilisée par des applications orientées Web, il leur faut donc un langage standardisé pour pouvoir être utilisées (tiens, ce serait assez drôle d'ailleurs de faire remarquer que chaque SGBD/R n'implémente pas tout des normes SQL...).
D'ailleurs, des solutions comme Hibernate pour Java sont plutôt intéressantes, car justement on peut éviter un maximum le côté SQL des SGBD et passer par la correspondance Relationnel/Modèle Objet.
Donc pour faire bref :
1/ À moins de faire une base de données spécialisée Web, les langages de type SQL/XQuery vont rester un bout de temps (et même en ayant une on duplique inutilement les efforts, du coup)
2/ Le langage spécialisé est obligatoire pour faire l'interfaçage front-end/back-end (ou alors tu réussis je ne sais comment à tout faire passer en XML/HTML/XSLT, beurk)
3/ Il te faut bien un moyen de décrire le contenu et le mettre en forme (HTML,XML/CSS,XSL)
4/ Le seul truc éventuellement serait de réussir à fusionner HTML et JS, car effectivement, au final, tout se fait côté client (d'un autre côté, on peut utiliser Javascript à part, et mélanger la description des données avec leur traitement dynamique, bof...)
L'incapacité à faire rapide/peu gourmand/etc vient du fait que le développement spécifique à une plate-forme coûte cher en temps et en expertise, d'autant plus qu'on parle d'outils de haut niveau, extrêmement complexes. Le problème c'est qu'une bonne conception nécessite de bien séparer les modules, et du coup on perd au moins le temps de communiquer entre ceux-ci.
Je te rejoins sur le côté debogage : on est encore à la préhistoire de ce qui pourrait s'envisager, quelle que soit la plate-forme envisagée (et pas seulement pour du Web, même si c'est là que ça pêche le plus).
Inclure les BSD n'est pas très intelligent. BSD != Linux, sur beaucoup de points très subtils parfois, mais qui changent pas mal de choses. Donc à moins de voir les distribs prendrent le pli des BSD (ce qui est hors système doit être installé dans /usr/local, etc), je ne vois pas trop pourquoi les systèmes BSD, qui ont tout de même de GROSSES différences sur certains points avec Linux, se mettraient à changer leurs habitudes. Ils n'ont pas de problème de cohérence, eux. :-)
Posté par lasher .
En réponse au sondage XML est.
Évalué à 2.
[utilisations de XML]
« Et qu'est-ce que tu as utilisé d'autre que xml pour pouvoir comparer ? »
Java. :-) Plus sérieusement, j'ai utilisé ce que proposaient des langages compilés pour faire tout ce dont il est question, et XML, point. Je l'ai dit dès le départ, je ne connaissais pas YAML et JSON avant qu'on n'en parle ici. Je ne dis pas que XML est la panacée (en fait, je dis exactement le contraire dans le message auquel tu réponds), juste qu'effectivement pour l'échange de données, ainsi que la sérialisation, XML se prêtait bien à la chose (ah oui, et le stockage BDD aussi).
« Je ne savais pas que JavaScript avait besoin d'une machine virtuelle ? »
Mauvais terme de ma part. Un interpréteur.
« Si justement, ça change énormémént. Les balises énormément de bruit et alourdissent les transferts de données. »
Les balises sont redondantes, donc si compression il y a, et donc je ne vois pas en quoi ça alourdirait le transfert de données.
« La meilleure façon de compresser des données, c'est avant tout de ne pas y ajouter du bruit. Ensuite cela alourdit le déboggage des données elles-même. »
De toute manière, dès que tu as un format de données flexible et générique, tu es obligé de gagner en verbosité, XML ou pas XML. Les softs que je vois traiter de gros volumes XML utilisent leur propre représentation interne des arbres XML, et donc tout se fait en binaire. Le côté « chiant » d'XML c'est le parsing, je suis d'accord - ce qui se traduit aussi par les problèmes de transfert que tu évoques. Mais honnêtement, aussi fastidieux cela soit-il, le fait d'avoir le côté ouvrant/fermant permet justement d'être systématique dans le traitement de l'information (et de faire la validation, etc).
« C'est pas parce que c'est utilisé par tout le monde ou standardisé de fait/historiquement que c'est ce qu'il y a de meilleur. Les produits microsoft dominent le marché, je te laisse conclure. »
Je ne peux pas accepter cet exemple, car MS est tout seul à imposer sa vision, alors que pour XML, tu as un collège d'industriels et de chercheurs. Alors oui, ça veut aussi dire qu'on n'obtient pas une forme optimale (chaque participant veut insérer à tout prix SA fonctionnalité de la mort, et pour des raisons « politiques » on laisse faire - ou pas). Mais ça veut aussi dire que pas mal de paramètres sont pris en compte et que l'évolution ne se fait pas à la va-vite.
Pour le côté « standardisé de fait » : c'est justement parce qu'aucun standard n'avait su s'imposer qu'il était temps de faire quelque chose. Le C est un standard de fait dans l'industrie. Java aussi. Pourtant, le C se prête de moins en moins à la programmation généraliste je trouve (l'utilisation de langages de plus haut niveau permet de faire moins d'erreurs de programmation, avec un temps de développement plus réduit), et le Java à toutes les sauces est une aberration informatique.
De façon générale, je ne sais pas depuis quand YAML et JSON existent, mais au pifomètre je dirais « ils sont plus jeunes que XML ». Et quand une structure adopte un changement déjà assez radical en lui-même, tu ne peux pas t'attendre à ce qu'elle change du jour au lendemain (un peu comme la boite qui est pleine de développeurs C et qui ne va pas se mettre au CAML du jour au lendemain). Il faut aussi gérer l'inertie, et crier « XML SAPU » tout en oubliant que, comme tout format, d'autres lui succèdent en tirant partie de ses erreurs (alors que, comme quelqu'un l'a fait judicieusement remarquer, XML a aussi un lourd passif avec SGML), c'est un peu facile.
Posté par lasher .
En réponse au sondage XML est.
Évalué à 3.
Reprenons.
« YAML is optimized for data serialization, configuration settings, log files, Internet messaging and filtering. »
Je me suis mal exprimé (j'ai tapé trop vite).
Tu me demandais : « Donc tu n'utilises pas xml ni pour la sérialisation des données, ni pour les fichiers de configuration, ni pour les fichiers log, ni pour les transferts de données. Tu l'utilises pourquoi déjà ? »
Je ne l'utilise pas pour faire des fichiers de configuration. La sérialisation, oui ; les fichiers de logs je n'ai jamais eu à en faire en XML, et les transferts de données, évidemment.
« C'est quoi cette "machine virtuelle JavaScript" ? »
Je ne savais pas que JavaScript était compilé est s'exécutait sans aide.
J'expliquais ensuite que « human readable » != « humans will like to read it » (en gros). Tu répondais :
« On est donc bien d'accord, XML n'est pas lisible ni pratique d'utilisation. »
Je passe outre le ton ironique. Le XML est effectivement fait pour être techniquement lisible par l'oeil humain.
J'aimerais que tu m'expliques comment tu fais pour avoir des données lisibles par un humain (autrement que du côté technique que j'ai évoqué précédemment) dans un format texte, lorsque tes données sont décrites de façon extrêmement complexe. Au final, si tu as 1To de données, XML ou YAML ou ... je ne vois pas trop ce que ça change dès que le volume généré est important.
Quel que soit le type de données semi-structurées que tu emploies (latex, XML, YAML, etc), tu te retrouves avec une hiérarchie (donc au minimum des arbres - bien que dans le cas du XML tu puisses faire des graphes si tu as besoin de cas tordus),
XML = arbre typé ordonné. C'est tout. Il se trouve que la syntaxe choisie pour XML (balises ouvrantes/fermantes, etc), l'a été pour permettre une bonne automatisation des traitements. Certains trouvent que justement ça l'empêche. Personnellement je ne vois pas en quoi, mais je peux concevoir que ça gêne. Mais on oublie souvent qu'avant XML, des dizaines de formats semi-structurés existaient, mais qu'aucun n'était utilisé partout. XML, c'est le résultat d'une standardisation, avec de gros acteurs industriels qui ont enfin daigné s'asseoir à la même table. Donc non, c'est pas parfait, mais au moins, c'est un format sur lequel des gens bossent (autant les chercheurs que les industriels pur sucre).
Posté par lasher .
En réponse au sondage XML est.
Évalué à 2.
« Formulé autrement: XML c'est génial, tant que l'on ne connaît rien d'autre (surtout JSON et surtout YAML). »
Non. D'après le site :
« YAML is optimized for data serialization, configuration settings, log files, Internet messaging and filtering. »
Exactement le genre de choses où je n'utiliserais pas XML (utiliser XML pour faire des fichiers ce configuration est quelque chose de totalement débile la plupart du temps, sauf pour certains logiciels-usines à gaz, et encore).
Pour JSON, on faisait remarquer plus haut que des problèmes de performances pouvaient survenir. Quid de la machine virtuelle JavaScript qui doit tourner ?
« La question sur les DTD montre à quel point le format (il ne s'agit pas d'un language de programmation) est lisible et pratique à utiliser rien que pour le cas d'utilisation le plus basique. »
Je ne vois pas en quoi. Honnêtement, ça ne me dérange absolument pas d'utiliser une DTD tant que la description des données reste simple. Ce que les gens oublient, c'est que XML a été inventé pour être « human readable », mais pas dans une optique « je me farcis tout le texte avec les yeux, tout le temps ». On a tout de suite pensé le format pour qu'il puisse être traité automatiquement par des machines, mais modifiable quand même à la main par des humains, si besoin était.
[^] # Re: C'est du divertissement...
Posté par lasher . En réponse au journal Numb3rs ... et les autres. Évalué à 2.
- y'a que 100 000$ à la clef (contre 1 000 000$ pour les Nobel si je ne m'abuse) ;
- ça a lieu tous les 4 ans (contre tous les ans pour les Nobel) ;
- il faut avoir moins de 40 ans pour pouvoir être nommé.
[^] # Re: la GPL section 7 marche mais ne s'applique pas à .NET
Posté par lasher . En réponse au journal Traduction de la nouvelle FAQ de Novell à propos de son accord avec MS. Évalué à 2.
« En l'occurence quand tu lit, tu utilise, donc tu viole le brevet.
POINT. »
T'es sûr de toi ? De ce que j'ai compris, la façon de décoder le MPEG 4 est très bien spécifiée par la norme, alors que l'encodage est laissé au soin du fabricant de logiciel. Si c'est bien ça, celui qui décode n'a aucun brevet qui le concerne.
[^] # Re: plus de détails
Posté par lasher . En réponse au journal Numb3rs ... et les autres. Évalué à 2.
[^] # Re: Ma remarque à 2cts ...
Posté par lasher . En réponse à la dépêche La pétition racketiciels dépasse les 10 000 signatures. Évalué à 8.
[^] # Re: licence globale
Posté par lasher . En réponse au journal après la taxe Windows, la taxe Vivendi.. Évalué à 2.
[^] # Re: Explication
Posté par lasher . En réponse au journal Qt Jambi et concours Trolltech. Évalué à 4.
Perso, qu'ils filent des préversions en attendant d'avoir une version assez stable ne me choque pas. Parce que les gens qui font des rapports de bug, au début, c'est largement suffisant, alors que les gens qui proposent un patch sur un soft considéré comme pas tout à fait terminé, c'est pas génial, surtout s'ils comptent distribuer la chose en double licence comme pour Qt (vu qu'il faut respecter le style de codage, etc.).
En plus, tu fais comme s'ils n'allaient pas rendre le code libre, mais ils vont le faire.
[^] # Re: kformula
Posté par lasher . En réponse au journal Des équations en SVG. Évalué à 1.
[^] # Re: Quand-même...
Posté par lasher . En réponse au journal Accès permanent au net + augmentation du débit. Évalué à 2.
[^] # Re: Explication
Posté par lasher . En réponse au journal Neverwinter Nights 2 sort... pas sous Linux. Évalué à 2.
Je n'ai jamais acheté une bête de course pour jouer (je joue de moins en moins, et ai tendance à préférer les jeux un minimum linéaires, justement à cause de ça), même si quand même, j'essaie que chaque nouvelle machine ne soit pas du bas de gamme non plus. Ce n'est pas pour rien : c'est aussi pour profiter des avancées techniques qui sont exploitées dans les jeux vidéos, et celles-ci sont parfois d'ordre purement esthétiques, certes, mais permettent de mieux se plonger dans le jeu.
Sur ce, je retourne jouer à Jedi Knight : Jedi Academy, qui utilise l'antédiluvien moteur de Quake 3 (les nouvelles techniques de la mort qui tue, je ne les vois que trois ans plus tard :-) ).
[^] # Re: Se rabattre sur les console ?
Posté par lasher . En réponse au journal Neverwinter Nights 2 sort... pas sous Linux. Évalué à 4.
Les jeux récents (à quelques exception près, mais les exceptions osnt des démos technologiques qui ne sortiraient pas sur les vielles consoles non plus) tournent sur de vieux PC. »
Ma réponse était là pour prévenir le côté « une console est obsolète au bout de x années, alors que le PC non ». En pratique, je joue peu, et la plupart du temps, les jeux étaient déjà « vieux » (plus d'un an ;-) ) quand mon PC a été acheté.
Le fait est que la console force les programmeurs à faire avec un matériel fini, là où ces derniers s'autorisent à rajouter tout un tas d'effets supplémentaires lorsque un ou deux ans se sont écoulés depuis le dernier PC haut de gamme (effets désactivables, bien sûr). Maintenant, je persiste : avec trois ans d'ancienneté pour un PC relativement costaud, on peut toujours jouer à des jeux récents sans rien changer à la configuration (à la condition de désinstaller certains programmes, sans doute), mais on commence déjà à voir la machine devenir poussive. Pour reprendre l'exemple de ce que tu appelles « démos technologiques », sous Linux, il n'y a pas cinquante jeux qui existent, et entre autres, il y a Doom³. Ben je peux lui dire adieu, avec la machine que j'ai. Ou alors, avoir un jeu aussi beau que Quake 3 (allez, un chouilla plus beau), en baissant tous les détails.
« Et surtout, mais la c'est encore une autre histoire qui ne concerne pas le prix, une console n'est absolument pas le meilleur support de jeu, en tous cas pas pour moi, amateur de jeux de stratégie (aucun sur console) »
Je peux me tromper, mais j'avais bien cru voir passer des RTS sur console (GBA entre autres) ... Je ne dis pas qu'ils sont au même niveau que ceux existant sur PC, mais affirmer qu'il n'y en a aucun, c'est pour le moins hasardeux.
« et de FPS (non, un FPS à la manette, ce n'est pas un FPS, c'est un jouet, il faut une souris pour maitriser un FPS), »
Alors là par contre, m'étant pris une taule (il y a longtemps) à Duke Nukem 3D contre des mecs vraiment très forts à la souris et au joystick/joypad, désormais j'évite d'avoir ce genre de commentaire à propos des FPS [1]. J'ai tendance à être comme toi et préférer le clavier/souris, mais il ne faut pas oublier quelque chose : un FPS fait pour console a été étudié un minimum pour que l'ergonomie du pad soit adaptée.
« (oui, j'adore aussi Super Mario Bros 4, je peux y jouer sur PC grace à un émulateur, et pas sur PS2/Xbox360, c'est idiot non?) »
Ça tombe bien, ils veulent permettre d'acheter à pas cher les jeux NES/SNES/Master System/Megadrive/PC-Engine et quelques autres pour la Wii de Nintendo. Comme ça, tu pourras jouer à tous ces jeux légalement [2]. :-)
« C'est peut-être le meilleur support de jeu pour toi, mais pas pour tout le monde, merci de ne pas généraliser. »
Ben, c'est mon avis, signé avec mon pseudo (qui permet assez facilement de retrouver ma véritable identité sur le net). Je dis déjà trop « Moi, je [pense que]...», donc j'essaie d'éviter les redondances inutiles. Il est évident qu'il s'agit de mon avis, et pas d'une vérité universelle. Effectivement, pour certaines catégories de jeux (tiens, tu as oublié les simulateurs, notamment de vol), le PC est quasiment le passage obligé. C'est en fait le seul cas où le PC est « obligatoire » : les jeux non présents sur console. [3] :-)
[1] Certes, j'étais plutôt moyen à DN, mais quand même « moyen plus »...
[2] Et là, je cache mes émulateurs et ROM neo-geo sous le tapis...
[3] Un peu comme Windows est presqu'obligatoire si on veut jouer à des jeux récents sur PC ...
[^] # Re: Explication
Posté par lasher . En réponse au journal Neverwinter Nights 2 sort... pas sous Linux. Évalué à 1.
Ben c'est simple, si tu fais NWN 2, tu ne veux pas faire exactement le même que le 1 (sinon ça s'appelle une extension). Donc tu améliores ce que le jeu proposera non seulement en termes d'options, mais aussi du point de vue purement technique (ergonomie, effets visuels, options de jeu, etc).
Dire qu'on n'a pas besoin de nouveaux effets de la mort qui tue, dans le domaine du jeu vidéo, c'est comme dire que le téléphone fixe se suffit très bien à lui-même, merci pour lui, et non merci, pas besoin d'un mobile. C'est une opinion qui se respecte, ça se comprend très bien, mais il se trouve que pour beaucoup de gens, le mobile apporte réellement quelque chose (par exemple, j'ai un sens de l'orientation pourri, il vaut mieux donc que j'aie mon mobile avec moi pour la prochaine fois où je me perdrai en allant chez un ami).
Ben pour les jeux vidéo, entre un jeu super bien du point de vue intérêt, et un jeu super bien dans le même genre, mais avec une technique dix fois meilleures (plus beau, etc), je préfère le deuxième - je sais, je suis superficiel, c'est la beauté intérieure qui compte.
Reste le côté beau sans intérêt : quel que soit le jeu, sa beauté, etc, s'il n'a pas d'intérêt, on y joue quelques fois, et on arrête assez vite (je te laisse faire le parallèle avec la beauté intérieure/extérieure, tout ça).
[^] # Re: Se rabattre sur les console ?
Posté par lasher . En réponse au journal Neverwinter Nights 2 sort... pas sous Linux. Évalué à 0.
« Mais alors qu'est qu'il est moche, on croirait que ca date de... 5 ans. ben oui, effectivement, comme ca tourne sur une machine qui a 5 ans, c'est aussi moche que des jeux d'il y a 5 ans, et cette qualité pourrait très bien passer sur ton PC de 5 ans aussi. »
N'importe quoi. Je ne parle pas spécifiquement pour FFXII que je ne connais pas. Mais je me souviens très bien de la différence d'un point de vue technique entre FF VII et FF IX (tous deux sortis sur PS première du nom). Techniquement, il y a un monde, ainsi qu'une capacité à exploiter le matériel qui n'est clairement pas la même en fin de vie de la console.
De plus, même s'il existe de nouveaux effets géniaux et magiques sur les jeux PC récents, s'il te faut la carte graphique qui coûte le prix d'une demi console tous les 2 ou 3 ans, je ne vois pas trop l'intérêt - d'autant plus que généralement il faut aussi au moins booster la RAM avec (ou alors, ton PC t'a coûté très cher, et à ce moment-là, tu fais partie de la moyenne des hard-core gamers sur PC, qui sont plus proches de la trentaine que de la vingtaine, et donc de toute manière c'est ta passion et tu as les moyens).
Pour quelqu'un avec un budget raisonnable, la console est franchement encore le meilleur support de jeu, sauf si tu as de toute façon décidé de changer d'ordinateur, auquel cas investir un peu plus massivement que d'habitude se justifie. Pour mémoire, il y a quelques années (en août 2002 plus précisément), j'ai acheté mon ordinateur actuel (AMD XP1800+, 512Mo de RAM DDR PC2100, CM Abit, GeForce 4 Ti, HDD 100Go, et le reste). La configuration s'approchait des 900-950 euros sans écran. Certes, ça m'a permis de jouer à pas mal de jeux à l'aise, mais en pratique, maintenant, il est hors de question de jouer correctement sur des jeux vraiment récents, sauf à tout mettre au minimum ou presque - ou alors en tout cas, je n'aurai rien de plus beau que ce qui se fait sur console actuellement. Étant donné que désormais c'est surtout le côté CM+CPU+RAM qui sont le facteur limitant (ah oui, c'est de l'AGP, pas du PCI-E), j'aurai le droit de me racheter presque un PC en entier si je veux pouvoir jouer à des jeux récents.
[^] # Re: Nouveautés !
Posté par lasher . En réponse au journal OpenBSD 4.0 is out !. Évalué à 4.
« Alors restons sérieux et utilisons les mots anglais quand cela améliore la clarté du propos. »
Le fait est que, mis à part framework qui effectivement n'a pas de réel équivalent français, tous les autres mots ont une traduction intelligible, sans ambigüité possible, du moment que tu es du métier. Je lis sans problème la littérature technique en Anglais, mais je mets un point d'honneur à parler français, même lorsque je parle d'informatique. Je trouve bien plus ridicule de parler de software en lieu et place de logiciel, par exemple (seule exception notable : dire « un soft » va plus vite que dire « un logiciel » :-) ).
[^] # Re: timeo danaos et dona ferentes
Posté par lasher . En réponse à la dépêche Novell et Microsoft main dans la main !. Évalué à 1.
[^] # Re: Nouveautés !
Posté par lasher . En réponse au journal OpenBSD 4.0 is out !. Évalué à 7.
"refactoring" et "refactoriser" ou "factorisation" sont tellement antinomiques ? "driver" et "pilote" idem ? "monitorable" et "surveillable" ?
Le seul mot où je suis presque d'accord, c'est "framework" - et encore, "environnement de travail" ne me semble pas hors propos.
[^] # Re: Seth Nickell avait raison !
Posté par lasher . En réponse à la dépêche Novell et Microsoft main dans la main !. Évalué à 2.
On ne ment pas par ignorance. Que vous ayez des échanges animés, soit (surtout que vous êtes loin d'être inintéressants à lire), mais lorsqu'on traite quelqu'un de menteur, c'est plus aggressif et violent je trouve que de le traiter d'abruti (qui peut se comprendre comme étant une perte momentanée de sang froid - même à l'écrit).
Tu peux éventuellement parler de mauvaise foi, mais le mensonge, c'est "sérieux".
[^] # Re: une immondice infame
Posté par lasher . En réponse au sondage XML est. Évalué à 2.
Et sur ces bonnes paroles, où tu ne fais qu'être aggressif, et parler pour ne rien dire, je te laisse le dernier mot.
[^] # Re: Mouais, je vais me faire l'avocat du diable mais...
Posté par lasher . En réponse au journal Xavier Niel (Free) répond à la FSF et attaque la GPLv3. Évalué à 6.
Et de façon générale, ça fait un bout de temps que cette histoire traîne, justement. Donc si la FSF n'est pas contente, il « suffit » qu'elle commence le procès : depuis que la Freebox existe ou presque, j'entends parler de cette histoire de GPL gna gna gna (mon avis perso importe peu ici, donc je ne le donne pas). Puisque visiblement ça traîne, et qu'aucune des deux parties ne semble vouloir bouger, il semble justifié de demander un arbitrage. Ou alors on se tait, parce que ça commence à bien faire.
[^] # Re: Un miroir FR
Posté par lasher . En réponse au journal OpenBSD 4.0 is out !. Évalué à 2.
[^] # Re: Un miroir FR
Posté par lasher . En réponse au journal OpenBSD 4.0 is out !. Évalué à 3.
[^] # Re: une immondice infame
Posté par lasher . En réponse au sondage XML est. Évalué à 2.
« Le pifomètre ne s'est pas trompé cette fois-ci, mais malheureusement les tables de hachage, les listes et Lisp ont existé bien avant XML. »
Le rapport avec XML ? Ce sont des structures de données dont tu parles, moi je parle d'un format de stockage, semi-structuré - et donc par définition hiérarchique, auquel la structuration en arbre pour symboliser ladite hiérarchie [des types entre autres] convient bien.
« [...] on a besoin d'au moins 5 languages pour faire des simples pages web (sql, java/python/php/langage métier, html/xml, css, javascript), »
Voyons un peu. HTML/XML sont là pour le contenu, CSS/XSL pour le rendu (et n'oublions pas que XSLT et XQuery vont quand même plus loin que ça, et permettent de générer tout un tas d'autres sorties), JavaScript pour le côté dynamique côté client, et SQL pour les bases de données.
Je ne dis pas que c'est génial, mais j'aimerais que tu m'expliques comment tu comptes simplifier le tout. Le langage généraliste qui fait tout est à exclure, car alors ce serait une usine à gaz monstrueuse (il n'y a qu'à voir les JSP au début - et même maintenant c'est pas joli à voir, malgré les simplifications et le rajout des tags). Il se trouve qu'une base de donnée n'est pas uniquement utilisée par des applications orientées Web, il leur faut donc un langage standardisé pour pouvoir être utilisées (tiens, ce serait assez drôle d'ailleurs de faire remarquer que chaque SGBD/R n'implémente pas tout des normes SQL...).
D'ailleurs, des solutions comme Hibernate pour Java sont plutôt intéressantes, car justement on peut éviter un maximum le côté SQL des SGBD et passer par la correspondance Relationnel/Modèle Objet.
Donc pour faire bref :
1/ À moins de faire une base de données spécialisée Web, les langages de type SQL/XQuery vont rester un bout de temps (et même en ayant une on duplique inutilement les efforts, du coup)
2/ Le langage spécialisé est obligatoire pour faire l'interfaçage front-end/back-end (ou alors tu réussis je ne sais comment à tout faire passer en XML/HTML/XSLT, beurk)
3/ Il te faut bien un moyen de décrire le contenu et le mettre en forme (HTML,XML/CSS,XSL)
4/ Le seul truc éventuellement serait de réussir à fusionner HTML et JS, car effectivement, au final, tout se fait côté client (d'un autre côté, on peut utiliser Javascript à part, et mélanger la description des données avec leur traitement dynamique, bof...)
L'incapacité à faire rapide/peu gourmand/etc vient du fait que le développement spécifique à une plate-forme coûte cher en temps et en expertise, d'autant plus qu'on parle d'outils de haut niveau, extrêmement complexes. Le problème c'est qu'une bonne conception nécessite de bien séparer les modules, et du coup on perd au moins le temps de communiquer entre ceux-ci.
Je te rejoins sur le côté debogage : on est encore à la préhistoire de ce qui pourrait s'envisager, quelle que soit la plate-forme envisagée (et pas seulement pour du Web, même si c'est là que ça pêche le plus).
[^] # Re: FSB
Posté par lasher . En réponse au journal Distributions Linux, vers un éclatement des formats de paquetages ?. Évalué à 3.
[^] # Re: une immondice infame
Posté par lasher . En réponse au sondage XML est. Évalué à 2.
« Et qu'est-ce que tu as utilisé d'autre que xml pour pouvoir comparer ? »
Java. :-) Plus sérieusement, j'ai utilisé ce que proposaient des langages compilés pour faire tout ce dont il est question, et XML, point. Je l'ai dit dès le départ, je ne connaissais pas YAML et JSON avant qu'on n'en parle ici. Je ne dis pas que XML est la panacée (en fait, je dis exactement le contraire dans le message auquel tu réponds), juste qu'effectivement pour l'échange de données, ainsi que la sérialisation, XML se prêtait bien à la chose (ah oui, et le stockage BDD aussi).
« Je ne savais pas que JavaScript avait besoin d'une machine virtuelle ? »
Mauvais terme de ma part. Un interpréteur.
« Si justement, ça change énormémént. Les balises énormément de bruit et alourdissent les transferts de données. »
Les balises sont redondantes, donc si compression il y a, et donc je ne vois pas en quoi ça alourdirait le transfert de données.
« La meilleure façon de compresser des données, c'est avant tout de ne pas y ajouter du bruit. Ensuite cela alourdit le déboggage des données elles-même. »
De toute manière, dès que tu as un format de données flexible et générique, tu es obligé de gagner en verbosité, XML ou pas XML. Les softs que je vois traiter de gros volumes XML utilisent leur propre représentation interne des arbres XML, et donc tout se fait en binaire. Le côté « chiant » d'XML c'est le parsing, je suis d'accord - ce qui se traduit aussi par les problèmes de transfert que tu évoques. Mais honnêtement, aussi fastidieux cela soit-il, le fait d'avoir le côté ouvrant/fermant permet justement d'être systématique dans le traitement de l'information (et de faire la validation, etc).
« C'est pas parce que c'est utilisé par tout le monde ou standardisé de fait/historiquement que c'est ce qu'il y a de meilleur. Les produits microsoft dominent le marché, je te laisse conclure. »
Je ne peux pas accepter cet exemple, car MS est tout seul à imposer sa vision, alors que pour XML, tu as un collège d'industriels et de chercheurs. Alors oui, ça veut aussi dire qu'on n'obtient pas une forme optimale (chaque participant veut insérer à tout prix SA fonctionnalité de la mort, et pour des raisons « politiques » on laisse faire - ou pas). Mais ça veut aussi dire que pas mal de paramètres sont pris en compte et que l'évolution ne se fait pas à la va-vite.
Pour le côté « standardisé de fait » : c'est justement parce qu'aucun standard n'avait su s'imposer qu'il était temps de faire quelque chose. Le C est un standard de fait dans l'industrie. Java aussi. Pourtant, le C se prête de moins en moins à la programmation généraliste je trouve (l'utilisation de langages de plus haut niveau permet de faire moins d'erreurs de programmation, avec un temps de développement plus réduit), et le Java à toutes les sauces est une aberration informatique.
De façon générale, je ne sais pas depuis quand YAML et JSON existent, mais au pifomètre je dirais « ils sont plus jeunes que XML ». Et quand une structure adopte un changement déjà assez radical en lui-même, tu ne peux pas t'attendre à ce qu'elle change du jour au lendemain (un peu comme la boite qui est pleine de développeurs C et qui ne va pas se mettre au CAML du jour au lendemain). Il faut aussi gérer l'inertie, et crier « XML SAPU » tout en oubliant que, comme tout format, d'autres lui succèdent en tirant partie de ses erreurs (alors que, comme quelqu'un l'a fait judicieusement remarquer, XML a aussi un lourd passif avec SGML), c'est un peu facile.
[^] # Re: une immondice infame
Posté par lasher . En réponse au sondage XML est. Évalué à 3.
« YAML is optimized for data serialization, configuration settings, log files, Internet messaging and filtering. »
Je me suis mal exprimé (j'ai tapé trop vite).
Tu me demandais : « Donc tu n'utilises pas xml ni pour la sérialisation des données, ni pour les fichiers de configuration, ni pour les fichiers log, ni pour les transferts de données. Tu l'utilises pourquoi déjà ? »
Je ne l'utilise pas pour faire des fichiers de configuration. La sérialisation, oui ; les fichiers de logs je n'ai jamais eu à en faire en XML, et les transferts de données, évidemment.
« C'est quoi cette "machine virtuelle JavaScript" ? »
Je ne savais pas que JavaScript était compilé est s'exécutait sans aide.
J'expliquais ensuite que « human readable » != « humans will like to read it » (en gros). Tu répondais :
« On est donc bien d'accord, XML n'est pas lisible ni pratique d'utilisation. »
Je passe outre le ton ironique. Le XML est effectivement fait pour être techniquement lisible par l'oeil humain.
J'aimerais que tu m'expliques comment tu fais pour avoir des données lisibles par un humain (autrement que du côté technique que j'ai évoqué précédemment) dans un format texte, lorsque tes données sont décrites de façon extrêmement complexe. Au final, si tu as 1To de données, XML ou YAML ou ... je ne vois pas trop ce que ça change dès que le volume généré est important.
Quel que soit le type de données semi-structurées que tu emploies (latex, XML, YAML, etc), tu te retrouves avec une hiérarchie (donc au minimum des arbres - bien que dans le cas du XML tu puisses faire des graphes si tu as besoin de cas tordus),
XML = arbre typé ordonné. C'est tout. Il se trouve que la syntaxe choisie pour XML (balises ouvrantes/fermantes, etc), l'a été pour permettre une bonne automatisation des traitements. Certains trouvent que justement ça l'empêche. Personnellement je ne vois pas en quoi, mais je peux concevoir que ça gêne. Mais on oublie souvent qu'avant XML, des dizaines de formats semi-structurés existaient, mais qu'aucun n'était utilisé partout. XML, c'est le résultat d'une standardisation, avec de gros acteurs industriels qui ont enfin daigné s'asseoir à la même table. Donc non, c'est pas parfait, mais au moins, c'est un format sur lequel des gens bossent (autant les chercheurs que les industriels pur sucre).
[^] # Re: une immondice infame
Posté par lasher . En réponse au sondage XML est. Évalué à 2.
Non. D'après le site :
« YAML is optimized for data serialization, configuration settings, log files, Internet messaging and filtering. »
Exactement le genre de choses où je n'utiliserais pas XML (utiliser XML pour faire des fichiers ce configuration est quelque chose de totalement débile la plupart du temps, sauf pour certains logiciels-usines à gaz, et encore).
Pour JSON, on faisait remarquer plus haut que des problèmes de performances pouvaient survenir. Quid de la machine virtuelle JavaScript qui doit tourner ?
« La question sur les DTD montre à quel point le format (il ne s'agit pas d'un language de programmation) est lisible et pratique à utiliser rien que pour le cas d'utilisation le plus basique. »
Je ne vois pas en quoi. Honnêtement, ça ne me dérange absolument pas d'utiliser une DTD tant que la description des données reste simple. Ce que les gens oublient, c'est que XML a été inventé pour être « human readable », mais pas dans une optique « je me farcis tout le texte avec les yeux, tout le temps ». On a tout de suite pensé le format pour qu'il puisse être traité automatiquement par des machines, mais modifiable quand même à la main par des humains, si besoin était.