Savoir s'il est mieux d'utiliser une liste comme structure de données, ou une matrice d'incidence, ou un tas de fibonacci, ou un AVL... Tout ça, ca peut être dans un développement d'application critique une tache d'ingénierie bien plus poussée qu'un simple pissage de code "allez, j'aime bien les listes".
Les cas critiques, le choix des algos, les méthodes de gestions des types et des zones mémoires je fais tout çà bien avant de me mettre devant mon ordinateur pour programmer.
Quand je suis devant mon ordinateur les décisions que je prend sont : 'ici je fais une boucle for ou un while ?' et 'Pour la lisibilité du code je créé un type ou bien je laisse la notation pointeur telle quelle ?'
Parfois (mais je fais tout pour que ce soit le plus rare possible) je me retrouve à devoir faire des casts à la con. Et dans ces cas là je epux me retrouver au beau milieu du code à avoir des réflexions de type ingénérique.
Maintenant il est vrai que le choix d'une structure particulière dans un langage peut ammener des cas critiques et alourdir bêtement le code, voir plomber le logiciel. Il faut par exemple savoir que les comparaison bit à bit en java c'est rarement une bonne idée, qu'un switch case en C# est plus rapide qu'un eleseif pour une raison obscure, qu'Erlang gère mal les conversions implicites de tableaux en vecteurs etc. Mais çà qu'on le veuille ou non, c'est de la technique. C'est lié au moteur, à la plateforme, au langage, à la lib ou au joyeux mélange de tout çà. De même les réglages de machine virtuelles aux petits oignons, et les partionnement d'espaces mémoires pour le cache sont purements du domaine de la technique.
Maintenant soyons bien clair, contrairement à 99% des recruteurs francais je ne considère pas le techos comme un sous ingénieur raté et/ou incapable. Le technicien et l'ingénieur ont des rôles complètement différents vis à vis d'un programme. Longtemps les deux rôles ont étés confondus (parcequ'il était quasiment impossible lors de l'écriture d'un programme de s'abstraire du matériel et du logiciel sous-jacent). Mais on peut aujourd'hui raisonablement séparer les deux rôles. L'ingénieur qui est en charge de l'algorithmique, des choix techniques et des preuves du programme. Et le technicien qui est en charge de determiner la faisabilité du programme d'après les choix techniques de l'ingénieur, d'implémenter les algorithmes et de vérifier la tenue du tout.
Passer du pseudo code, ou de l'algorithme à un vrai code qui compile et qui tourne bien peut etre plus ardu que tu ne sembles le croire...
Je n'ai jamais dit que c'était facile (à moins que l'on considère que si même un technicien peut le faire, alors c'est forcément évident pour toute personne ayant vu un clavier une fois dans sa vie), j'ai dit que celà relevait de la technique et non de l'ingénérie.
Il arrive qu'en codant on trouve une approche radicalement nouvelle pour résoudre/traiter un problème. Mais c'est extrèmement rare, la plupart du temps, résoudre le problème consiste à choisir parmis X solutions archi-connues celle qui va permettre de garder un code lisible, évolutif, maintenable et fiable.
C'est un problème qui n'a rien de simple, qui est même parfois horriblement complexe (lorsque l'on essaye de faire rentrer un algo dans une machine manifestement trop petite par exemple), c'est un problème qui peut être passionnant, mais ca reste un problème technique.
Et pourquoi donc ????? o_O
Programmer est la transformation d'un algorithme préalablement choisi en code. C'est un travail purement technique qui ne requiert pas d'aptitudes d'ingénérie particulières.
On apprend en école d'ingé des choses trés utile pour la programmation
La programmation (ie choix des algorithmes, choix des langages, tests, optimisations, non regression, fiabilisation, maintenance) ets très différent de "programmer" (ie pisser du code proprement)
(théorie des langages, algorithmie, architecture logicielle etc...)
L'ensemble des domaines que tu cites se font sur une feuille de papier avec un stilo à la main, pas devant un éditeur de texte avec colorisation syntaxique. Parfois il y a mélange, mais ca n'est généralement pas bon du tout pour le résultat final.
Tu crois que les developpeurs de chez MS, Mozilla &co, sont tous des p'tits jeunots de 20 ans ? Crois moi, ce n'est pas le cas. Et dans ma boîte non plus.
Une fois de plus l'activité de developpement est loin de l'activité de programmation. Chez MS, Mozilla et autre comme ailleurs il y a d'un coté les gens qui font des choix, qui testent des stratégies et qui les déploient, et ceux qui ne font qu'implémenter. les deux taches sont très rarement confondues (a part en cas de debugage fonctionnel ou d'incohérence dans les protocoles choisis). Si il existe des bois d'outsourcing capable de recevoir en entrée un diagramme UML et de filer un programme en sortie ca n'est pas pour rien.
Même chez un ingénieur expert en théorie du langage qui développe sont propre système (et qui donc ne peut pas vraiment refiler le bébé à un techos), la phase "frappe de touches sur le clavier" est tout à fait minime par rapport aux phases documentation/ analyse/ test/ inégration qui elles relèvent de l'ingénérie.
L'effet pervers de distribuer des pilotes sous BSD, c'est que les sociètés peuvent attendre qu'un bon samaritain les développent pour les distribuer ensuite à leur propre profit.
Ca n'est absolument pas du tout un effet pervers. C'est même d'une certaine façon l'effet recherché.
Avec la GPL on s'assure que le code source sera toujours disponible, ce qui permet de vérifier ou de faire auditer la qualité des produits que l'on utilise. Celà présente ennormément d'avantages mais a de gros défauts. L'un des défauts majeurs étant que certains acteurs du propriétaires vont jouer au monsieur plus, en reprenant une partie des specs d'une application GPL à succès et en ajoutant par dessus leurs propres protocoles. Celà peut venir d'une décision marketing (pour lier le client à une techno) ou d'une méthode de programmation divergente (comme tout le code doit être réécris pour faire du proprio, les developpeurs vont peut-être coder différamment mais de façon qu'ils jugent plus élégante.)
A l'inverse avec la BSD un dévellopeur de matériel/logiciel propriétaire a toujours tout intéret à reprendre le code tel quel. Il s'affranchit ainsi de toute une phase de tests souvent couteuse et s'assure une compatibilité maximale avec l'existant sans avoir à dévoiler ses propres secrets de fabriquation. Au final les porduits et logiciels basés sur du code *BSD collent souvent à la norme de façon exemplaire. De même lorsqu'une nouvelle norme apparait (comme OpenSSH, Packet Filter ou CARP) elle est très rapidement implémentée même par le matériel propriétaire puisqu'elle "ne coute rien" à mettre en place.
Donc même les méchants qui attendent des pilotes BSD qui améliorent leur produit pour pouvoir les vendre mieux et plus cher fotn quand même le jeu de la licence BSD, puisque ce faisant ils se mettent également à respecter les normes.
Il s'agit des divers modules d'intégration au domaine et d'utilisation de l'active directory. Bref pouvoir enregistrer proprement une station non windows dans un domaine windows sans avoir à bidouiller pour monter tel ou tel partage.
Pour résumer on peut dire que c'ets unpeu la documentation dont le projet Samba a toujours révé.
A ma connaissance les autres serveurs microsoft (Exchnage et SQL Server etc.) ne sont pas touchés par cet arrêt.
Il n'est peut-être pas nécessaire d'avoir toutes les fonctionnalités de la carte, mais au moins les fonctionnalités OpenGL les plus basiques pour afficher un joli petit tuxcracer.
Pour faire court : si.
Aussi absurde que celà paraisse, il est impossible de faire sur une carte graphique moderne les choses simples sans faire appel aux fonctions compliquées. Bien sur c'est le pilote qui s'en charge et celà reste totalement transparent pour le developpeur, mais une banale application de texture sur un polygone en rendu "plat" sera décomposé en moult appel à des vertex et pixel shaders sur une X800 ou une 6800.
La raison en est très simple : Sachant que
a) qui peut le plus peut le moins et
b) moins on a de transistors dans une puce plus elle est rentable
on arrive à la conclusion simple, : il faut recylcer les transistors des fonctions évoluées pour traiter les fonctions simples.
Dans 99,9% des cas c'est le pilote qui se charge du découpage. Donc pour faire un bête rendu à plat d'une texture sur un polygone de façon un peu optimisée, il faut les specs complète des shaders.
Dans le même ordre d'idée, de nos jours l'ensemble du T&L (transform and lighting) est assuré entièrement par des wrappers vers les shaders.
Bien sur il existe sur les fonctions vraiment basiques des cablages fait en hardware qui permettent au pilote de ne pas faire TOUT le boulot de décomposition. Mais déjà elle s'appliquent rarement à tous les cas de figures et ensuite ce sont des fonctions très basiques (une fois de plus le nombre de transitors joue).
Donc pour faire un pilote digne de ce nom pour jouer, il faut une bonne partie des specs des shaders.
Si on parle de Sugar CRM, on peut parfaitement l'installer sur n'importe quel serveur : http://www.sugarcrm.com/crm/download/sugar-suite.html
La version OpenSource est sous une licence quasi-identique à la Mozilla Public Licence.
La dernière version stable (3.51) est pas mal du tout.
Honnêtement en l'état actuel des choses, et vu la difficulté qu'il y a à configurer proprement et de façon standard autant un annuaire LDAP qu'un serveur Imap 4/5 je en peux que recommander de passer par un protail web, type appli CRM.
C'est souvent facile à configurer pour enlever les fonctions superflues. De plus si plusieurs utilisateurs possèdent des palms /WinCE et autres PDA c'est nettement plus simple de synchroniser un SynCE avec juste le serveur, qu'avec 250 postes.
En ce moment je recommanderais Sugar CRM qui est très bien. Si il est trop complet il n'est pas difficile d'enlever des fonctions.
Autre avantage du web sur les clients lourds : quand ca marche ca marche chez tout le monde de la même façon.
- Certains voudraient que les majors baissent le prix des CD ....
Pour casser cet arguementaire, je vais prendre un exempel tout bête : les DVD. Ils sont souvent moins cher que les CD et pourtant les CD sont le plus souvent en Stéréo seulement (contre au moins deux modes audio pour les DVD), n'ont pas besoin d'être traduit, sont plus faciles à produire et à fabriquer etc. Le prix des CD vendus par les majors est une vaste blague organisée en coeur par les gros. Comment les petis labels, ou les indépendant réussissent-ils à faire un SACD compatible CD + DVD + Gros carnet bien épais pour 20¤, là ou les majors peinent à sortir le dernier madonna (non collector) en dessous de 25 ? Qu'on le veuille ou non il y a un vrai problèem sur le prix des CD.
- Certains se disent "les Logiciels Libres sont gratuits, donc la Musique Libre devrait l'être aussi"
Outre le fait que l'on a ici à faire à un des plus beau trolls (libre=gratuit) connu du monde libre, on a une argumentation très hasardeuse.
Tout d'abord il est bon de rappeler que très peu d'artistes gagnent de l'argent grace à la vente de leurs CD. Pour un groupe normal (comprendre connu mais sans plus) les CD lui coutent de l'argent (particulièrement vrai si il est chez une major). Un groupe fait de l'argent majoritairement gràce aux concerts, passage à la télé et passage à la radio (encore que généralement, les artistes doivent payer pour passer à la radio au moins au début ) et utilisation de leur bande son dans un film/une émission/un reportage. En ce sesn la licence créative common est très bien trouvé. Si l'oeuvre reste dans un cadre ouvert : pas besoin de payer; par contre si on est sur une émission et que la chaine veut passer des pubs, on sort du cadre ouvert et il faut payer. Idem concerts etc. Avec la musique en ligne les artistes sont déchargés des frais de distributions et dans uen certaine mesure de publicité. Moralité l'hypothèse du gratuit est loin d'être aussi absurde que tu le laisses entendre.
Pour finir avec l'aspect collaboratif je te conseilel de jeter un oeuil à la scène des modules (petits morceaux de musiques électroniques) telle qu'elle existait dans les pays scandinaves il y a 10-15 ans. Tu vas être très surpris.
mais VU n'a pas peur que les artistes en herbe étouffent leur production : ils ont peur que les acheteurs "volent" leur production
MWAWAHAHAHA... Ils ont qu'une trouilel c'ets que les modes de distribution qu'ils ont mis des années à bliner rééclatent et qu'ils faillent relutter dans une atmosphère de vrai concurrence. Pourquoi crois-tu qu'il se battent aussi farouchement comem des modes de distributions et des types d'accès internet si celà ne leur fait pas peur ?
Faut-il craindre une interdiction des logiciels sans DRM ?...
Tu raisonnes comme si on allait rester bloqué sur le présent, le but de certainens grosses boites semble d'être de créer un futur dans lequel il est mécaniquement impossible d'executer un programme non certifié par un organisme de confiance ou de lire un média non approuvée par la commission VU/Sony/BMG . Le matériel en préparation laisse de moins en moins de place à des copies de bonne qualité. On s'orriente vers des support audio et video ainsi qe des systèmes de restitutions blindés dans tous les sens. Si il n'y a pas liberté d'échanger des informatiosn et des programmes il faut s'attendre à devori payer une taxe sur uen technologie pour pouvoir distribuer et executer les programmes libres. Laquelle technologie pourra bien entendu être fermée (voir non licensiable)
Pendant au moins 10 ans, les CD seront lisibles par les chaines hi-fi actuelles ; donc il y aura une piste "non-cryptée" et ils seront piratables. Personne ne pourra rien contre cela.
Si la nouvelle loi passe, il faut craindre que la prodcution de platines CD classiques s'arrêtte. La VHS n'a pas mis 10 ans à mourrir. UIn chiffre réaliste en cas d'interdiction légale serait plutôt de 5 ans.
Vu le manque d'interopérabilité des systèmes, pendant 3 ou 4 ans encore, on pourra ripper des CD sur des lecteurs mp3 ; sinon, la pression du public sera telle que les lois changeront...
Détrompe-toin c'est bien là que le bas blesse. Si tout se passe comme prévu, les formats tel que le MP3 et le OGG (qui n'incluent pas en l'état de protections DRM) seront inutilisables. Il ne sera pas possible de transférer un bête MP3 vers une machine "récente". Quand au grand public il est en AAC sous Ipod et le problème lui passe complètement au dessus. Les gens ont accpetés que leur IPOD soit éffacé quand isl resynchronisent après un crash disque ou un changement d'ordi.
- La loi DADVSI réprimande les logiciels qui contournent une protection "non triviale". Est-ce qu'une protection qui est contournée depuis des années est "non-triviale" ? Non, évidemment, une telle protection est triviale. Mais la loi pourrait protéger les protections à venir...
Le fait d'appuyer sur la touche shift ou de désactiver l'autorun des CD sous windows est considéré comem un contournement. Ca répond à ta question je pense.
N'est-ce pas un peu à la limite de la contradiction ?
Je suis contre l'illégalité et toute ma musique est légale. Mais je veux pouvoir l'encoder en OGG (le SEUL format compressé écoutable seulon mes oreilles). De toute façon le fait que 80% des conducteurs aient commis des excès de vitesse ne remet pas en cause la notion même de voiture et de route. Le P2P permet de faire un certains nombre de choses, dont distribuer des gros fichiers en payant uen fraction de la bande passante normale.
Les deux derniers points arrivent comme des cheveux sur la soupe. Aucun rapport avec le problème qui nous concerne (qui est non pas uen défense des droits, mais une main mise sur l'ensemble des modes de concurrence et de distribution par un groupe qui a peur de les perdre). Le problème de la rémunération est un faux problème, les grosses majors vont très très bien. Il s'agit d'un problème de vérrouillage.
Dans le cas du XFS qui est extrèmement versatile et très difficile à régler, il n'est pas rare que ce soit de la faute du fs (ou plutôt de son mainteneur).
Il y a 142 Gazillions d'options à la config d'XFS aussi bien au moment de la création de la partition, qu'à l'utilisation. Personellement je n'utilise XFS que pour la capture temsp réel de grosses masses de données (genre frame grabing de tout à réseau à 10Gb/s). Mais je sais que mes options rendent le disque formaté en XFS particulièrement sensible aux interruptions de courant.
C'est clair qu'un écran ou un moniteur c'est plus complexe, mais un haut-parleur, c'est toujours un electro-aimant qui fait vibrer une membrane, non ?
Dans ce cas, en « copiant » le courant juste à l'aimant, on doit avoir moins de perte que de récupérer l'onde sonore.
Et il doit être difficile de DRMisé un aimant ou d'empêcher le bricolage de la connexion.
On peut parfaitement créer des haut-parleurs spéciaux et les protéger contre toute intrusion. C'est pas horriblement complexe.
Ca peut être fait en les plongeant dans un bain isolant (type plastique/jaja/résine) ou en utilisant un peu d'electronique pour vérifier que le boitier n'est pas ouvert, que toutes les impédances correspondent aux valeurs admises et que le cable est bien branché sur un matériel de confiance.
Sur les prises HDI pour téléviseur et moniteurs dans lequel le signal digital sortant est un bête signal sérialisé/streamé il y a déjà ce genre de protections.
Ca resiste pas à une attaque analogique ...
Tant qu'il n'existera pas de DRM neurale, ce sera contournable ...
Si ta carte son et ta carte graphique désactivent toutes les sorties qui ne sont pas connectées à des appareils certifiés DRM quand ils lisent du DRM ca résiste pas mal.
Bien sur il reste toujours la solution de filmer ton écran avec une caméra et d'enregistrer ton son avec un micro. Mais on est plus vraiment dans une qualité comparable à celle du support dans ces cas là.
La plus part du temps, ils nous sortent des trucs a base d'algo de crypto, mais ca revient toujours au meme. En gros ils chiffrent les fichiers, le client recupere la clef, l'algo et le fichier chiffre et il obtient le fichier dechiffrer pour l'couter.
Jusqu"au jour ou on aura une puce qui fera le déchiffrement d'après un code connu d'elle seule (clef publique à l'intérieur de la clef, clef privée transmise via une "identitée" au fournisseur de contenu), que la carte mère sera capable de savoir si la carte graphique, et l'écran sont connectés à l'ordinateur de façon fiable et ininterceptable (carte vidéo et écran protégée contre le tampering (modification physiques) et zone mémoire de la carte coupée de tous les autres processus - même les processus kernel classiques (rangez vos debugger/sniffer ca sert à rien)). Et même chose pour la carte son.
Là on arrive au moment ou ca devient beaucoup plus drole; pour ceux qui pensent qu'il y en a encor epour un moment, LaGrande est déjà techniquement prèt et il fait tout çà (la carte son est encore libre, mais au niveau vidéo c'est déjà bridé).
Domage, car les maths ne servent pratiquement à rien dans 99% des métiers,
Les maths servent à prouver que tu es ni con, ni fénéant et que tu peux te plier à une certaine discipline. L'air de rien ca suffit à renvoyer dans les cordes 99% des préjugés qui existent sur la banlieue.
contrairement au français.
Un niveau minimal est exigé dans les deux matiéres. Savoir compter jusqu'à dix est aussi important que de comprendre ce que ton patron/client attend de toi et de pouvoir lui expliquer ce que tu as fait. Malheureusement même si tous les jeunes des banlieues savent largement compter jusqu'à dix, ils sont totalement incapables de comprendre et de s'exprimer.
Comprenont nous bien, ce n'est pas qu'ils ne soient pas capables d'apprendre, c'est juste que même dans les ouvrages de la bibliothèque rose il ne comprennent que deux mots sur trois.
De plus sans la langue, on ne peut pas raisonner ou penser.
La réciproque est tout aussi vraie, si tu n'as rien sur quoi penser ou raisonner, si il n'y a rien dans ta vie capable de titiller ton imagination ou ta curiosité, tu ne peux pas vouloir l'exprimer. En d'autres termes, sans stimulation on ne peut pas apprendre la langue.
A l'école ou leur dit qu'ils sont nuls et en effet, l'éducations, les programmes scolaires, la structure de l'école est conçue pour une élite bourgeoise et n'est absolument pas adaptée à eux.
Ca n'est pas, en tout cas plus vrai. Il y a eu des efforts très grands pour adapter les programmes au cours des vingt dernière années. Les jeunes des banlieues ont un niveau d'éducation qui sans être transcendant est tout à fait acceptable et pourrait parfaitement servir de tremplin pour remonter les cités vers le haut. Bien que le niveau en francais soit souvent déplorable, le niveau en math est souvent à peine inférieur à celui que l'on trouve dans les campagnes (ie dans les endroits ou la famille n'a ni le niveau ni les moyens financiers pour offrir un réel soutien scolaire à leurs enfants).
Au niveau éducation ce qui pêche réellement est la monotonie de la vie dans les banlieues. Le nombre d'activité étant extrèmement réduite, les différents "groupes" des cités vivant souvent en microcosme, il leur suffit de 300 à 500 mots pour décrire l'ensemble de leur vie, certains pouvent éventuellement être en argot local ou dans la langue de leur pays d'origine (au sens large, le pays d'origine remontant souvent à 3 ou 4 générations). Au final on se retrouve avec des gens qui ont de l'ordre de 250 mots en francais "noble" pour s'exprimer.
Et bien outre les difficultés évidentes que celà pose en francais (la matière scolaire), essayez de décrocher un stage, un travail, ou même simplement une formation valorisante avec 250 mots. Cette barrière de la langue est extrèmement handicapante quelque soit le niveau dans les autres matières. De plus cette barrière n'a aucune raison de tomber puisque
a) Contrairement à un véritable immigré qui débarquerait dans un pays dont il ne connait pas la langue, ils n'ont pas besoin de plus que ces 250 mots "nobles" pour exprimer tout ce qu'ils ont envie d'exprimer. Perdu dans leur microcosme ou les activités se comptent sur les doigts de la main, ils ne peuvent pas utiliser de nouveaux mots (et de toute façon ils ne seraient probablement pas compris si ils le faisaient).
b) La barrière de la langue fait que même les premiers de classes (ie les mecs et les filles qui en ont bavés pendant des années pour faire un cursus honorable et décrocher leur bac avec un niveau correct) ne vont jamais plus loin, renforcenat ainsi l'idée pour tous les autres que celà ne sert à rien de travailler (à l'école ou après) pour s'en sortir. Ce qui est pire est que la France étant un pays de diplome et non pays de mérite, ils ont parfaitement raison....
Il a rien fait pour solutionner le problème
C'ets le moins que l'on puisse dire, en 14 ans de socialisme, la cité des tartarets à Courcouronnes (une des citées les plus dangereuse de France) n'a pas vu un seul poilicier. Miantenant quand ils se déplacent là bas c'est à 6 en fourgon blindé avec les fusils à pompes et les tenues anti-émeutes. Ca facilite grandement les relations marechaussée - citadins....
A la Lloyds ils offrent des polices d'assurances pour tout. Vous pouvez assurer la présence de soleil pendant votre mariage par exemple, ou bien encore vous pouvez assurez vos vacances contre une marée noire ou encore un rappatriement pour cause d'instabilité dans le pays visité.
Sur le LL ils ne prennent pas de gros risques, dans 99,9% des cas quand une irrégularité est constatée (avec la GPL par exemple) la seule chose que demandent l'OSF ou les auteurs c'est d'ouvrir le code source et éventuellement de payer les frais de justice. Bref pour eux le risque pris est pas ennorme. Je n'ai pas connaissance de procès ou le contrevenant à la GPL ait eu à payer une ammende (et encore moins une ammende de 10 000 000$)
Maintenant si il y a des pigeons pour payer l'assurance ....
Ok, mais qu'entend tu par "non patchee" ? Si tu es sur que c'est une faille que l'on devrait corriger et qui ne l'a pas ete, je serai ravi d'avoir une capture reseau de la chose.
Si tu es VRAIMENT interressé ca peut se faire. Je lance le frame graber et je laisse tourner un jour ou deux. Mais je dois reconnaitre que la perspective de palucher toute la capture pour retrouver la série de paquets que j'ai logué dans mon firewall ne m'enchante guère. Maintenant si c'est pour la bonne cause, je peux faire (envois moi un email ou un message linuxfr)
Il est largement suffisant pour te proteger pendant que tu patches Ah bon ? Il est la par defaut, si tu as XP installe, le firewall il est la.
Si on parle bien de la même chose (ie de la cause à cocher pour activer la protection d'interfaces dans XP SP1), laisse moi tout d'abord te dire que je trouve le terme "firewall" un poil exagéré. Ensuite lors de mon record (3'30'') mon XP avait cette case cochée (mais bon je me suis fait infecter par une attaque NetBios... Que fout le réseau Free à authoriser le routage du netbios ? Mystère)
Ceci étant, et avec totu le respect que je te dois, jepense que je ferais tout de même mes installs windows autant professionelles que pour les particuliers en conservant mon couple firewall à jour/AV à jour avant le branchement au réseau...
J'aimerais bien savoir quelle est cette attaque non patchee, des details ?
Souvent des floods/overflow sur IIS ou Exchange (integer overflow DDos) Mais aussi des attaques par générations de paquets fragmentés (le plus courant).
Il y a un firewall sur XP, il serait de bon ton de le demarrer avant d'aller te promener avec une machine qui n'est pas a jour niveau patch
a) Le truc qui sert de parefeu à Windows XP me fait bien rire, je lui accorde une confiance très réduite (surtout qu'il est pas forcément au top quand il s'agit d'empécher des infos de sortir de ma machine).
b) Pour avoir le firewall XP il faut quand même un CDRom (ou une bonne blague de partition de restore) relativement à jour. Il existe des gens (et ils sont nombreux) qui n'on pas acheter leur ordinateur il y a moins de 8 mois et qui de fait peuvent ne pas avoir le firewall dans leur installation par défaut.
c) J'aime pas du tout windows XP. Autant j'apprécie à leur juste valeur 2003 serveur et Windows 2000 professionnal, autant XP ne m'apporte rien et même me coute a cause du temps que je passe à désactiver l'ensemble des des blings-blings dont je me fout royalement.
Quand a l'anti-virus, je n'en vois toujours pas l'utilite, si il n'y a pas da faille, le virus ne passe pas. Pour qq'un qui sait ce qu'il fait, l'AV n'est pas necessaire.
Quand le seul programme qui permet de mettre à jour ton système a la facheuse habitude de charger en mémoire et d'executer les images malformées qu'il ramasse au hasard d'internet, on est jamais trop prudent. Et puis c'est pas forcément exclusivement moi qui me sert de toute mes machines en permanence. Des fois je sécurise une machine pour des amis, ou je créé un compte pour un pote sur ma machine.
J'ai Windows, je sais m'en servir (Vu qu'on me paye assez cher dans des très grosses boites pour m'occuper des server windows, je dois pas être très loin de la vérité). J'ai un premier routeur/firewall netgear et encore un OpenBSD après.
Mon OpenBSD trappe une attaque non patché pour windows environ 3 fois par jour. Et une attaque patchée depuis moins de trois mois toutes les 20-25 minutes.
En direct sur l'internet (ie dans la DMZ, sans firewall ni anti-virus) ma machine tient le coup 45 minutes à peu près.
Mon reccord est avec une machine fraichement réisntallée avec le CD Windows XP SP1 qui a tenu 3 minutes 30 avant de se faire infecter (par un hack netbios en plus)
Sur un Windows professional standard je ne vois pas comment on peut éviter une infection éclair à moins d'éteindre 90% des services et de tuer l'explorer. (Et faire super attention à ce qu'ils ne se relance pas).
C'ets peut-être parceque je suis sur le réseau Free à Paris. Mais ici AV+Firewall à jour AVANT de connecter la machien à internet c'ets uen nécessité...
a1) A partir du moment ou le format est documenté, il faut vraiment être américain pour croire que l'on ne peut plsu l'ouvrir; le format XML étant un format texte (ici au moins pour le contenu) on peut difficilement se cacher dérrière un DMCA pour dire qu'il y a eu piratage. Ensuite pour contourner la loi il suffit de faire un plugin ou un convertisseur sous Licence BSD et d'appeler celui-ci depusi le programme concurent.
a2) Au niveau des Styles, Microsoft a le même problème qu'OpenDocument : mélange du fond et de la forme. C'est mal. Ceci étant rien n'empêche de créer des styles ouvert non protégés. Office 2003 permet ceci sans grosses difficultées.
Pour finir avec le point a) je dirais que je ne suis vraiment pas fan du format de Microsoft non plus.
b & c) Microsoft ne perdra pas un marché par bétise, c'est sur. Néamoins ils implémenteront la norme ouverte comem il le souhaiteront. Ils peuvent le faire très mal, ou bien le fair emieux que les logiciels ouverts. Dans un cas comme dans l'autre ca peut être un poison pour les alternatives. Il est important de bien se rendre compte que l'absence d'implémentation de référence est un véritable danger pour une norme de ce type. il ne s'agit pas ici d'envoyer des paquest sur internet ou de décoder une vidéo mais d'écrire du texte. Sans le garde fou qu'offre uen implémentation de référence on retombe exactement dans le cadre de la norme HTML. A savoir que chacun va faire sa sauce dans son coin en interpretant les normes à sa façonet dans ce cas c'est le produit qui offrira le plus de fonctionnalités et de possibilités anexes qui imposera sa norme. Avec tout le respect que je dois à OpenOffice (il n'est pas ennorme, mais je salue l'effort) cette suite est totalement incapable de 'simposer comem leader du marchée. Elle est lourde, nécessite des prérequis imposant, manque de la plupart des fonctionnalités utilisées quotidiennement dans les environnement professionnels. Même si demain le format d'OOo2.0 devenait la référence, OOo ne pourrait malgré tout pas s'imposer.
KOffice est à mon sens un bien meilleur produit qu'OpenOffice (ne serait-ce que poru des raisons de légéreté), mais honnêtement bien qu'afficionado du libr eil y a longtemps que je me suis rabattu sur une suite propriétaire (SoftMaker pour ne pas la citer) .
Lorsqu'un logiciel est pénible à utiliser, il ne perce pas. Le support de l'OpenDocument pourrait donc bien virer à la blague cuisante pour ceux qui l'adoptent prématurément, et qui risquent de se sentir très seuls.
Mais le pire, c'ets que vu la complexité intraseque du format, je ne vois pas uen application "légère" générer ce format de façon fluide sur une machine "modeste". Il y a fort à parier que les éditeurs de logiciels ne se mettent à tricher très vite pour faire du "presque". Une fois de plus on retombe dans le schéma qui a mené à un HTML + CSS comem celui que l'on avait sur nos machines sil y a deux ans.
d) Mais nous avons le même désir toi et moi. Je veux aussi un format ouvert et répandu pour les applications bureautiques. C'est pour çà que quand je vois un format qui commet les erreurs du passé (fond - forme), qui s'appuie sur celui d'une suite office lourde et pas forcément ergonomique (OOo) sans pour autant le copier et qui surtout demande uen puissance de calcul non négligeable pour être manipulé aisément je crie au loup. Rien ne me fait plsu peur que de voir dans deux ans les pays et etats qui auront adoptés ce format faire machine arrière par dépit et, chat échaudé craigant l'eau froide, restent en retrait pendant plusieurs années.
a) MS a déjà un format XML ouvert (au sens BSD et/ou Double licence) certes, mais il existe et il est documenté
b) MS a déjà laissé entendre que la porchaine suite office serait compatible avec Opendoccument. Ce qui serait un joli tour de force compte tenu du fait que personne à l'heure actuelle n'implémente complètement OpenDocument.
c) Ca serait bien Koffice et OOo implémentait complètement OpenDoccument avant MS, histoire qu'on ait une implémentation de référence hors MS pour uen fois
d) J'aime pas OpenDoccument, je ne sais pas si ca vient de ma vindicte systématique envers les gens qui posent une norme dans le vide sans même se donner la peine de faire une implémentationd e référence, et qui hurlent au cirme dès qu'on ose envisager de ne pas suivre leur norme. Ou si ca vient du fait que OpenDoccument est aussi lourd et lent à interpréter que du XHTML+CSS ou de l'OpenBook tout en réussissant le tour de force de n'être compatible ni vaec l'un ni avec l'autre et en n'arrivant même pas à séparer complètement le fond de la forme.
En bref, si le format OpenDoccument pouvait poser les pieds sur terre je searis son plus ardent défenseur. En attendant je ne peux que lui souhaiter une mort rapide et méritée.
Il rattraperas le signal précédent basse frèquence, mais pas le signal précedent de même fréquence si ? Pourquoi ne peut-on pas se contenter de coder des signaux indépendants sur les différentes frèquences ?
Si on ets absolument certain que deux ondes ne vont pas se "croiser" à un mauvais moment, on peut.
La mauvaise nouvelle c'est qu'il est très difficile d'être certains que deux ondes ne se croisent pas.
Supposons qu'un recepteur recoive en même temps ou avec un décalage insuffisant deux ondes normalement distinctes. Il s'agit alors de les déméler.
Avec des ondes lumineuses choisies judicieusement c'est possible, mais avec des ondes electrique, qu'elles soient codées en fréquence ou en intensité c'est totalement imposible, a moins de limiter grandement les plages de fréquences ou d'intensité valides.
C'est pour cette raison que, par exemple, un RJ-45 ne peut dépasser une centaine de mètres (me souvient plus de la distance exacte). Les répéteurs sont donc chargés de recevoir le signal juste tant qu'il est encore compréhensible et de le renvoyer, tout neuf tout beau.
Pas vraiment. Vu la façon dont fonctionne un cable RJ45 il pourrait faire jusq'à 1000m de long sans qu'il y ait d'interférences de ce type (a condition qu'il soit suffisament blindé - pour un signal à 100mhz en ethernet).
Le problème des cables RJ45 est le suivant si on est sur un cable réparti (ie si il y a un hub ou un switch d'un coté ou de l'autre du cable) le répartiteur ne peut plus détecter les colides/priorités.
Donc si le cable est tout seul sur le réseau tout va bien (par exemple un lien de routeur à routeur). Par contre si il y a plus d'une machine susceptible d'emmettre sur ce cable d'un ou de l'autre coté c'est la cata : on peut se retrouver avec deux paquets emmélés l'un dans l'autre sans qu'aucun dispositif ne puisse s'en rendre compte.
D'ou les limitations à 150m en ethernet pur 100mhz et à 100m dans les modes mixes.
[^] # Re: Simple
Posté par Jerome Herman . En réponse au journal une grève ?. Évalué à 0.
Les cas critiques, le choix des algos, les méthodes de gestions des types et des zones mémoires je fais tout çà bien avant de me mettre devant mon ordinateur pour programmer.
Quand je suis devant mon ordinateur les décisions que je prend sont : 'ici je fais une boucle for ou un while ?' et 'Pour la lisibilité du code je créé un type ou bien je laisse la notation pointeur telle quelle ?'
Parfois (mais je fais tout pour que ce soit le plus rare possible) je me retrouve à devoir faire des casts à la con. Et dans ces cas là je epux me retrouver au beau milieu du code à avoir des réflexions de type ingénérique.
Maintenant il est vrai que le choix d'une structure particulière dans un langage peut ammener des cas critiques et alourdir bêtement le code, voir plomber le logiciel. Il faut par exemple savoir que les comparaison bit à bit en java c'est rarement une bonne idée, qu'un switch case en C# est plus rapide qu'un eleseif pour une raison obscure, qu'Erlang gère mal les conversions implicites de tableaux en vecteurs etc. Mais çà qu'on le veuille ou non, c'est de la technique. C'est lié au moteur, à la plateforme, au langage, à la lib ou au joyeux mélange de tout çà. De même les réglages de machine virtuelles aux petits oignons, et les partionnement d'espaces mémoires pour le cache sont purements du domaine de la technique.
Maintenant soyons bien clair, contrairement à 99% des recruteurs francais je ne considère pas le techos comme un sous ingénieur raté et/ou incapable. Le technicien et l'ingénieur ont des rôles complètement différents vis à vis d'un programme. Longtemps les deux rôles ont étés confondus (parcequ'il était quasiment impossible lors de l'écriture d'un programme de s'abstraire du matériel et du logiciel sous-jacent). Mais on peut aujourd'hui raisonablement séparer les deux rôles. L'ingénieur qui est en charge de l'algorithmique, des choix techniques et des preuves du programme. Et le technicien qui est en charge de determiner la faisabilité du programme d'après les choix techniques de l'ingénieur, d'implémenter les algorithmes et de vérifier la tenue du tout.
Passer du pseudo code, ou de l'algorithme à un vrai code qui compile et qui tourne bien peut etre plus ardu que tu ne sembles le croire...
Je n'ai jamais dit que c'était facile (à moins que l'on considère que si même un technicien peut le faire, alors c'est forcément évident pour toute personne ayant vu un clavier une fois dans sa vie), j'ai dit que celà relevait de la technique et non de l'ingénérie.
Il arrive qu'en codant on trouve une approche radicalement nouvelle pour résoudre/traiter un problème. Mais c'est extrèmement rare, la plupart du temps, résoudre le problème consiste à choisir parmis X solutions archi-connues celle qui va permettre de garder un code lisible, évolutif, maintenable et fiable.
C'est un problème qui n'a rien de simple, qui est même parfois horriblement complexe (lorsque l'on essaye de faire rentrer un algo dans une machine manifestement trop petite par exemple), c'est un problème qui peut être passionnant, mais ca reste un problème technique.
[^] # Re: Simple
Posté par Jerome Herman . En réponse au journal une grève ?. Évalué à -4.
Programmer est la transformation d'un algorithme préalablement choisi en code. C'est un travail purement technique qui ne requiert pas d'aptitudes d'ingénérie particulières.
On apprend en école d'ingé des choses trés utile pour la programmation
La programmation (ie choix des algorithmes, choix des langages, tests, optimisations, non regression, fiabilisation, maintenance) ets très différent de "programmer" (ie pisser du code proprement)
(théorie des langages, algorithmie, architecture logicielle etc...)
L'ensemble des domaines que tu cites se font sur une feuille de papier avec un stilo à la main, pas devant un éditeur de texte avec colorisation syntaxique. Parfois il y a mélange, mais ca n'est généralement pas bon du tout pour le résultat final.
Tu crois que les developpeurs de chez MS, Mozilla &co, sont tous des p'tits jeunots de 20 ans ? Crois moi, ce n'est pas le cas. Et dans ma boîte non plus.
Une fois de plus l'activité de developpement est loin de l'activité de programmation. Chez MS, Mozilla et autre comme ailleurs il y a d'un coté les gens qui font des choix, qui testent des stratégies et qui les déploient, et ceux qui ne font qu'implémenter. les deux taches sont très rarement confondues (a part en cas de debugage fonctionnel ou d'incohérence dans les protocoles choisis). Si il existe des bois d'outsourcing capable de recevoir en entrée un diagramme UML et de filer un programme en sortie ca n'est pas pour rien.
Même chez un ingénieur expert en théorie du langage qui développe sont propre système (et qui donc ne peut pas vraiment refiler le bébé à un techos), la phase "frappe de touches sur le clavier" est tout à fait minime par rapport aux phases documentation/ analyse/ test/ inégration qui elles relèvent de l'ingénérie.
[^] # Re: Drivers en License BSD compatible
Posté par Jerome Herman . En réponse au journal Arreter la GPL pour nos drivers libres?. Évalué à 7.
Ca n'est absolument pas du tout un effet pervers. C'est même d'une certaine façon l'effet recherché.
Avec la GPL on s'assure que le code source sera toujours disponible, ce qui permet de vérifier ou de faire auditer la qualité des produits que l'on utilise. Celà présente ennormément d'avantages mais a de gros défauts. L'un des défauts majeurs étant que certains acteurs du propriétaires vont jouer au monsieur plus, en reprenant une partie des specs d'une application GPL à succès et en ajoutant par dessus leurs propres protocoles. Celà peut venir d'une décision marketing (pour lier le client à une techno) ou d'une méthode de programmation divergente (comme tout le code doit être réécris pour faire du proprio, les developpeurs vont peut-être coder différamment mais de façon qu'ils jugent plus élégante.)
A l'inverse avec la BSD un dévellopeur de matériel/logiciel propriétaire a toujours tout intéret à reprendre le code tel quel. Il s'affranchit ainsi de toute une phase de tests souvent couteuse et s'assure une compatibilité maximale avec l'existant sans avoir à dévoiler ses propres secrets de fabriquation. Au final les porduits et logiciels basés sur du code *BSD collent souvent à la norme de façon exemplaire. De même lorsqu'une nouvelle norme apparait (comme OpenSSH, Packet Filter ou CARP) elle est très rapidement implémentée même par le matériel propriétaire puisqu'elle "ne coute rien" à mettre en place.
Donc même les méchants qui attendent des pilotes BSD qui améliorent leur produit pour pouvoir les vendre mieux et plus cher fotn quand même le jeu de la licence BSD, puisque ce faisant ils se mettent également à respecter les normes.
[^] # Re: serveurs ?
Posté par Jerome Herman . En réponse au journal 2 millions d'¤/jour pour MS. Évalué à 2.
Pour résumer on peut dire que c'ets unpeu la documentation dont le projet Samba a toujours révé.
A ma connaissance les autres serveurs microsoft (Exchnage et SQL Server etc.) ne sont pas touchés par cet arrêt.
[^] # Re: Oui, mais....
Posté par Jerome Herman . En réponse à la dépêche Pilotes binaires dans Linux: quel est le problème ?. Évalué à 8.
Pour faire court : si.
Aussi absurde que celà paraisse, il est impossible de faire sur une carte graphique moderne les choses simples sans faire appel aux fonctions compliquées. Bien sur c'est le pilote qui s'en charge et celà reste totalement transparent pour le developpeur, mais une banale application de texture sur un polygone en rendu "plat" sera décomposé en moult appel à des vertex et pixel shaders sur une X800 ou une 6800.
La raison en est très simple : Sachant que
a) qui peut le plus peut le moins et
b) moins on a de transistors dans une puce plus elle est rentable
on arrive à la conclusion simple, : il faut recylcer les transistors des fonctions évoluées pour traiter les fonctions simples.
Dans 99,9% des cas c'est le pilote qui se charge du découpage. Donc pour faire un bête rendu à plat d'une texture sur un polygone de façon un peu optimisée, il faut les specs complète des shaders.
Dans le même ordre d'idée, de nos jours l'ensemble du T&L (transform and lighting) est assuré entièrement par des wrappers vers les shaders.
Bien sur il existe sur les fonctions vraiment basiques des cablages fait en hardware qui permettent au pilote de ne pas faire TOUT le boulot de décomposition. Mais déjà elle s'appliquent rarement à tous les cas de figures et ensuite ce sont des fonctions très basiques (une fois de plus le nombre de transitors joue).
Donc pour faire un pilote digne de ce nom pour jouer, il faut une bonne partie des specs des shaders.
[^] # Re: Partage de contacts
Posté par Jerome Herman . En réponse au journal Partage de contact et de calendrier. Évalué à 1.
http://www.sugarcrm.com/crm/download/sugar-suite.html
La version OpenSource est sous une licence quasi-identique à la Mozilla Public Licence.
La dernière version stable (3.51) est pas mal du tout.
# Une bonne webapps
Posté par Jerome Herman . En réponse au journal Partage de contact et de calendrier. Évalué à 2.
C'est souvent facile à configurer pour enlever les fonctions superflues. De plus si plusieurs utilisateurs possèdent des palms /WinCE et autres PDA c'est nettement plus simple de synchroniser un SynCE avec juste le serveur, qu'avec 250 postes.
En ce moment je recommanderais Sugar CRM qui est très bien. Si il est trop complet il n'est pas difficile d'enlever des fonctions.
Autre avantage du web sur les clients lourds : quand ca marche ca marche chez tout le monde de la même façon.
# Personellement je prononce le "."
Posté par Jerome Herman . En réponse au journal Se préparer pour les .eu. Évalué à 3.
prononciation "eu"
LesOreillesEn.eu
42KmhEn.eu
prononciation "Euhu"
JavaisDitQueTuMauraisPointEtTuNeMas.eu (j'ai presque envie de le déposer celui là)
TurlututuChapeau.eu (tentant aussi)
Mais on tourne toujours un peu autour du même concept.
[^] # Re: Quelques contre-remarques
Posté par Jerome Herman . En réponse à la dépêche Projet de loi DADVSI: EUCD.INFO publie un dossier d'information complet et un appel. Évalué à 9.
Pour casser cet arguementaire, je vais prendre un exempel tout bête : les DVD. Ils sont souvent moins cher que les CD et pourtant les CD sont le plus souvent en Stéréo seulement (contre au moins deux modes audio pour les DVD), n'ont pas besoin d'être traduit, sont plus faciles à produire et à fabriquer etc. Le prix des CD vendus par les majors est une vaste blague organisée en coeur par les gros. Comment les petis labels, ou les indépendant réussissent-ils à faire un SACD compatible CD + DVD + Gros carnet bien épais pour 20¤, là ou les majors peinent à sortir le dernier madonna (non collector) en dessous de 25 ? Qu'on le veuille ou non il y a un vrai problèem sur le prix des CD.
- Certains se disent "les Logiciels Libres sont gratuits, donc la Musique Libre devrait l'être aussi"
Outre le fait que l'on a ici à faire à un des plus beau trolls (libre=gratuit) connu du monde libre, on a une argumentation très hasardeuse.
Tout d'abord il est bon de rappeler que très peu d'artistes gagnent de l'argent grace à la vente de leurs CD. Pour un groupe normal (comprendre connu mais sans plus) les CD lui coutent de l'argent (particulièrement vrai si il est chez une major). Un groupe fait de l'argent majoritairement gràce aux concerts, passage à la télé et passage à la radio (encore que généralement, les artistes doivent payer pour passer à la radio au moins au début ) et utilisation de leur bande son dans un film/une émission/un reportage. En ce sesn la licence créative common est très bien trouvé. Si l'oeuvre reste dans un cadre ouvert : pas besoin de payer; par contre si on est sur une émission et que la chaine veut passer des pubs, on sort du cadre ouvert et il faut payer. Idem concerts etc. Avec la musique en ligne les artistes sont déchargés des frais de distributions et dans uen certaine mesure de publicité. Moralité l'hypothèse du gratuit est loin d'être aussi absurde que tu le laisses entendre.
Pour finir avec l'aspect collaboratif je te conseilel de jeter un oeuil à la scène des modules (petits morceaux de musiques électroniques) telle qu'elle existait dans les pays scandinaves il y a 10-15 ans. Tu vas être très surpris.
mais VU n'a pas peur que les artistes en herbe étouffent leur production : ils ont peur que les acheteurs "volent" leur production
MWAWAHAHAHA... Ils ont qu'une trouilel c'ets que les modes de distribution qu'ils ont mis des années à bliner rééclatent et qu'ils faillent relutter dans une atmosphère de vrai concurrence. Pourquoi crois-tu qu'il se battent aussi farouchement comem des modes de distributions et des types d'accès internet si celà ne leur fait pas peur ?
Faut-il craindre une interdiction des logiciels sans DRM ?...
Tu raisonnes comme si on allait rester bloqué sur le présent, le but de certainens grosses boites semble d'être de créer un futur dans lequel il est mécaniquement impossible d'executer un programme non certifié par un organisme de confiance ou de lire un média non approuvée par la commission VU/Sony/BMG . Le matériel en préparation laisse de moins en moins de place à des copies de bonne qualité. On s'orriente vers des support audio et video ainsi qe des systèmes de restitutions blindés dans tous les sens. Si il n'y a pas liberté d'échanger des informatiosn et des programmes il faut s'attendre à devori payer une taxe sur uen technologie pour pouvoir distribuer et executer les programmes libres. Laquelle technologie pourra bien entendu être fermée (voir non licensiable)
Pendant au moins 10 ans, les CD seront lisibles par les chaines hi-fi actuelles ; donc il y aura une piste "non-cryptée" et ils seront piratables. Personne ne pourra rien contre cela.
Si la nouvelle loi passe, il faut craindre que la prodcution de platines CD classiques s'arrêtte. La VHS n'a pas mis 10 ans à mourrir. UIn chiffre réaliste en cas d'interdiction légale serait plutôt de 5 ans.
Vu le manque d'interopérabilité des systèmes, pendant 3 ou 4 ans encore, on pourra ripper des CD sur des lecteurs mp3 ; sinon, la pression du public sera telle que les lois changeront...
Détrompe-toin c'est bien là que le bas blesse. Si tout se passe comme prévu, les formats tel que le MP3 et le OGG (qui n'incluent pas en l'état de protections DRM) seront inutilisables. Il ne sera pas possible de transférer un bête MP3 vers une machine "récente". Quand au grand public il est en AAC sous Ipod et le problème lui passe complètement au dessus. Les gens ont accpetés que leur IPOD soit éffacé quand isl resynchronisent après un crash disque ou un changement d'ordi.
- La loi DADVSI réprimande les logiciels qui contournent une protection "non triviale". Est-ce qu'une protection qui est contournée depuis des années est "non-triviale" ? Non, évidemment, une telle protection est triviale. Mais la loi pourrait protéger les protections à venir...
Le fait d'appuyer sur la touche shift ou de désactiver l'autorun des CD sous windows est considéré comem un contournement. Ca répond à ta question je pense.
N'est-ce pas un peu à la limite de la contradiction ?
Je suis contre l'illégalité et toute ma musique est légale. Mais je veux pouvoir l'encoder en OGG (le SEUL format compressé écoutable seulon mes oreilles). De toute façon le fait que 80% des conducteurs aient commis des excès de vitesse ne remet pas en cause la notion même de voiture et de route. Le P2P permet de faire un certains nombre de choses, dont distribuer des gros fichiers en payant uen fraction de la bande passante normale.
Les deux derniers points arrivent comme des cheveux sur la soupe. Aucun rapport avec le problème qui nous concerne (qui est non pas uen défense des droits, mais une main mise sur l'ensemble des modes de concurrence et de distribution par un groupe qui a peur de les perdre). Le problème de la rémunération est un faux problème, les grosses majors vont très très bien. Il s'agit d'un problème de vérrouillage.
[^] # Re: FS
Posté par Jerome Herman . En réponse au journal XFS: demain j'arrête.... Évalué à 6.
Il y a 142 Gazillions d'options à la config d'XFS aussi bien au moment de la création de la partition, qu'à l'utilisation. Personellement je n'utilise XFS que pour la capture temsp réel de grosses masses de données (genre frame grabing de tout à réseau à 10Gb/s). Mais je sais que mes options rendent le disque formaté en XFS particulièrement sensible aux interruptions de courant.
[^] # Re: P2P = piratage...
Posté par Jerome Herman . En réponse au journal Le gouvernement veut interdire les logiciels P2P. Évalué à 2.
Dans ce cas, en « copiant » le courant juste à l'aimant, on doit avoir moins de perte que de récupérer l'onde sonore.
Et il doit être difficile de DRMisé un aimant ou d'empêcher le bricolage de la connexion.
On peut parfaitement créer des haut-parleurs spéciaux et les protéger contre toute intrusion. C'est pas horriblement complexe.
Ca peut être fait en les plongeant dans un bain isolant (type plastique/jaja/résine) ou en utilisant un peu d'electronique pour vérifier que le boitier n'est pas ouvert, que toutes les impédances correspondent aux valeurs admises et que le cable est bien branché sur un matériel de confiance.
Sur les prises HDI pour téléviseur et moniteurs dans lequel le signal digital sortant est un bête signal sérialisé/streamé il y a déjà ce genre de protections.
[^] # Re: P2P = piratage...
Posté par Jerome Herman . En réponse au journal Le gouvernement veut interdire les logiciels P2P. Évalué à 2.
Tant qu'il n'existera pas de DRM neurale, ce sera contournable ...
Si ta carte son et ta carte graphique désactivent toutes les sorties qui ne sont pas connectées à des appareils certifiés DRM quand ils lisent du DRM ca résiste pas mal.
Bien sur il reste toujours la solution de filmer ton écran avec une caméra et d'enregistrer ton son avec un micro. Mais on est plus vraiment dans une qualité comparable à celle du support dans ces cas là.
[^] # Re: P2P = piratage...
Posté par Jerome Herman . En réponse au journal Le gouvernement veut interdire les logiciels P2P. Évalué à 5.
Jusqu"au jour ou on aura une puce qui fera le déchiffrement d'après un code connu d'elle seule (clef publique à l'intérieur de la clef, clef privée transmise via une "identitée" au fournisseur de contenu), que la carte mère sera capable de savoir si la carte graphique, et l'écran sont connectés à l'ordinateur de façon fiable et ininterceptable (carte vidéo et écran protégée contre le tampering (modification physiques) et zone mémoire de la carte coupée de tous les autres processus - même les processus kernel classiques (rangez vos debugger/sniffer ca sert à rien)). Et même chose pour la carte son.
Là on arrive au moment ou ca devient beaucoup plus drole; pour ceux qui pensent qu'il y en a encor epour un moment, LaGrande est déjà techniquement prèt et il fait tout çà (la carte son est encore libre, mais au niveau vidéo c'est déjà bridé).
[^] # Re: Dire "qu'il s'en sorte" est un peu facile
Posté par Jerome Herman . En réponse au journal De l'intégration. Évalué à 4.
Les maths servent à prouver que tu es ni con, ni fénéant et que tu peux te plier à une certaine discipline. L'air de rien ca suffit à renvoyer dans les cordes 99% des préjugés qui existent sur la banlieue.
contrairement au français.
Un niveau minimal est exigé dans les deux matiéres. Savoir compter jusqu'à dix est aussi important que de comprendre ce que ton patron/client attend de toi et de pouvoir lui expliquer ce que tu as fait. Malheureusement même si tous les jeunes des banlieues savent largement compter jusqu'à dix, ils sont totalement incapables de comprendre et de s'exprimer.
Comprenont nous bien, ce n'est pas qu'ils ne soient pas capables d'apprendre, c'est juste que même dans les ouvrages de la bibliothèque rose il ne comprennent que deux mots sur trois.
De plus sans la langue, on ne peut pas raisonner ou penser.
La réciproque est tout aussi vraie, si tu n'as rien sur quoi penser ou raisonner, si il n'y a rien dans ta vie capable de titiller ton imagination ou ta curiosité, tu ne peux pas vouloir l'exprimer. En d'autres termes, sans stimulation on ne peut pas apprendre la langue.
[^] # Re: Dire "qu'il s'en sorte" est un peu facile
Posté par Jerome Herman . En réponse au journal De l'intégration. Évalué à 6.
Ca n'est pas, en tout cas plus vrai. Il y a eu des efforts très grands pour adapter les programmes au cours des vingt dernière années. Les jeunes des banlieues ont un niveau d'éducation qui sans être transcendant est tout à fait acceptable et pourrait parfaitement servir de tremplin pour remonter les cités vers le haut. Bien que le niveau en francais soit souvent déplorable, le niveau en math est souvent à peine inférieur à celui que l'on trouve dans les campagnes (ie dans les endroits ou la famille n'a ni le niveau ni les moyens financiers pour offrir un réel soutien scolaire à leurs enfants).
Au niveau éducation ce qui pêche réellement est la monotonie de la vie dans les banlieues. Le nombre d'activité étant extrèmement réduite, les différents "groupes" des cités vivant souvent en microcosme, il leur suffit de 300 à 500 mots pour décrire l'ensemble de leur vie, certains pouvent éventuellement être en argot local ou dans la langue de leur pays d'origine (au sens large, le pays d'origine remontant souvent à 3 ou 4 générations). Au final on se retrouve avec des gens qui ont de l'ordre de 250 mots en francais "noble" pour s'exprimer.
Et bien outre les difficultés évidentes que celà pose en francais (la matière scolaire), essayez de décrocher un stage, un travail, ou même simplement une formation valorisante avec 250 mots. Cette barrière de la langue est extrèmement handicapante quelque soit le niveau dans les autres matières. De plus cette barrière n'a aucune raison de tomber puisque
a) Contrairement à un véritable immigré qui débarquerait dans un pays dont il ne connait pas la langue, ils n'ont pas besoin de plus que ces 250 mots "nobles" pour exprimer tout ce qu'ils ont envie d'exprimer. Perdu dans leur microcosme ou les activités se comptent sur les doigts de la main, ils ne peuvent pas utiliser de nouveaux mots (et de toute façon ils ne seraient probablement pas compris si ils le faisaient).
b) La barrière de la langue fait que même les premiers de classes (ie les mecs et les filles qui en ont bavés pendant des années pour faire un cursus honorable et décrocher leur bac avec un niveau correct) ne vont jamais plus loin, renforcenat ainsi l'idée pour tous les autres que celà ne sert à rien de travailler (à l'école ou après) pour s'en sortir. Ce qui est pire est que la France étant un pays de diplome et non pays de mérite, ils ont parfaitement raison....
Il a rien fait pour solutionner le problème
C'ets le moins que l'on puisse dire, en 14 ans de socialisme, la cité des tartarets à Courcouronnes (une des citées les plus dangereuse de France) n'a pas vu un seul poilicier. Miantenant quand ils se déplacent là bas c'est à 6 en fourgon blindé avec les fusils à pompes et les tenues anti-émeutes. Ca facilite grandement les relations marechaussée - citadins....
# C'est la stratégie de la Lloyds
Posté par Jerome Herman . En réponse au journal Assurance open source à la Lloyd's. Évalué à 5.
Sur le LL ils ne prennent pas de gros risques, dans 99,9% des cas quand une irrégularité est constatée (avec la GPL par exemple) la seule chose que demandent l'OSF ou les auteurs c'est d'ouvrir le code source et éventuellement de payer les frais de justice. Bref pour eux le risque pris est pas ennorme. Je n'ai pas connaissance de procès ou le contrevenant à la GPL ait eu à payer une ammende (et encore moins une ammende de 10 000 000$)
Maintenant si il y a des pigeons pour payer l'assurance ....
# Si la femme n'est pas un animal
Posté par Jerome Herman . En réponse au journal pour O'Reilly La femme est elle un animal ?. Évalué à 10.
[^] # Re: nan rien...
Posté par Jerome Herman . En réponse à la dépêche Réactions au site pecephobie.be. Évalué à 4.
Si tu es VRAIMENT interressé ca peut se faire. Je lance le frame graber et je laisse tourner un jour ou deux. Mais je dois reconnaitre que la perspective de palucher toute la capture pour retrouver la série de paquets que j'ai logué dans mon firewall ne m'enchante guère. Maintenant si c'est pour la bonne cause, je peux faire (envois moi un email ou un message linuxfr)
Il est largement suffisant pour te proteger pendant que tu patches
Ah bon ? Il est la par defaut, si tu as XP installe, le firewall il est la.
Si on parle bien de la même chose (ie de la cause à cocher pour activer la protection d'interfaces dans XP SP1), laisse moi tout d'abord te dire que je trouve le terme "firewall" un poil exagéré. Ensuite lors de mon record (3'30'') mon XP avait cette case cochée (mais bon je me suis fait infecter par une attaque NetBios... Que fout le réseau Free à authoriser le routage du netbios ? Mystère)
Ceci étant, et avec totu le respect que je te dois, jepense que je ferais tout de même mes installs windows autant professionelles que pour les particuliers en conservant mon couple firewall à jour/AV à jour avant le branchement au réseau...
[^] # Re: nan rien...
Posté par Jerome Herman . En réponse à la dépêche Réactions au site pecephobie.be. Évalué à 1.
Souvent des floods/overflow sur IIS ou Exchange (integer overflow DDos) Mais aussi des attaques par générations de paquets fragmentés (le plus courant).
Il y a un firewall sur XP, il serait de bon ton de le demarrer avant d'aller te promener avec une machine qui n'est pas a jour niveau patch
a) Le truc qui sert de parefeu à Windows XP me fait bien rire, je lui accorde une confiance très réduite (surtout qu'il est pas forcément au top quand il s'agit d'empécher des infos de sortir de ma machine).
b) Pour avoir le firewall XP il faut quand même un CDRom (ou une bonne blague de partition de restore) relativement à jour. Il existe des gens (et ils sont nombreux) qui n'on pas acheter leur ordinateur il y a moins de 8 mois et qui de fait peuvent ne pas avoir le firewall dans leur installation par défaut.
c) J'aime pas du tout windows XP. Autant j'apprécie à leur juste valeur 2003 serveur et Windows 2000 professionnal, autant XP ne m'apporte rien et même me coute a cause du temps que je passe à désactiver l'ensemble des des blings-blings dont je me fout royalement.
Quand a l'anti-virus, je n'en vois toujours pas l'utilite, si il n'y a pas da faille, le virus ne passe pas. Pour qq'un qui sait ce qu'il fait, l'AV n'est pas necessaire.
Quand le seul programme qui permet de mettre à jour ton système a la facheuse habitude de charger en mémoire et d'executer les images malformées qu'il ramasse au hasard d'internet, on est jamais trop prudent. Et puis c'est pas forcément exclusivement moi qui me sert de toute mes machines en permanence. Des fois je sécurise une machine pour des amis, ou je créé un compte pour un pote sur ma machine.
[^] # Re: nan rien...
Posté par Jerome Herman . En réponse à la dépêche Réactions au site pecephobie.be. Évalué à 4.
Mon OpenBSD trappe une attaque non patché pour windows environ 3 fois par jour. Et une attaque patchée depuis moins de trois mois toutes les 20-25 minutes.
En direct sur l'internet (ie dans la DMZ, sans firewall ni anti-virus) ma machine tient le coup 45 minutes à peu près.
Mon reccord est avec une machine fraichement réisntallée avec le CD Windows XP SP1 qui a tenu 3 minutes 30 avant de se faire infecter (par un hack netbios en plus)
Sur un Windows professional standard je ne vois pas comment on peut éviter une infection éclair à moins d'éteindre 90% des services et de tuer l'explorer. (Et faire super attention à ce qu'ils ne se relance pas).
C'ets peut-être parceque je suis sur le réseau Free à Paris. Mais ici AV+Firewall à jour AVANT de connecter la machien à internet c'ets uen nécessité...
[^] # Ce thread va avoir besoin de commentaires inclus dans le titre du post
Posté par Jerome Herman . En réponse à la dépêche Galeon fusionne avec Epiphany. Évalué à -3.
[^] # Re: Dans l'ordre
Posté par Jerome Herman . En réponse au journal Petition pour opendocument. Évalué à 4.
a2) Au niveau des Styles, Microsoft a le même problème qu'OpenDocument : mélange du fond et de la forme. C'est mal. Ceci étant rien n'empêche de créer des styles ouvert non protégés. Office 2003 permet ceci sans grosses difficultées.
Pour finir avec le point a) je dirais que je ne suis vraiment pas fan du format de Microsoft non plus.
b & c) Microsoft ne perdra pas un marché par bétise, c'est sur. Néamoins ils implémenteront la norme ouverte comem il le souhaiteront. Ils peuvent le faire très mal, ou bien le fair emieux que les logiciels ouverts. Dans un cas comme dans l'autre ca peut être un poison pour les alternatives. Il est important de bien se rendre compte que l'absence d'implémentation de référence est un véritable danger pour une norme de ce type. il ne s'agit pas ici d'envoyer des paquest sur internet ou de décoder une vidéo mais d'écrire du texte. Sans le garde fou qu'offre uen implémentation de référence on retombe exactement dans le cadre de la norme HTML. A savoir que chacun va faire sa sauce dans son coin en interpretant les normes à sa façonet dans ce cas c'est le produit qui offrira le plus de fonctionnalités et de possibilités anexes qui imposera sa norme. Avec tout le respect que je dois à OpenOffice (il n'est pas ennorme, mais je salue l'effort) cette suite est totalement incapable de 'simposer comem leader du marchée. Elle est lourde, nécessite des prérequis imposant, manque de la plupart des fonctionnalités utilisées quotidiennement dans les environnement professionnels. Même si demain le format d'OOo2.0 devenait la référence, OOo ne pourrait malgré tout pas s'imposer.
KOffice est à mon sens un bien meilleur produit qu'OpenOffice (ne serait-ce que poru des raisons de légéreté), mais honnêtement bien qu'afficionado du libr eil y a longtemps que je me suis rabattu sur une suite propriétaire (SoftMaker pour ne pas la citer) .
Lorsqu'un logiciel est pénible à utiliser, il ne perce pas. Le support de l'OpenDocument pourrait donc bien virer à la blague cuisante pour ceux qui l'adoptent prématurément, et qui risquent de se sentir très seuls.
Mais le pire, c'ets que vu la complexité intraseque du format, je ne vois pas uen application "légère" générer ce format de façon fluide sur une machine "modeste". Il y a fort à parier que les éditeurs de logiciels ne se mettent à tricher très vite pour faire du "presque". Une fois de plus on retombe dans le schéma qui a mené à un HTML + CSS comem celui que l'on avait sur nos machines sil y a deux ans.
d) Mais nous avons le même désir toi et moi. Je veux aussi un format ouvert et répandu pour les applications bureautiques. C'est pour çà que quand je vois un format qui commet les erreurs du passé (fond - forme), qui s'appuie sur celui d'une suite office lourde et pas forcément ergonomique (OOo) sans pour autant le copier et qui surtout demande uen puissance de calcul non négligeable pour être manipulé aisément je crie au loup. Rien ne me fait plsu peur que de voir dans deux ans les pays et etats qui auront adoptés ce format faire machine arrière par dépit et, chat échaudé craigant l'eau froide, restent en retrait pendant plusieurs années.
# Dans l'ordre
Posté par Jerome Herman . En réponse au journal Petition pour opendocument. Évalué à 10.
b) MS a déjà laissé entendre que la porchaine suite office serait compatible avec Opendoccument. Ce qui serait un joli tour de force compte tenu du fait que personne à l'heure actuelle n'implémente complètement OpenDocument.
c) Ca serait bien Koffice et OOo implémentait complètement OpenDoccument avant MS, histoire qu'on ait une implémentation de référence hors MS pour uen fois
d) J'aime pas OpenDoccument, je ne sais pas si ca vient de ma vindicte systématique envers les gens qui posent une norme dans le vide sans même se donner la peine de faire une implémentationd e référence, et qui hurlent au cirme dès qu'on ose envisager de ne pas suivre leur norme. Ou si ca vient du fait que OpenDoccument est aussi lourd et lent à interpréter que du XHTML+CSS ou de l'OpenBook tout en réussissant le tour de force de n'être compatible ni vaec l'un ni avec l'autre et en n'arrivant même pas à séparer complètement le fond de la forme.
En bref, si le format OpenDoccument pouvait poser les pieds sur terre je searis son plus ardent défenseur. En attendant je ne peux que lui souhaiter une mort rapide et méritée.
[^] # Re: Piste ?
Posté par Jerome Herman . En réponse au journal Câbles sous-marins et répéteurs. Évalué à 4.
Si on ets absolument certain que deux ondes ne vont pas se "croiser" à un mauvais moment, on peut.
La mauvaise nouvelle c'est qu'il est très difficile d'être certains que deux ondes ne se croisent pas.
Supposons qu'un recepteur recoive en même temps ou avec un décalage insuffisant deux ondes normalement distinctes. Il s'agit alors de les déméler.
Avec des ondes lumineuses choisies judicieusement c'est possible, mais avec des ondes electrique, qu'elles soient codées en fréquence ou en intensité c'est totalement imposible, a moins de limiter grandement les plages de fréquences ou d'intensité valides.
[^] # Re: Piste ?
Posté par Jerome Herman . En réponse au journal Câbles sous-marins et répéteurs. Évalué à 8.
Pas vraiment. Vu la façon dont fonctionne un cable RJ45 il pourrait faire jusq'à 1000m de long sans qu'il y ait d'interférences de ce type (a condition qu'il soit suffisament blindé - pour un signal à 100mhz en ethernet).
Le problème des cables RJ45 est le suivant si on est sur un cable réparti (ie si il y a un hub ou un switch d'un coté ou de l'autre du cable) le répartiteur ne peut plus détecter les colides/priorités.
Donc si le cable est tout seul sur le réseau tout va bien (par exemple un lien de routeur à routeur). Par contre si il y a plus d'une machine susceptible d'emmettre sur ce cable d'un ou de l'autre coté c'est la cata : on peut se retrouver avec deux paquets emmélés l'un dans l'autre sans qu'aucun dispositif ne puisse s'en rendre compte.
D'ou les limitations à 150m en ethernet pur 100mhz et à 100m dans les modes mixes.