Obsidian a écrit 5299 commentaires

  • # Re: Microsoft publie "Comment changer votre clé Windows XP"

    Posté par  . En réponse au journal Microsoft publie "Comment changer votre clé Windows XP". Évalué à 5.

    Mouais, ton post est pertinent. Cela vaudrait le coup de s'y pencher un peu, pour voir ...

    Mais bon, on pourrait parler un peu de Linux pour changer ? :-)
  • [^] # Re: Commander une Pizza en 2015 (président de la république S.....y)

    Posté par  . En réponse au journal Commander une Pizza en 2015 (président de la république S.....y). Évalué à 2.

    Exact, ils finissent aussi au Pizza Hut ...
  • [^] # Re: Faire un module (driver) kernel

    Posté par  . En réponse au journal Faire un module (driver) kernel. Évalué à 2.

    Sinon, ce que tu veux faire en particulier s'appelle un socket:

    man socket
    man 2 bind

    Pas besoin d'écrire un module pour ça. Et puis si tu veux faire une connexion réseau bidirectionnelle, netcat peut très bien se mettre à l'écoute d'un port. C'est pratique pour voir par exemple quelles entêtes un navigateur web envoie à un serveur. L'inverse est aisée avec un telnet sur le port 80, mais c'est plus difficile dans ce sens sans netcat. Au fait ce ne serait pas ce que tu cherches à faire, des fois ?
  • # Re: Faire un module (driver) kernel

    Posté par  . En réponse au journal Faire un module (driver) kernel. Évalué à 2.

    Le LINUX KERNEL MODULE PROGRAMMING GUIDE officiel est ton ami:

    http://www.google.fr/search?q=LKMPG&ie=UTF-8&oe=UTF-8&h(...)
    http://www.faqs.org/docs/kernel/(...)
  • [^] # Re: PCMCIA et Firewire

    Posté par  . En réponse au journal PCMCIA et Firewire. Évalué à 1.

    Je ne connais pas grand chose au PCMCIA, mais à priori non.

    Cela fonctionne exactement comme une carte interne, ou même quoi que ce soit qui soit branché sur le port parallèle ou série. Il y a une broche d'alimentation et une masse pour permettre à l'équipement terminal qui y est relié de fonctionner correctement, mais ce n'est pas dimensionné pour alimenter une ville, si je puis m'exprimer ainsi.

    Je pense que cette notion a été introduite avec le port USB, qui cause bien du tracas aux électroniciens car toutes ces merveilleuses idées sont particulièrement chiantes à implémenter. Dans la mesure où il a été déclaré que le bus de données serait aussi un bus d'alimentation, non seulement les circuits ont été dimensionnés pour, mais des systèmes de mesure (au moins de dépassement du seuil maximal) ont été mis en place. C'est seulement à ce titre que de gros périphériques comme un Ipod ou un modem USB peuvent être connectés par un seul câble, ce qui, il faut le reconnaître, est quand même bien pratique.

    Autrement, faire se recharger une batterie au travers d'un port série (pourtant conçu pour être très robuste) serait déjà limite, mais par le biais de quelque chose d'aussi intégré et portable qu'une carte PCMCIA, cela me parait quelque peu suicidaire (pas de fusible, broches minuscules, aucun - mais alors aucun - moyen de dissiper la chaleur ...).
  • [^] # Re: 2004 est l'année où GNU/Linux trouvera sa place sur les bureaux

    Posté par  . En réponse à la dépêche 2004 est l'année où GNU/Linux trouvera sa place sur les bureaux. Évalué à 1.

    Pour Windows préinstallé, complètement vrai. Cela établit un standard de fait, et tout le monde le sait bien, à commencer par Microsoft lui-même qui dégage une énergie incroyable pour que cela dure.

    Pour les installs automatiques, ce n'est pas tant Linux qui a à faire des progrès. D'abord parce que ma Knoppix reconnait très bien le touchpad PS/2 de mon portable :-) Ensuite, parce que Windows lui-même est loin d'être meilleur. Par contre les fabricants eux-mêmes passent beaucoup de temps à intégrer LEURS produits à un système statique. S'ils faisaient exactement la même chose avec Linux, le système serait aussi connu que le Mac, à mon avis..

    D'ailleurs je ne vois vraiment pas pourquoi ces fabricants - professionnels du métier, et pas simples utilisateurs qui ne veulent pas se soucier de l'état de l'art en la matière - n'y mettent pas plus de zèle: Non seulement toutes les spécifications, jusqu'à la dernière ligne de code, de Linux sont disponibles, mais on est même prêt à faire le travail pour eux (dans une certaine mesure).
  • # Re: Commander une Pizza en 2015 (président de la république S.....y)

    Posté par  . En réponse au journal Commander une Pizza en 2015 (président de la république S.....y). Évalué à 4.

    Oui, c'est inquiétant, mais peut-être n'auront-ils même plus besoin d'être reliés au Système pour savoir tout cela (c.f. cette petite blague devenue célèbre):

    http://www.auduteau.net/humour/vrac/vrac21.shtml(...)
  • # Re: Sondage: slip ou caleçon ?

    Posté par  . En réponse au journal Sondage: slip ou caleçon ?. Évalué à 2.

    42
  • [^] # Re: Distributions utilisant la µlibc

    Posté par  . En réponse au journal Distributions utilisant la µlibc. Évalué à 1.

    Effectivement, un vieux lecteur de CDROM + une knoppix adaptée pour l'usage et résidant en permanence dans le lecteur permettrait une administration très souple de ces vieilles machines.
  • # Re: Distributions utilisant la µlibc

    Posté par  . En réponse au journal Distributions utilisant la µlibc. Évalué à 1.

    Si tu trouves une carte Compact Flash de 128Mo, c'est encore le mieux. Tu as la place d'y mettre une vraie mini-distribution.

    Autrement, mieux vaut viser l'optimisation à l'extrême: Un noyau compilé en dur sans module collé directement sur les premiers secteurs d'une de tes partitions et directement bootable, et un /sbin/init sur une deuxième (voire la même si tu te débrouilles bien), binaire correspondant en fait à un petit programme C compilé par tes soins et qui utilise les primitives du noyau pour dresser la passerelle, et que tu recompile le jour où tu veux modifier ta passerelle. A mon avis, c'est pas plus chiant qu'autre chose dans ce cas précis, et te permettra probablement de tomber en dessous du méga-octet (quand je pense qu'à l'époque, un PC équipé de 512Ko faisait tourner le DOS + des progiciels ou des jeux en couleurs ...).

    Enfin, 8Mo sont peut-être un peu limite, mais avec 16 Mo tu devrais avoir la place de placer un noyau 2.0 minimum + la libc de l'époque + un shell minimum + l'outil ipfwdadm ou même ipchains pour le 2.2 et donc avoir un système avec une console et un fichier de conf.
  • [^] # Re: Revue de Presse - Janvier 2004

    Posté par  . En réponse à la dépêche Revue de Presse - Janvier 2004. Évalué à 1.

    L'email ? :-)
  • [^] # Re: Perles du bac et bepc 2003

    Posté par  . En réponse au journal Perles du bac et bepc 2003. Évalué à 2.

    Ou:
    « Les bibliothèques sont des cimetières pour les vieux livres » !

    Ce n'est pas de la bêtise, çà ! C'est de la philosophie :-)
  • [^] # Re: Planquez vos PC !

    Posté par  . En réponse au journal Planquez vos PC !. Évalué à 6.

    Comme me le disait encore un copain : contre la bêtise, il n'y a aucun patch !

    « Ecris-le et deviens célèbre ! » :-)
  • # Re: Planquez vos PC !

    Posté par  . En réponse au journal Planquez vos PC !. Évalué à 10.

    C'est pour cela que sur la plupart des machines, on trouve:

    1) Un fonction dans le setup de ton BIOS qui permet de choisir la séquence de boot (et donc d'interdire les démarrages sur les CD/Disquette/Réseau).
    2) Un mot de passe stocké dans la mémoire dite "CMOS", avec l'heure courante, et qui te permet de contrôler l'accès à ce menu.
    3) Une serrure qui verrouille l'accès à l'intérieur de la machine en bloquant l'ouverture du capot, ou au moins permet la mise en place d'un cadenas. Intérieur du boitier dans lequel on trouve, logé sur la carte-mère, un petit cavalier te permettant de réinitialiser les paramètres de la mémoire non-volatile des fois que tu oublies ton mot de passe.

    Et puis si vraiment ton fiston a trouvé spirituel d'effacer tes partitions, sache que, si tu les recrée à l'identique, tes données réapparaitront comme par magie ...
  • # Re: Autocollants claviers

    Posté par  . En réponse au journal Autocollants claviers. Évalué à 1.

    Tu peux suivre le post de dannyboy ci-dessus, que je remercie au passage parce que je ne connaissais pas, mais objectivement, si on tient compte de la rareté de la chose + des frais des ports et de la qualité de ce que tu vas obtenir, si c'est pour un clavier querty, n'est-il pas plus simple d'acheter un nouveau clavier ?
  • [^] # Re: alsa 1.0.1 release

    Posté par  . En réponse au journal alsa 1.0.1 release. Évalué à 1.

    Là, il s'agit d'une carte son intégrée à la carte mère et faisant partie du chipset VIA, visiblement. Donc ce ne doit pas être les mêmes packages ...
  • # Re: alsa 1.0.1 release

    Posté par  . En réponse au journal alsa 1.0.1 release. Évalué à 1.

    Tiens, au fait, je viens d'essayer cette release, ainsi que la précédente, sur un chipset VIA 8235 si je me souviens bien. Ca fonctionne mais le son est de très mauvaise qualité et a tendance à crachouiller. Quelqu'un a déjà eu ce genre de problème ? Je n'ai réussi à trouver d'informations concernant ce problème nulle part ...
  • [^] # Re: Apache2 + php4 + spip1.7 segmentation fault. Et templeet?

    Posté par  . En réponse au journal Apache2 + php4 + spip1.7 segmentation fault. Et templeet?. Évalué à 1.

    C'est vrai, j'en connais qui se reconvertisse en apiculture...
    Pas sûr que ce soit mieux, les problèmes d'API, on en bouffe souvent même en informatique. :-)
  • [^] # Re: l'astrologie déclarée d'utilité publique

    Posté par  . En réponse au journal l'astrologie déclarée d'utilité publique. Évalué à 0.

    Je trouve ton commentaire pour le moins intégriste, bien que, là encore, je n'accorde aucun crédit sérieux à l'astrologie.

    Ça discrédite le travail des scientifiques
    Personnellement, je n'ai confondu l'un et l'autre, ni personne de mon entourage pour reprendre une de tes phrases. Une chose est sûre, sans méchanceté aucune, c'est que si les résultats de tes travaux sont aussi argumentés que ton post, ils ne doivent pas valoir beaucoup plus que les prévisions des astrologues.

    Ça ne m'amuse pas du tout, ni personne de mon entourage.
    Tout le problème vient de là, à mon avis. L'astrologie n'a jamais été autre chose qu'un loisir. Si tu es d'un naturel triste et que cela ne t'amuse pas, cela ne concerne que toi.

    Les scientifiques sont en 1ère ligne car c'est à eux d'expliquer aux gens l'astronomie et surtout d'apprendre à avoir un esprit critique.
    Oui, et pourquoi pas directement apprendre aux gens à penser, puisqu'on en est là ? L'histoire est pleine d'exemples de ce que ce genre de precept a engendré.
    A commencer par Galilée, puisque l'on parle d'astronomie, condamné pour avoir osé affirmer que la Terre tournait autour du Soleil, propos hautement « politiquement et scientifiquement incorrect » pour l'époque.

    Ou les hommes de science de l'époque étaient tous des idiots, et dans ce cas rien ne te permet d'affirmer que tu sois plus fin pour ton temps, ou, plus justement, leur bases s'appuyaient sur l'état des connaissances du moment et de leur perception de leur entourage, et là, il t'appartient de remettre en cause tes propres bases de la même façon avant d'affirmer que tu fais partie des initiés qui ont vu la lumière et dont la mission est de guider la masse sur le droit chemin.

    Quant à l'esprit critique, cela marche dans les deux sens. Un tel esprit n'acceptera pas, plus que les doctrines de l'astrologie, de tels principes assénés de façon si arbitraire. Avoir un esprit critique n'est pas suffisant. Il faut aussi avoir suffisament de sagesse pour s'en servir.

    Ce qui m'agaçe le plus, c'est que cette polémique est une guerre intestine et ancestrale, et que, donc, le parti pris existe avant même le dialogue. La mauvaise foi qui règne dans un camp comme dans l'autre m'écoeure. Si un scientifique sortait un jour un bouquin défendant et expliquant l'astrologie, il ne serait probablement pas accueilli comme présentant une hypothèse interressant et à étudier mais probablement fustigé pour avoir produit un tissu d'ineptie et déformé la réalité pour l'adapter à ses idée.

    La science en ce 21ème siècle est devenue une religion. Sous prétexte de s'appuyer sur des écrits solides et séculaires, on voit apparaitre aujourd'hui ses gourous et ses extrémistes. On trouve même des étudiants supérieurs persuadés que la science moderne a déjà expliqué tous les mystères de l'univers (authentique !).

    Si tu as vraiment de la haine à revendre, attaque-toi plutôt à la scientologie. La confusion avec le milieu scientifique est bien plus entretenue dans ce cas, et les cas de nuisance sont non seulement avérés, mais surtout ont un but bien défini. Beaucoup plus que chez l'astrologue du coin, où dans le bulletin qui comble les dernières pages de TéléMag.
  • [^] # Re: Mince, j'ai fermé la fenêtre qui contenait xxxx

    Posté par  . En réponse au message [Terminal] Mince, j'ai fermé la fenêtre qui contenait xxxx. Évalué à 1.

    Ah non pas du tout !
    Efface :-)
  • [^] # Re: l'astrologie déclarée d'utilité publique

    Posté par  . En réponse au journal l'astrologie déclarée d'utilité publique. Évalué à 3.

    Oui, wof, dans ce cas précis je ne vois pas ce qu'il avait à y gagner ...
    Je ne pense pas que Raffarin, sur le coup des logiciels, se soit « vendu ». Il s'est fait « avoir », comme tout le monde.

    Encore aujourd'hui, pour la plupart des gens, informatique=Bill Gates. Alors quand on lui propose de réduire la fracture numérique, tout en équipant les écoles avec du matériel qui potentiellement aide à réduire l'échec scolaire (je me souviens avoir fait des logiciels pédagogiques pour des enfants en classe SEGPA), évidement c'est très séduisant. Surtout si c'est l'éditeur mondial numéro 1 qui apporte sa caution, et propose des softs pour 15% du prix. L'informatique n'est pas son métier, il ne peut pas se douter que 45€, c'est déjà dix fois la valeur réelle de Windows ... :-)

    D'autre part, ici sur DLFP, nous sommes un noyau dur de linuxéistes, et beaucoup d'entre nous ne connaissent pratiquement plus Windows, tant ce système est utilisé rarement. A coté, il y a encore des gens qui ne connaissent même pas l'existence de Linux. Aller coller de force (même si c'est ce qu'il faut faire :-) ) un système alternatif dans toutes les écoles de France, c'est risquer de se mettre toute l'Education Nationale à dos. Quand on connait la susceptibilité des users vis-à-vis de leur système, tel qu'il soit ( http://linuxfr.org/~DaLR/6930.html(...) ), j'ose à peine imaginer ce que cela donnerait dans une structure aussi instable.

    Quand à l'astrologie, évidement c'est pas très malin, mais ça ne l'est pas moins que suivre le foot à la télé par exemple. L'astrologie n'est pas (enfin plus) une doctrine scientifique, mais elle fait partie des us et coutumes de ce pays. Se faire lire les lignes de la main un fois de temps en temps est quelque chose qui amuse tout le monde, même si personne n'y accorde beaucoup de crédit. Ce qui m'étonne beaucoup plus, en revanche, c'est la virulence avec laquelle la communauté scientifique s'acharne sur l'astrologie. A ce compte-là, il y a beaucoup de sujets sur lequels on pourrait polémiquer. Mais, sincèrement, n'y a-t-il pas mieux à faire ?
  • # Re: La meilleure pub pour Linux...

    Posté par  . En réponse au journal La meilleure pub pour Linux.... Évalué à 2.

    Cà:

    http://images.google.fr/images?q=BSOD&ie=UTF-8&oe=UTF-8&(...)

    J'aime beaucoup la cinquième image. Cela me reconcilierait presque avec Windows ! :-)

    Autrement, la dernière sur la page est également très célèbre et avec fait l'objet d'une news ici-même ...
  • [^] # Re: Windows, c'est mieux que Linux !!

    Posté par  . En réponse au journal Windows, c'est mieux que Linux !!. Évalué à 0.

    Comme MultiDeskOS (ou I2BP dans le genre ...)
  • [^] # Re: Nouveau site pour l'ANPE !

    Posté par  . En réponse au journal Nouveau site pour l'ANPE !. Évalué à 1.

    Surtout qu'il est *LAID* ce nouveau logo ! :-(
    Imaginez un peu tous les employés et allocataires qui vont devoir travailler ou attendre toute la journée dans des locaux avec ces couleurs ...
  • [^] # Re: Le langage du futur ?

    Posté par  . En réponse au journal Le langage du futur ?. Évalué à 2.

    Ne le prend surtout pas mal, mais plus je te lis, plus je trouve que ton expérience en la matière est très limitée.

    SU-PER. Tu prends exemple sur le langage C++ qui comme tout le monde le sait n'est pas un langage 100% objet et qui permet de faire tout et n'importe quoi (grâce -- ou à cause -- des pointeurs). Tu prends un environnement d'exécution qui intègre des notions objets comme .NET et alors là tu peux te toucher pour espérer accéder à une fonction private depuis un objet externe en C#, VB.NET ou Java.

    C'était un EXEMPLE ! L'exemple bête de ce qu'il ne faut pas faire justement, mais qui met bien en évidence le fait que ta « protection » n'en est pas une. Je ne pensais vraiment pas être obligé de te l'expliquer.

    Ensuite et surtout: Encore une fois, il s'agit de la force du typage de ton langage ! Cela n'a rien à voir avec le fait qu'il soit orienté objet ou pas.

    Tiens, de la même façon, et puisque l'on parle du C++, tu as l'air de penser que l'une des grandes forces de « l'orienté objet » réside dans la répartition public/private. Soit. En C++, il existe une troisième catégorie: protected. Révolution ou hérésie ? Cela te poserait-il un problème si les différentes catégories de données membres se multipliaient ?

    Tu remarqueras aussi qu'une autre notion de la programmation objet, l'héritage (et tout ce qui touche la réutilisation) est possible quelque soit le langage sur la plate-forme .NET. Tout ça parcque les langages ont une seule contrainte : implémenter certaines notions objet.

    Ok, vu tes lectures, je commence à comprendre. Il n'y a pas que du mauvais chez Microsoft, mais si c'est là ta référence de base pour assimiler les autres langages, tu risques d'avoir une vision quelque peu déformée du fonctionnement d'un ordinateur.

    Evidemment, si tu programme en natif, tout code sera au final traduit en code machine et vu que la machine autorise à peu près tout et n'importe quoi (à l'intérieur d'un même programme j'entend, l'OS est là pour limiter les débordement éventuels). Mais l'informatique a évoluer. Et certain ont su tirer partie justement de la sémantique de ces nouveaux langages dits "orientés objets" pour améliorer la sécurité ou tout simplement l'interopérabilité et l'intégration en implémentant une machine virtuelle qui utilise ces informations.

    1) Je te file une VCS2600 avec une cartouche vierge de 4Ko et je te demande de réécrire Space Invader et de le faire tenir dans le médium fourni. Si tu ne peut pas le faire alors que tes prédécesseurs l'ont fait vingt ans avant toi et sans langage objet, c'est que ce n'est pas une évolution.

    2) Si tu utilises une JVM comme garde-fou parce que tu estimes que ton programme ne pourra fonctionner de façon sûre que dans ce genre d'environnement, c'est toi qu'il faut remettre en cause. Pas ta machine. Comment feras-tu le jour où tu devras à ton tour écrire une machine virtuelle ?

    3) Parlons-en de la portabilité: Un programme écrit dans un langage de haut-niveau fonctionnera sur toutes les machines ... sur lesquelles la librairie standard et la machine virtuelle du langage auront été portées ! Ce qui limite déjà les différents modèles. Ensuite, il fonctionneront exactement de la même façon: A quoi cela sert-il d'avoir des machines différentes alors ? Une machine peut très bien être en avance sur ses concurrentes parce qu'elle apporte une killer-feature, comme on dit. Le programmeur Java/.Net est-il condamné à ne jamais en profiter ? Enfin, et là c'est le concept même de .Net que je remet en cause: A quoi diable cela sert-il de créer une machine virtuelle qui ne tourne que sur un seul système d'exploitation (Windows) et 99,99% du temps sur un PC ? Autant revenir directement à l'assembleur s'il y a si peu de variété.

    Juste pour le fun, j'aimerai savoir avec quelle simplicité tu vas réussir à instancier un pseudo-objet en C de GTK en Java, sans bien sûr refaire une surcouche qui te demanderas des heures et la nécessaire compréhension du mécanisme pseudo-objet de GTK...

    Pourquoi « pseudo » ?
    - Sous GTK+ en C, c'est:
    window1 = gtk_window_new (GTK_WINDOW_TOPLEVEL);
    - En Java, ce sera
    window1 = new gtk_window (GTK_WINDOW_TOPLEVEL);
    L'un sera un handler, l'autre une référence, ce qui pour un langage comme le Java revient exactement au même compte-tenu du fait que l'adresse mémoire effective est gérée par la seule JVM, au dessous encore du niveau du bytecode.

    Pour ce qui est des optimisations je ne suis pas du tout d'accord avec toi. Pour moi ce n'est pas au programmeur de connaître les spécificités de la machine pour laquelle il code, sauf peut-être si celui-ci code en assembleur. Le programmeur doit pouvoir utiliser le langage pour exprimer ses idées et algorithme, c'est au compilateur d'optimiser pour une machine spécifique.

    Non, non, non et non. D'abord, c'est à se demander si tu as effectivement jamais écrit une ligne d'assembleur. Que le programmeur choisisse le langage le mieux adapté à son projet est une évidence (et c'est vrai dans les deux sens: Je programme un microcontrôleur en assembleur et une librairie graphique en C++), tout comme un compilateur se doit de générer le code le plus efficace possible. PAR CONTRE: connaître le fonctionnement d'un ordinateur, c'est précisément le métier du programmeur ! Tu ne peux pas faire de code propre si tu n'as aucune idée de la manière dont ta machine va exécuter tes ordres, de même que ton compilateur ne pourra jamais sérieusement optimiser un code plombé de naissance.

    Et c'est là qu'un langage objet s'avère plus utile que le langage C par exemple : le langage purement objet introduit des informations supplémentaires au compilateur qui peut effectuer plus de vérifications, d 'optimisation.

    Cela n'a aucun sens.
    En quoi le fait que ton langage soit « objet » apporte des informations supplémentaires au compilateur ? Au contraire, la plupart des langages objet, C++ en tête d'ailleurs, ont la fâcheuse réputation de consommer plus de mémoire pour un même résultat.


    Pour ce qui est des optimisations par le programmeur, celles-ci ne doivent s'effectuer qu'au niveau de l'algorithme en diminuant la complexité de celui-ci si nécessaire. Bref, modifier son idée. Mais en aucun cas il ne doit bidouiller et utiliser des "raccourcis" pour que celà soit profitable à l'utilisateur. Tout d'abord c'est une perte de temps vu le gain final, et ensuite la plupart des machines actuelles ont suffisament de puissance pour faire tourner la plupart des algorithmes utilisés par le commun des programmeurs.

    o/* PAF !
    Encore une idée reçue qui a la dent dure et c'est probablement ce qui nous oppose le plus. La puissance d'une machine doit profiter à son utilisateur et pas servir la paresse du programmeur (paresse qui n'est, chez ce programmeur, une qualité que lorsqu'elle le pousse à utiliser sa machine pour accélérer son travail, mais pas au dépit de l'utilisateur). D'abord, tu oublies que contrairement aux machines familliales des années 80, les ordinateurs actuels sont multitâches, et qu'il suffit de faire tourner quatre ou cinq programmes écrits par des gens qui ont la même mentalité que toi pour mettre une machine en carafe.

    Lorsqu'un codeur écrit avec les pieds un programme utilisant un langage de trop haut niveau (spécialement lorsqu'il est interprété, ou sous forme de bytecode), 80% de la puissance de la machine est consommée dans les conversions successives entre ces couches, dans un sens puis dans l'autre, et cette puissance ne profite:
    - ni au programmeur, qui ne se soucie plus de son programme une fois livré,
    - ni à l'utilisateur qui passe ses journées entières à attendre son logiciel.

    D'autre part, optimiser un programme ne se limite pas à « simplifier l'algorithme utilisé », mais aussi à parler le langage de ta machine. Tu oublies qu'un compilateur est avant tout un traducteur. C'est comme si tu me disais qu'il est inutile d'apprendre une langue étrangère parce que les traducteurs logiciels le font pour nous. As-tu déjà jaugé la qualité des traductions de Babelfish ? Il m'est arrivé de multiplier la taille d'une ligne de C par 5 pour qu'elle soit au final compilée de la meilleure manière possible.

    C'est bien la mentalité Microsoft, ça. On sort un produit tordu à la base, et on applique des patches successifs plutôt que de revoir le concept.

    Enfin, le « gain final » dont tu parles est à mesurer avec la plus grande circonspection. Il suffit que tu intègres le code concerné au sein d'une boucle pour que le gain en question ne soit plus une durée fixe mais un pourcentage du temps consommé. Ainsi, si tu écris ton programme en assembleur, et que tu l'optimises pour passer de 10 cycles machines par boucle à 5 cycles (soit 2ns de gain sur une machine moyenne), tu doubles la vitesse de ton programme. Un travail réalisé initialement en deux mois le sera désormais en un seul.

    Après il y a deux niveaux de programmation : il y a la programmation système ou un langage bas-niveau comme le C est utilisé, par soucis d'optimisation. Mais c'est limité aux programmeurs expérimentés qui maîtrise les pointeurs à merveille (le pointeur c'est comme un scalpel, dans des mains expertes il fait des merveilles, mais donner les au programmeur de base...)

    Personnellement, je n'ai jamais eu de problème à manipuler un pointeur. Peut-être parce qu'à la base je savais ce qu'est une adresse mémoire. Tout le problème est là: On n'écrit pas un programme (du moins pas professionnellement) pour adapter une équation tout comme on utiliserait Mathlab pour résoudre un problème de maths, de la même façon que, si puissant qu'il soit, mathlab ne te sera d'aucune utilité si à la base tu es nul en maths ...

    Et puis surtout, la disponibilité des données est un problème qui se retrouve sur tous les langages:
    - En C/C++ le programmeur se tape des segfaults;
    - En Java, le programmeur se tape des NullPointerException.
    « Ah bon ? Mais Monsieur, je croyais qu'y'avait pas d'pointeurs en Java ... »

    C'est quand même inouï. L'informatique est quand même le seul métier où non seulement « le néophite complet se sent en mesure de vous apprendre votre métier dans le quart d'heure qui suit le montage de sa bécane », mais c'est également le seul où on l'on trouve des gens qui aspirent à devenir professionnels sans vouloir apprendre le métier. Un programmeur qui ne sait pas comment fonctionne un microprocesseur - et qui en plus le revendique - est pour moi un paradoxe.

    Si on veut utiliser toute la sémantique qu'introduit les notions objets et qu'on veut notamment appuyer les notions l'interopérabilité ou de sécurité, on prendra un vrai langage objet, et si possible une machine (virtuelle) qui exploite justement ces notions...

    Là encore, et pour la dernière fois, machine virtuelle et orienté objet sont deux choses distinctes, même si on les trouve souvent livrés ensemble. D'ailleurs le concept de machine virtuelle n'est pas nouveau, il est utilisé depuis les années 70 mais pas en microinformatique. Plutôt sur gros systèmes, tels que ceux que l'on trouve dans les aéroports.

    Ton post me laisse perplexe, pour le moins. J'ai l'impression que tu confonds plusieurs notions, notament typage, sécurité, et approche objet, de la même façon que Jayce the Crazychild confondait mode texte et langage interprété (là, 'faut quand même le faire, soi dit en passant) ou, plus sérieusement, comme beaucoup de monde assimilait programmation 32 bits et mode protégé lors des débuts de Win32.