Obsidian a écrit 5299 commentaires

  • # Défait ?

    Posté par  . En réponse au journal le site de hitechpros défait !. Évalué à 3.

    Moment Capello : "défait", ça veut dire "defaced" ? Parce que dans ce cas, il faudrait plutôt dire "défiguré".
  • [^] # Re: Explications sur 64 bits

    Posté par  . En réponse au journal x86_64 en général et sur Mdv en particulier. Évalué à 3.

    Ok, j'ai fait une erreur dans un ordre de grandeur, ce n'est pas bien grave en soi. C'était pour donner une idée de ma pensée dans un commentaire Linuxfr, par pour soutenir une thèse.

    Ce que je voulais dire, c'est que si l'on suit une progression géométrique style loi de Moore, on va finir par rencontrer ce genre de souci dans un intervalle de temps comparable à celui qu'il a fallu pour passer de 16 à 32 bits, c'est-à-dire pas grand chose. Même avec mille atomes par bit de mémoire, ça reste compliqué à mettre en oeuvre.

    Pour autant, ça ne remet pas en cause l'utilité d'une architecture 64 bits. On est même à 128 sur certaines machines (consoles de jeux, en particulier) parce que c'est pratique pour des utilisations ciblées et que celles-ci sont suffisamment rentables à elles seules pour justifier la conception de telles machines.

    En ce qui concerne l'adressage proprement dit, 4 Go de mémoire sont déjà atteints et exploités depuis quelque temps. Rien que ça justifie le 64 bits. Par contre, en considérant 2^64 octets de mémoire, un facteur très limitant restera le temps qu'il faut pour y accéder.

    Evidemment, on paralélisera, on fera des MMU plus puissantes, etc. M'enfin, j'espère que d'ici à ce que la limite soit atteinte, on sera passé à une autre architecture que celle d'un PC.
  • [^] # Re: Explications sur 64 bits

    Posté par  . En réponse au journal x86_64 en général et sur Mdv en particulier. Évalué à 2.

    C'est grosso-modo ce que j'explique au-dessus (mais je conçois que mon commentaire est un peu long et qu'on a envie de le lire en diagonale).

    Encore faux. Les "double" ont toujours tenu sur un seul registre, puisqu'ils ont toujours eu des registres dédiés au sein de l'unité de calcul à virgule flottante (en tout cas depuis que cette dernière existe, c'est-à-dire bien longtemps).


    C'est ce que j'explique au-dessus. C'est quelque chose dont on fait abstraction parce que l'on s'appuie sur le coprocesseur mathématique qui, lui, est effectivement en 64 bits depuis longtemps. Mais les données n'y passent pas leur vie.

    Le même prix ? C'est vite dit. Il prend deux fois plus de place en mémoire, ce qui n'est pas très gênant certes, mais surtout les opérations effectuées sur les double sont plus lourdes que sur les float, ce qui fait que la plupart des CPU peuvent en exécuter moins par cycle.


    Même chose.

    Encore faux, seuls les pointeurs doublent de taille, les entiers selon les cas restent sur 32 bits (int) ou passent à 64 (long),
    .

    Les long changent donc de format, les pointeurs aussi, et tout ce qui manipulé en interne à la compilation du code dans les registres. De toutes façons, ces formats de nombres concernent ici le langage C. Un changement d'architecture doit être examiné sur toutes les plateforme de développement.

    quand aux flottants leur taille est inchangée comme expliqué plus haut.


    Oui. Par moi. Relis bien.
  • [^] # Re: Explications sur 64 bits

    Posté par  . En réponse au journal x86_64 en général et sur Mdv en particulier. Évalué à 2.

    C'est un raccourci un peu rapide, je te le concède, mais il me semble 2^64 atomes est plus que ce tu peux mettre dans le boîtier d'un PC. Je me trompe peut-être ...
  • [^] # Re: Explications sur 64 bits

    Posté par  . En réponse au journal x86_64 en général et sur Mdv en particulier. Évalué à 7.

    Moi, je partage ton point de vue depuis longtemps. Passer de 32 à 64 est très différent de passer de 16 à 32. Ce qu'il faut prendre en considération, c'est :

    - A prix égal et, surtout, si le système est compatible 32, cela ne vaut pas le coup de se priver. Ca permet de voir venir les nouveautés, et de se familiariser avec la programmation des nouveaux jeux d'instructions et la nouvelle architecture, ce qui est toujours très intéressant ...pour peu que l'on programme encore un minimum en assembleur ! Si c'est pour tout demander à gcc et faire de la compatibilité ascendente en nivelant par le bas, ça n'a aucun intérêt.

    - Un nouveau jeu d'instruction et surtout des registres supplémentaires permettent d'être très efficace. Un registre supplémentaire, c'est autant d'accès bus en moins, et çà, ça fait une très grande différence sur un processeur de PC.

    - 64 bits, ça permet de dépasser 4 Go d'adressage direct et on en aura forcément besoin à terme. 512 Mo de RAM tend à devenir la norme et même les portables "conçus pour le jeu" chez Dell, par exemple, déjà sont livrés avec 2048 Mo.

    Maintenant, je ne suis pas sûr que ce soit une bonne chose en soi que laisser cet état de fait devenir la norme. Dépasser 4Go, ce n'est pas du tout la même chose que de dépasser 64Ko. Même en progressant, la consommation de RAM devrait croître de manière linéaire, pas exponentielle ! Pour la plupart des gens, ce ne sont que des chiffres, que se valent à différentes époques, à la manière des francs et euros constants.

    - Gros avantage, au niveau du traitement des blocs de données : Tu traites tes zones par blocs de 8 octets et plus 4 et donc à chaque fois que tu as une boucle, tu divises par deux l'overhead dû au traitement des invariants. Or, la copie de blocs de données est extrêmement fréquente en informatique. Quand tu regardes des vidéos, certes (même si elles ne durent que 5 minutes, tu aspires quand même à ce qu'elles soient fluides dans l'intervalle, et qu'elles ne consomment pas trop de temps CPU, ni trop de bus), mais également quand tu travailles sous GIMP, ou même simplement lorsque tu déplaces une fenêtre ! Une fenêtre en 1280*768 et en 32 bits, mine de rien, ça fait beaucoup de mémoire ! Et comme, lorsque la résolution augmente, elle le fait dans les sens verticaux et horizontaux, cette quantité augmente au carré, encore une fois.

    Bref, à partir d'une certaine quantité de données, travailler en 64 bits peut soulager ton processeur et augmenter, même d'un point de vue uniquement théorique, la rapidité d'exécution d'un algorithme, et ce même en dessous de 4Go de RAM.

    important : Tout ceci n'est réellement valable que si ton bus et ta mémoire sont eux-aussi en 64 bits. Sinon, il y a conversion par des circuits externes et évidement, les perfs chutent.

    - Les "double" tiennent enfin, à nouveau, sur un seul registre. J'ai toujours considéré cela comme une faiblesse des formations en programmation. J'ai un float et un double. Le double a une mantisse beaucoup plus large pour le même prix. Alors, je choisis le double, au point que les nouveaux programmeurs ne savent même plus que float existe.

    Les tailles 32 et 64 bits des flottants sont ainsi parce qu'elles sont nomalisées, mais personne ne sait vraiment comment elles sont traitées en profondeur. Depuis qu'il y a un coprocesseur, les gens ne s'en soucient plus. Même les environnement de développement intégrés proposent des double par défaut. N'empêche que les accès bus et la mémoire consommée en demeurent effectivement doublés.

    A l'époque des 8 bits, on utilisait déjà les mêmes formats, et il fallait de toutes façons une boucle pour traiter l'un comme l'autre. Sur un 32 bits, un float tient dans un registre (tel que EAX), pas un double.

    Puisque le format de ces nombres est normalisé quelque soit l'architecture, on peut espérer des gains sur les programmes qui utilisent massivement le double. La plupart, pour ce que j'ai pu en voir.

    - Enfin, 65535, c'est tout de suite atteint. 4 milliards beaucoup moins vite, mais ça reste courant. 2^64, ça dépasse le nombre de galaxies (visible) contenues dans l'univers entier. Ca veut dire aussi qu'on ne pourra jamais adresser autant de mémoire même au niveau atomique.

    - Le principal ennui, donc, en changeant d'architecture est que la taille des données d'un même programme double pratiquement, du simple fait d'être recompilé.

    C'est inquiétant parce que la croissance exponentielle de la mémoire requise est due en grande partie aux dépendances entre les différentes couches d'abstraction. Si on continue à en ajouter, et si en plus les couches existantes consomment plus de mémoire sans même gagner une ligne de code, alors on va atteindre physiquement les limites de la mémoire adressable comme on a atteint celles de la finesse de la gravure, et ce avant même de passer aux 128 bits.




    Donc, faire des frais pour passer explicitement en 64 bits, ça ne sert à rien. Par contre, si c'est dans un plan prévu de remplacement de tes machines, ce n'est (presque) que des avantages.
  • [^] # Re: re

    Posté par  . En réponse au message [Recherche formation]. Évalué à 2.

    je constate aussi que la vae n'est pas un dispositif simple, de part l'écart entre les référentiels de formation (menant aux diplômes d'état) et les tâches, missions, projets divers effectués dans le boulot. Pas facile non plus, c'est logique, pour un établissement de formation de passer du stade de lieu de transmission de savoir et de savoir-faire au stade de lieu de délivrance de diplôme à quelqu'un qui n'a jamais mis les pieds chez eux.


    Tu mets le doigt dessus, mais plus loin encore, ta validation va effectivement se dérouler dans une école où l'on cherchera clairement à savoir comment tu as obtenu ton « savoir académique », dixit une conseillère VAE, à l'époque où j'ai cherché à faire la même chose que toi. Certes, l'examen est adapté à ta situation mais dans l'absolu, tu devrais être capable de passer le même partiel que les étudiants normaux.

    Faisable, donc, mais pas sans préparation. La simple expérience professionnelle ne suffira pas. Ça vaut le coup quand même, à condition d'être bien conseillé et dès le départ.

    une dernière question : que pensez vous des certifications "techniques" glanées de ci de là (type certifications novell, microsoft, ou lpi) ?


    Je dis peut-être une bêtise, mais il me semble qu'à la base, c'est Microsoft qui a lancé le principe. En tout cas, ce sont les premières du genre que j'avais rencontré. À l'époque, les « Microsoft Certified Professional », ça me faisait bondir, maintenant on en trouve un peu partout, donc, ça rétablit l'équilibre.

    La réponse est simple : ce sont effectivement des bouts de papier sans valeur, enfin plus précisément, ils n'en ont que pour les gens qui s'intéressent à la technologie qu'ils concernent.

    L'important est que ce ne sont pas des diplômes qui te permettront a priori de prétendre à quelque chose en particulier. Ce ne sont pas non plus des équivalents à des attestations d'état. Par contre, cela peut faire gagner beaucoup de temps à un recruteur qui peut voir d'un coup le panel de questions auxquelles tu as répondu correctement. Et c'est pratique si tu convoites un poste précis, ou que ton employeur veut te confier une tâche bien définie. Après, cela te mets en meilleure position pour négocier éventuellement ta place et ton salaire, mais ça reste à toi de le faire.

    Ce qui est intéressant avec ces certifs, c'est qu'elles sont très spécialisées, beaucoup plus en rapport avec le sujet qu'un diplôme général, mais elles sont aussi de fait très périssables et çà, ça me dérange un peu. L'autre problème, c'est que tu ne peux jamais savoir à l'avance ce qu'elles valent réellement : cela n'a aucun intérêt de savoir où se trouve le bouton de tel panneau de telle version de telle application, comme on en a déjà vu dans certains questionnaires. Et ça m'ennuie de m'investir scolairement dans un truc qui sera périmé au bout de deux ans.

    En bref, un plus pour toi, si tu le souhaites ou si tu cibles quelque chose de précis, mais en aucun cas un passage obligé. Pour les quelques CV que j'ai vu circuler, ça reste encore peu fréquent.
  • # Sources semi-otages ?

    Posté par  . En réponse au journal A la recherche d'un NAS.... Évalué à 2.

    Moi, ce qui me fait tiquer le plus, c'est le point numéro 4 :

    4. Our different products may have the same GPL source. You may receive the same GPL source CD-R when you request GPL source on different products.


    Il me semble que la GPL n'impose pas seulement la redistribution du code source original, mais bien du code modifié ! Maintenant, ce n'est pas incompatible, un même logiciel peut effectivement être embarqué dans différentes boiboîtes à usages différents, mais c'est à surveiller.

    Sinon, oui, 20$ pour obtenir les sources, c'est clairement fait pour faire un max de profit tout en dissuadant le quidam moyen de regarder comment c'est fait.

    Bah, de toutes façons, je parie que le code modifié doit exploiter un max de firmwares, eux, bien propriétaires, mais je suis probablement mauvaise langue.
  • [^] # Re: Ouaiis...

    Posté par  . En réponse au journal qui l'aurait cru.... Évalué à 2.

    Le TCE, on a dit stop ! :-)
  • [^] # Re: Kesako ?

    Posté par  . En réponse au journal Carlos bronsonisé. Évalué à 3.

    Voir mes liens au-dessus, mais comme tout le monde le dira, Charles Bronson a été la première victime d'une hécatombe d'acteurs et de personnages célèbres.

    Comme le deuxième est arrivé assez vite, on a dit qu'il était allé rejoindre Charles Bronson, car ça restait dans l'actualité, et quand les suivants se sont succédés, cela a immortalisé l'expression. :-)
  • [^] # Re: Kesako ?

    Posté par  . En réponse au journal Carlos bronsonisé. Évalué à 4.

    Perdu ! :-) Il faut remonter encore un an en arrière !

    Voir ici :

    https://linuxfr.org//~Daemo0on/5848.html
    (à l'époque, "Charles Bronson" était le "pseudo" de l'auteur du journal).

    Et ici :

    https://linuxfr.org//comments/585320.html#585320
    https://linuxfr.org//comments/356902.html#356902
  • [^] # Re: X-Window : Que faire si l'écran du portable ne se réactive pas ?

    Posté par  . En réponse au message [X-Window] Que faire si l'écran du portable ne se réactive pas ?. Évalué à 2.

    C'est vrai, quoi. Mort aux bots !
  • [^] # Apple à la traîne.

    Posté par  . En réponse au journal Une nouvelle révolution dans l'informatique et électronique grand public !. Évalué à 10.

    J'ajouterais qu'il y a bien longtemps qu'Apple ne révolutionne plus grand chose ! L'iPod est un balladeur numérique qui existait déjà à sa sortie, l'iPhone est un téléphone multimédia qui avait déjà été décliné sous toutes ses formes à sa sortie également.

    Apple joue énormément sur le buzz et sur sa notoriété, à l'image des campagnes de pub de W95 et Vista, mais cela ne peut durer qu'un temps. D'autre part, ces deux derniers produits ne servent qu'à vendre du service, fût-ce contraint et forcé : iTunes d'un côté, et le forfait téléphonique de l'autre sur lequel Apple se sert grassement.

    Bref, l'outsider des années 1980 est désormais forcé de suivre le business model de son pire ennemi.

    La vraie révolution, c'est d'avoir réussi à imposer un modèle économique que même MS n'avait pas encore pu faire adopter : un cas éclatant de vente liée Orange-iPhone et 30% des revenus sur les communications reversés à Apple du simple fait que l'on utilise leur terminal ! Et là, franchement, je ne vois pas comment Orange s'y retrouve. Soit ils estiment que la vente des terminaux, y compris dans le futur, compensera toujours ce qu'ils reversent et c'est quand même très audacieux, soit (plus probable) le tarif des coms est surévalué à un niveau encore plus scandaleux, et là, c'est vraiment pas malin, parce que c'est presque un aveu. Les consommateurs risquent de grogner avant peu.

    Donc, Apple mise tout sur le fait que ses produits apportent un véritable plus par rapport à ce que l'on peut trouver ailleurs, et c'est de moins en moins vrai car d'un côté, les consommateurs sont désormais habitués aux nouvelles technologies et d'un autre, leur peur historique de se faire piller les pousse, par culture, à verrouiller leur produits au point d'empêcher quiquonque de les étendre pour les adapter à ses besoins !

    Point important à mon goût : même le design n'est plus la spécialité de la marque à la pomme. Si leurs produits ne piquent pas encore les yeux, le fossé commence à se combler avec ce que fait la concurrence, chez Samsung, notamment.

    Je pense qu'Apple court actuellement un danger que le succès actuel de l'iPhone masque un peu. Je ne pense pas que voir disparaître la marque à terme soit souhaitable, tant en terme d'innovation passée que de concurrence actuelle. Par contre, il semble clair que Steve Jobs est devenu un patron aigri par des décenies de lutte et de trahison. Pas sûr qu'il lui reste suffisamment de "fibre" pour aller explorer aujourd'hui de nouvelles voies avant les autres.
  • [^] # Re: Vocabulaire ?

    Posté par  . En réponse au journal Une nouvelle révolution dans l'informatique et électronique grand public !. Évalué à 2.

    utilise un OS encore plus alternatif.


    Dans l'absolu, pour un domaine donné, il ne peut en principe n'y avoir que deux alternatives ...

    /o\ ->[]
  • # FIP

    Posté par  . En réponse au message [Recherche formation]. Évalué à 2.

    Si tu es un minimum ambitieux et que tu ne souhaites pas faire « dans le pointillé », il existe aussi désormais les formations d'ingénieur en partenariat.

    En gros, elles sont proposées à ceux qui ont ton niveau et suffisamment d'années d'expérience professionnelle (avant 5, maintenant 3, paraît-il), elles s'étalent sur un peu moins de deux ans à condition que ta boîte joue un rôle dans ta formation. Concrètement, c'est deux jours et demi par semaine à l'école (1 samedi matin sur 2), et le reste dans ta compagnie.

    Elles peuvent être financées quasiment intégralement par un CIF si ton dossier est solide, et en cherchant bien, il y a des écoles presque tout Linux également.

    Bon courage.
  • # Le masquerading ?

    Posté par  . En réponse au message Comment ne pas filtrer une IP avec iptables.... Évalué à 1.

    Je ne sais pas si c'est ce que tu cherches, mais si c'est la machine en question qui est directement connectée à Internet, il faudra faire du masquerading pour faire la traduction entre les adresses internes de ton réseau, qui ne voyagent pas sur Internet, et ton proxy/passerelle/firewall qui sert de mandataire pour tout ton réseau.

    Voir d'une part du coté de --syn pour bloquer les connexions TCP entrantes depuis Internet, puis -j MASQUERADE en OUTPUT dans la table nat.
  • [^] # Re: Bon on se calme

    Posté par  . En réponse au journal Un journal a été supprimé !. Évalué à 3.

    tant bien même que t'aurais fait exprès, ce ne serait pas de la censure, non ?


    Personne n'est parfait ! :-)

    Au fait, d'où vient cette habitude de systématiquement dé-orthographier censure ?


    C'est un style rédactionnel apparu spontanément sur la Tribune pour traduire l'ironie. C'est la même chose que de dire "CAI SUPAIRE". Tout le monde voit bien que l'auteur sait que cela ne s'écrit pas comme çà et donc, par extension, qu'il ne pense pas ce qu'il écrit non plus.

    Evidemment, c'est comme le verlan, ça n'a d'intérêt que si c'est spontané.
  • [^] # Re: Bon on se calme

    Posté par  . En réponse au journal Un journal a été supprimé !. Évalué à 4.

    Propose une entrée dans le suivi ...
  • [^] # Re: Bon on se calme

    Posté par  . En réponse au journal Un journal a été supprimé !. Évalué à 10.

    J'ai fais une erreur, j'ai cliqué ou il fallait pas.


    Ah ben voila ! Ce ne serait pas arrivé s'il n'y avait pas tant de boutons sur la page de config ! /o\

    J'ai envoyé un message sur linuxfr a l'auteur, pour m'excuser, et j'ai demander a un administrateur de corriger mon erreur.


    Ce qui signifie que c'est faisable, donc. Cela m'aurait étonné qu'un journal au autre soit réellement détruit. En général, on se contente de les déréférencer.
  • [^] # Re: ulimit ?

    Posté par  . En réponse au message Utiliser directement la SWAP. Évalué à 6.

    Dans la man page, on trouve :

    ulimit [-SHacdefilmnpqrstuvx [limit]]
    -a All current limits are reported
    -c The maximum size of core files created
    -d The maximum size of a process's data segment
    -e The maximum scheduling priority ('nice')
    -f The maximum size of files created by the shell
    -i The maximum number of pending signals
    -l The maximum size that may be locked into memory
    -m The maximum resident set size
    -n The maximum number of open file descriptors (most systems do not allow this value to be set)
    -p The pipe size in 512-byte blocks (this may not be set)
    -q The maximum number of bytes in POSIX message queues
    -r The maximum rt priority
    -s The maximum stack size
    -t The maximum amount of cpu time in seconds
    -u The maximum number of processes available to a single user
    -v The maximum amount of virtual memory available to the shell
    -x The maximum number of file locks


    Donc, ça doit être possible. Reste à voir si ça marche.
  • # Google !

    Posté par  . En réponse au message Nagios2 sous Debian 4.0. Évalué à 2.

    La vache, cela fait une demi-heure que le message est posté et il est déjà référencé en cinquième position chez Google quand on cherche Nagios 2 :

    http://www.google.fr/search?hl=fr&q=nagios2&btnG=Rec(...)
  • [^] # Re: en C

    Posté par  . En réponse au message Port parrallèle. Évalué à 2.

    Ca c'était surtout vrai à l'époque bénie où l'on pouvait faire de l'assembleur et toucher aux registres sans risquer de tout casser. Dans un environnement multitâche (et multiuser) comme Linux, il vaut mieux demander au module du noyau de faire le choses en bonne et dûe forme.

    Il a un /dev qui sert à çà, et c'est à peine plus compliqué : quelques ioctl().
  • [^] # Re: Pas si super

    Posté par  . En réponse au journal Bandai sort son papier-bulle virtuel. Évalué à 5.

    'faut dire que lorsqu'on est atteint à ce point, il est plus rentable de s'acheter un vrai rouleau de papier à bulles.
  • # /dev/lp

    Posté par  . En réponse au message Port parrallèle. Évalué à 2.

    Le fichier spécial du port parallèle, c'est soit /dev/lp, soit /dev/parport, suivis à chaque fois du numéro du port (0, 1, 2, 3 ...).

    En principe, pour lire un bit du port parallèle, il suffit de le lire comme un fichier ordinaire, avec cat ou xxd, par exemple. Mais, ce n'est possible que si ton port parallèle a déjà été configuré proprement.

    Il faut déjà qu'il fonctionne en EPP (parce que les ports parallèles initiaux ne fonctionnaient qu'en sortie), et peut-être que ce que tu lis envoie un signal type strobe, mais ce n'est pas obligatoire.

    Regarde /usr/src/linux/Documentation/parport.txt et /usr/src/linux/Documentation/parport-lowlevel.txt pour voir comment le noyau le gère.

    Bref : pas fondamentalement difficile, mais tu auras peut-être quand même besoin de quelques lignes de C pour faire les inits, à moins qu'un outil du style de stty existe pour le port parallèle, mais je ne le connaît pas.
  • # Alors ... extérieur ?

    Posté par  . En réponse au message ssh possible uniquement depuis le réseau local. Évalué à 2.

    Il nous manque un millier de détails pour pouvoir te répondre.

    Pour commencer, ça veut dire quoi « de l'extérieur » ? Si c'est depuis Internet, il est normal que tu ne puisse pas directement te connecter à une adresse interne en 192.168.x.x, ni la voir dans le DNS. Mais çà, je suppose que tu le sais :-) Je déduis également que tes autres machines fonctionnent de la même façon et se laissent être connectées.

    Pour tes problèmes de timeout, cela peut provenir de deux choses :

    1) Ta machine hôte utilise une paire d'adresses DNS qui n'est pas la même que celle des autres, et le premier DNS ne répond plus. Donc, à chaque accès à une machine par son nom, il faut attendre 15 secondes que la requête échoue par délai écoulé avant de se décider à passer au second.

    2) Tu as un routage capricieux. Il y a un filtrage quelque part, soit sur ta machine avec une config iptables oubliée, soit dans un des switch/routeurs de ta chaîne, qui répond directement non (REJECT -> Message ICMP), soit envoie le paquet aux oubliettes (DROP).
  • [^] # Re: La frangipane entraîne la brioche

    Posté par  . En réponse au sondage Epiphanie : frangipane ou brioche ?. Évalué à 2.

    ... au prix de quelques dents ...