Je suppose que le bon admin , il faut lui envoyer sa clef publique, et c'est lui qui va la mettre ou il faut pour qu'on puisse s'identifier (comme le font KDE ou FreeBSD par exemple). Ca ne change rien au probleme si tu n'as aucun moyen de verifier que la clef fait partie de l'ensemble corrompu.
Bien sur qu'il faut les vérifier. Mais il n'y a aucune raison que l'outil pour le faire soit fourni et/ou publié par openssh. La faille implique tous les projets utilisant openssl.
Il existe moultes outils de vérification de ces clefs, à l'admin de prendre l'outil qui lui convient (debian fournit des outils, metasploit a des jeux de clefs, etc...). Tout bon admin doit en avoir un dans sa trousse à outil.
ça n'est un problème que si tu es un mauvais admin qui laisse les utilisateurs poser eux-même leurs clefs.
dans ton sshd_config, tu as une option AuthorizedKeysFile qui te permet de définir où sont les clefs des utilisateurs. Tu n'as qu'à la paramétrer pour empêcher un user de mettre sa clef dans son home.
Je crois que le plus simple c'est de ne pas avoir à installer le pilote ext2 pour windows (même si c'est anodin), mais plutôt d'utiliser un protocole comme le MTP.
Je me connectes au ilom via une workstation sous freebsd (et des collègues le font aussi sous linux ou windows).
Par contre en effet nous n'avons probablement pas les mêmes besoin car nous n'avons jamais utilisé la redirection de la console via l'interface web (nous l'utilisons peu en fait). On utilise bêtement la console en ligne de commande via ssh pour cela, c'est bien plus pratique je la démarre dans screen et je peux enregistrer l'historique en cas de besoin.
Quel est l'intérêt d'utiliser cette console depuis l'interface web ?
Notez que cette plaie d'Avocent fournis aussi les chipset des serveurs Sun (ALOM), des HP (pour les iLO), de IBM (pour les RSA-II), etc., qui ont donc eux aussi le même problème. Faudrait que les utilisateurs de firefox ralent un peu pour que les constructeurs exigent un meilleur firmware de ce fournisseur, qui semble s'imaginer que les admins bossent tous avec un java 32 bits sous ie7.
Les ALOM sun n'ont pas de serveur web et sont donc accessible uniquement via telnet et/ou ssh, par contre les ELOM et ILOM ont une interface web qui fonctionne parfaitement avec firefox. Révise tes classiques.
non tu mélanges tout. Un utilisateur fait toujours ce qu'il veut avec sa machine, même si ce n'est pas recommandé. Rien dans les principes de base d'unix n'interdit qu'un utilisateur héberge certaines applis dans son homedir, sinon tous les unix monteraient la partition home en noexec.
Du reste, un spyware ça ne s'installe pas tout seul, et s'il est executé sur ta machine, il pourra de toute façon faire plein de choses sans avoir à modifier ton navigateur. ça n'a juste aucun rapport.
Safari 4, disponible en beta pour Windows et Mac OS X sur le site d'Apple, présente une nouvelle interface : plus de barre de titre, les onglets occupent cet espace. Pas de barre de status par défaut, et l'activer ne vous mangera pas 8 pixel de haut. les boutons sont peu nombreux mais explicite : http://bayimg.com/LAnDeaAbm (capture d'écran).
C'est quoi l'intérêt par rapport à un epiphany ou firefox (ou tout autre navigateur) en full screen ?
cela-dit, je n'ai jamais vu l'intérêt de Vector linux par rapport à une vraie slackware. A l'époque la seule valeur ajoutée qui était communiquée, c'était que les paquets étaient compilés en i686 contre les i486 de la slackware. Etant donné que l'impact est proche de zero en terme de performances sur un pc de bureau, ça ne nous avance pas loin...
Une grande partie des personnes utilise vlc ou mpc. Et les deux peuvent décoder du H264.
Un grand nombre d'entreprise interdisent l'installation de soft tiers sur les bécanes. Et quand je parle de VLC, c'est un plugin intégré au navigateur, beaucoup installe VLC sans cocher l'option d'intégration.
Sans parler du fait que beaucoup ont une version obsolète de VLC, autant dire qu'avant la version 0.9 le support H264 était loin d'être terrible.
Mais cela dis je penses que ca serait une étude intéressante à faire : connaître le nombre de machines capable de lire nativement du H264.
Je veux pas dire si ces entreprises interdisent l'installation de soft tiers, la même chose limite l'usage du flash. Si tu prends un xp fraichement installé et que tu vas sur un site proposant des vidéos via flash, il te demande d'upgrader.
ça revient donc au même (et oui je connais des entreprises qui ne se font pas chier à mettre à jour flash à chaque release).
sauf que l'exemple précedemment cité (vieille machine), n'est pas forcément un windows. On vous donne un exemple général et vous nous sortez l'histoire d'un vieux xp d'un chapeau.
ça peut être une vieille appli sur un vieil unix, sur un os/2, que jais-je.
Je vais faire encore l'avocat du diable (je ne suis pas contre la virtualisation cela-dit, juste le côté miraculeuxçarépondàtousvosbesoins qui est véhiculé) :
- d'effectuer des maintenances matérielles (ajout de RAM, CPU, ...) ou logicielles (upgrade) sur les serveurs de virtualisation de manière transparente: tu évacues les VMs sur les serveurs qui restent pendant que tu effectues la manip sur le serveur physique.
En général tu prévoies de la redondance (ben oui en cas de panne) et tu dois pouvoir être capable d'arrêter une machine sans que ça se voit. Si ce n'est pas le cas, ce n'est pas normal, c'est tout ^_^
- de migrer de manière transparente tes machines d'un datacenter à l'autre si pour une raison X ou Y tu as un problème sur ton site principal
idem, normalement, ton appli, elle est déjà sur le second datacenter, juste au cas où. Et tu as une procédure de basculement. Virtuel ou physique, ça ne change rien.
- d'avoir une consommation électrique réduite, au lieu d'avoir 42000 serveurs qui ne font quasi rien, tu en achètes quelques gros. Cela économise aussi de la place, du câblage, ...
tu peux faire tourner plusieurs applis sur 1 seul serveur et tu n'es pas obligé d'acheter que des bêtes de courses.
- de load-balancer tes VMs sur les différents serveurs.
peut souvent se faire en général aussi au niveau applicatif.
- de déployer extrêmement rapidement un nouveau serveur (surtout quand tu as la possibilité de cloner des VMs ou de faire des templates).
avec des procédures de déploiements correcte, la différence est minime. La où je bosse, ce qui prend du temps ce n'est pas l'installation physique (rackage + cablage) ni celle de l'OS, c'est la configuration (même chose qu'avec des VMs). Le clonage ça marche aussi avec des machines physiques très rapidement.
L'accès à distance est également facilité: tu as tes media d'install sur une baie de disques, que tu montes virtuellement. Tu as accès à la console à distance, pas besoin d'aller en salle serveurs (pratique quand tu merdes et que la dite salle serveurs est à des km).
La virtualisation n'a rien à voir la dedans, les serveurs ont tous une console d'administration à distance.
En général, puisque des serveurs web ont été pris en exemple plus haut, si tes serveurs sont utilisés en temps normal à 52%, c'est qu'en cas de gros traffic, ça peut encore monter encore très rapidement. C'est une marge que tu te donnes et tu ne vas pas t'amuser à l'utiliser avec des serveurs virtuels parce qu'en général, la charge ne prévient pas avant de monter (panique boursière, buzz sur un site comme digg, articles de journeaux à propos de ta société, etc).
Si ton serveur est utilisé à 1%, c'est surtout que tu l'as mal choisis ton hardware.
L'intérêt de la virtualisation, c'est vraiment pour des mini-applis qui sont tellement peu utilisées ou occasionnent tellement peu de charge qu'on pourrait en mettre 100 par machines. Mais la encore la virtualisation n'est pas forcément utile, nos os sont multitâches/multiutilisateurs et savent de mieux en mieux gérer et réserver leurs ressources.
Le seul avantage est effectivement de pouvoir migrer une machine virtuelle d'un hardware physique à un autre. Mais bon la même chose peut toujours se faire au niveau applicatif (tar/untar d'une machine à une autre et zou).
oui et je te dis que le jour où tel éditeur de l'appli proprio x bidule décidera de ne plus utiliser usb mais telle ou telle norme qui sera apparue entre temps, tes directeurs n'auront pas envie de dépenser les dollars en pagaille juste pour que ton serveur de vm soit upgradé sur du nouveau hardware supportant celle-ci.
De plus un connection borker ça marche bien dans des cas très généraux, mais dès que quelqu'un fait un truc de bas très standard mais qui marche en local parce qu'il y'a le driver qui va bien pour brancher tel hardware, ton connection broker sera à la rue.
- chaque utilisateur a sa propre machine, fut-elle virtuelle. Donc, potentiellement, l'OS de son choix.
- il pourra installer, si l'administrateur l'autorise, ce qu'il veut sur son poste.
- sans risquer de mettre ses collègues dans l'embarras (pas plus qu'avec des postes physiques séparés, en tous cas).
En général, les sociétés qui passent par des systèmes de terminal serveurs du genre citrix, c'est parce qu'ils en ont marre des utilisateurs qui cassent tout sur leur poste.
Donc au final on perd cet avantage. La seule chose qui reste c'est la possibilité de revenir à un état initial plus rapidement via un snapshot, mais bon, ça n'empêche pas que si l'utilisateur est un neuneu, ça fera toujours des coups de fils en plus pour rien.
En général (en tout cas ça a été le cas de toutes les entreprises ou je suis allé), les gens qui veulent une machine séparée avec des droits admins, c'est soit :
-des chieurs ou des patrons : dans ce cas la de toute manière la virtualisation ne leur plaira pas plus car ils veulent un truc palpable qui est "à eux seuls".
-des nomades : dans ce cas la ils ont un laptop.
-quelqu'un qui a une appli métier spécifiques demandant beaucoup de ressources : dans ce cas la on leur donne une workstation bien boostée. Le graphiste dont tu parles plus haut ne se satisfiera pas d'une interface avec un potentiel lag par rapport à son input sur la carte graphique et il lui faudra de toute façon un écran 30" qui ne sera pas géré par un thin client.
-quelqu'un qui a une appli proprio chiante dont la protection de la copie se fait via un dongle. Dans ce cas la, même avec la meilleure interface du monde qui gère le usb, c'est une plaie à gérer avec une solution de virtualisation (j'imagine le hub géant avec 15 dongles). Le jour où tu mets en place ton serveur, t'es content ça marche, puis 2-3 ans après vient une norme différente de usb ou autre et un éditeur se met dans la tête que sont dongle utilisera cette norme. Bam ! nouveau cas spécifique et tu ne vas pas changer ton serveur de VM pour 1 utilisateur. Tu lui fournira de toute façon un pc.
En dehors de ça, il ne reste plus beaucoup de cas pratique pour lesquels la virtualisation peut répondre.
Tu peux généraliser et dire que la virtualisation pour les serveurs ne sert aussi à rien.
Beaucoup le disent. On ne les entend pas forcément dans les médias parce que le buzz actuel est de dire que c'est bien.
Personnellement je trouve que la virtualisation c'est bien dans des cas très précis :
-pour des labs de tests
-pour pouvoir se débarasser d'une vieille machine avec un vieil os qui ne serait plus supporté par du hardware moderne parce qu'un besoin légal nous demande de garder telle application et telles données pendant x années et qu'elle nous coûte cher en énergie et qu'elle ne serait plus maintenue en cas de panne hardware
Par contre pour de la prod, bof. A côté de certaines solutions commes les chroot, Jails ou les zones, non j'en vois peu l'intérêt (mais celles-ci sont souvent englobées dans le terme vague de virtualization).
en même temps, dans un concept d'entreprise, tu ne choisis en général ni ton adresse, ip ni ton hostname. Donc à ce niveau la, avahi n'apporte rien par rapport au dns de la boite. Et dans la plupart des cas, un système de messagerie est installé (ou des téléphones sur ip qui permettent d'envoyer des "textos").
La vérité c'est qu'avahi est très peu utilisé dans un contexte professionnel car il est la pour palier aux manques d'un réseau "bordélique" d'une maison où le serveur dhcp est un petit routeur sans-fil dans sa configuration par défaut acheté au supermarché et où les utilisateurs n'ont que peut de connaissance de l'informatique. Il est donc surtout utilisé dans un contexte grand public pour la publication des imprimantes et à très très moindre échelle pour le partage de fichier : la plupart des gens ne savent même pas faire ça et passent par une clé usb ou les email pour partager des données d'un pc à un autre.
L'utilisation pour de la musique est très confidentielle (public averti), de même que pour de la messagerie (ça ne sert à rien pour quelqu'un qui de toute façon se connecte à msn).
Donc vous pouvez le moinser autant que vous voulez, mais Octabrain a raison sur un point : l'usage d'avahi est relativement confidentiel et très limité (notemment à la publication d'imprimantes).
oui et Redhat, Linus et Stallman que tout le monde loue tant ont une licence libre mais incompatible avec la BSD. Ils n'agissent pas mieux que MS sur ce point. Avec des raisonnements pareil, on ne vas pas loin.
Pendant qu'on y est, il y a l'horrible s/se basé/se baser/
C'est insupportable de se rendre compte que plus on s'éloigne des études, moins on écrit, et que moins on écrit, plus on fait de fautes. Et les mauvais exemples sont tellement fréquent sur internet qu'il est difficile de ne pas être "contaminé" par les erreurs des autres...
[^] # Re: Les entreprises payent ?
Posté par Psychofox (Mastodon) . En réponse à la dépêche Appel aux dons pour OpenBSD. Évalué à 2.
Bien sur qu'il faut les vérifier. Mais il n'y a aucune raison que l'outil pour le faire soit fourni et/ou publié par openssh. La faille implique tous les projets utilisant openssl.
Il existe moultes outils de vérification de ces clefs, à l'admin de prendre l'outil qui lui convient (debian fournit des outils, metasploit a des jeux de clefs, etc...). Tout bon admin doit en avoir un dans sa trousse à outil.
[^] # Re: Les entreprises payent ?
Posté par Psychofox (Mastodon) . En réponse à la dépêche Appel aux dons pour OpenBSD. Évalué à 2.
dans ton sshd_config, tu as une option AuthorizedKeysFile qui te permet de définir où sont les clefs des utilisateurs. Tu n'as qu'à la paramétrer pour empêcher un user de mettre sa clef dans son home.
[^] # Re: Temps de démarrage ?
Posté par Psychofox (Mastodon) . En réponse au journal Le meilleur os pour votre eeepc (901/1000). Évalué à 2.
[^] # Re: Les brevets
Posté par Psychofox (Mastodon) . En réponse au journal MS attaque TomTom et Linux (putain de brevets). Évalué à 4.
[^] # Re: Le meilleur os pour votre eeepc
Posté par Psychofox (Mastodon) . En réponse au journal Le meilleur os pour votre eeepc (901/1000). Évalué à 1.
[^] # Re: Atheros ou Ralink ?
Posté par Psychofox (Mastodon) . En réponse au journal Le meilleur os pour votre eeepc (901/1000). Évalué à 2.
http://www.openbsd.org/cgi-bin/man.cgi?query=ral&sektion(...)
[^] # Re: Pourquoi du Dell
Posté par Psychofox (Mastodon) . En réponse à la dépêche Appel aux dons pour OpenBSD. Évalué à 3.
Je testerais voir cette console graphique juste pour voir comment ça marche avec firefox sur ma machine.
[^] # Re: Pourquoi du Dell
Posté par Psychofox (Mastodon) . En réponse à la dépêche Appel aux dons pour OpenBSD. Évalué à 2.
Par contre en effet nous n'avons probablement pas les mêmes besoin car nous n'avons jamais utilisé la redirection de la console via l'interface web (nous l'utilisons peu en fait). On utilise bêtement la console en ligne de commande via ssh pour cela, c'est bien plus pratique je la démarre dans screen et je peux enregistrer l'historique en cas de besoin.
Quel est l'intérêt d'utiliser cette console depuis l'interface web ?
[^] # Re: Pourquoi du Dell
Posté par Psychofox (Mastodon) . En réponse à la dépêche Appel aux dons pour OpenBSD. Évalué à 3.
Les ALOM sun n'ont pas de serveur web et sont donc accessible uniquement via telnet et/ou ssh, par contre les ELOM et ILOM ont une interface web qui fonctionne parfaitement avec firefox. Révise tes classiques.
[^] # Re: Plus impressionnant que Firefox 3.1 aussi
Posté par Psychofox (Mastodon) . En réponse au journal [HS] Safari 4 : plus impressionnant que Google Chrome. Évalué à 1.
Du reste, un spyware ça ne s'installe pas tout seul, et s'il est executé sur ta machine, il pourra de toute façon faire plein de choses sans avoir à modifier ton navigateur. ça n'a juste aucun rapport.
[^] # Re: Plus impressionnant que Firefox 3.1 aussi
Posté par Psychofox (Mastodon) . En réponse au journal [HS] Safari 4 : plus impressionnant que Google Chrome. Évalué à 1.
Le chemin en lui-même n'a aucun intérêt dans la discussion, et l'utilisateur fait ce qu'il veut de sa machine...
# fullscreen
Posté par Psychofox (Mastodon) . En réponse au journal [HS] Safari 4 : plus impressionnant que Google Chrome. Évalué à 1.
C'est quoi l'intérêt par rapport à un epiphany ou firefox (ou tout autre navigateur) en full screen ?
[^] # Re: Vector Linux
Posté par Psychofox (Mastodon) . En réponse au journal VectorLinux 6.0. Évalué à 3.
[^] # Re: Vector Linux
Posté par Psychofox (Mastodon) . En réponse au journal VectorLinux 6.0. Évalué à 0.
[^] # Re: troll
Posté par Psychofox (Mastodon) . En réponse au journal France Télévision : Service Publique privateur de liberté. Évalué à 3.
Un grand nombre d'entreprise interdisent l'installation de soft tiers sur les bécanes. Et quand je parle de VLC, c'est un plugin intégré au navigateur, beaucoup installe VLC sans cocher l'option d'intégration.
Sans parler du fait que beaucoup ont une version obsolète de VLC, autant dire qu'avant la version 0.9 le support H264 était loin d'être terrible.
Mais cela dis je penses que ca serait une étude intéressante à faire : connaître le nombre de machines capable de lire nativement du H264.
Je veux pas dire si ces entreprises interdisent l'installation de soft tiers, la même chose limite l'usage du flash. Si tu prends un xp fraichement installé et que tu vas sur un site proposant des vidéos via flash, il te demande d'upgrader.
ça revient donc au même (et oui je connais des entreprises qui ne se font pas chier à mettre à jour flash à chaque release).
C'est une fausse raison et un faux problème.
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 2.
ça peut être une vieille appli sur un vieil unix, sur un os/2, que jais-je.
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 1.
- d'effectuer des maintenances matérielles (ajout de RAM, CPU, ...) ou logicielles (upgrade) sur les serveurs de virtualisation de manière transparente: tu évacues les VMs sur les serveurs qui restent pendant que tu effectues la manip sur le serveur physique.
En général tu prévoies de la redondance (ben oui en cas de panne) et tu dois pouvoir être capable d'arrêter une machine sans que ça se voit. Si ce n'est pas le cas, ce n'est pas normal, c'est tout ^_^
- de migrer de manière transparente tes machines d'un datacenter à l'autre si pour une raison X ou Y tu as un problème sur ton site principal
idem, normalement, ton appli, elle est déjà sur le second datacenter, juste au cas où. Et tu as une procédure de basculement. Virtuel ou physique, ça ne change rien.
- d'avoir une consommation électrique réduite, au lieu d'avoir 42000 serveurs qui ne font quasi rien, tu en achètes quelques gros. Cela économise aussi de la place, du câblage, ...
tu peux faire tourner plusieurs applis sur 1 seul serveur et tu n'es pas obligé d'acheter que des bêtes de courses.
- de load-balancer tes VMs sur les différents serveurs.
peut souvent se faire en général aussi au niveau applicatif.
- de déployer extrêmement rapidement un nouveau serveur (surtout quand tu as la possibilité de cloner des VMs ou de faire des templates).
avec des procédures de déploiements correcte, la différence est minime. La où je bosse, ce qui prend du temps ce n'est pas l'installation physique (rackage + cablage) ni celle de l'OS, c'est la configuration (même chose qu'avec des VMs). Le clonage ça marche aussi avec des machines physiques très rapidement.
L'accès à distance est également facilité: tu as tes media d'install sur une baie de disques, que tu montes virtuellement. Tu as accès à la console à distance, pas besoin d'aller en salle serveurs (pratique quand tu merdes et que la dite salle serveurs est à des km).
La virtualisation n'a rien à voir la dedans, les serveurs ont tous une console d'administration à distance.
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 0.
Si ton serveur est utilisé à 1%, c'est surtout que tu l'as mal choisis ton hardware.
L'intérêt de la virtualisation, c'est vraiment pour des mini-applis qui sont tellement peu utilisées ou occasionnent tellement peu de charge qu'on pourrait en mettre 100 par machines. Mais la encore la virtualisation n'est pas forcément utile, nos os sont multitâches/multiutilisateurs et savent de mieux en mieux gérer et réserver leurs ressources.
Le seul avantage est effectivement de pouvoir migrer une machine virtuelle d'un hardware physique à un autre. Mais bon la même chose peut toujours se faire au niveau applicatif (tar/untar d'une machine à une autre et zou).
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 0.
De plus un connection borker ça marche bien dans des cas très généraux, mais dès que quelqu'un fait un truc de bas très standard mais qui marche en local parce qu'il y'a le driver qui va bien pour brancher tel hardware, ton connection broker sera à la rue.
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 3.
- il pourra installer, si l'administrateur l'autorise, ce qu'il veut sur son poste.
- sans risquer de mettre ses collègues dans l'embarras (pas plus qu'avec des postes physiques séparés, en tous cas).
En général, les sociétés qui passent par des systèmes de terminal serveurs du genre citrix, c'est parce qu'ils en ont marre des utilisateurs qui cassent tout sur leur poste.
Donc au final on perd cet avantage. La seule chose qui reste c'est la possibilité de revenir à un état initial plus rapidement via un snapshot, mais bon, ça n'empêche pas que si l'utilisateur est un neuneu, ça fera toujours des coups de fils en plus pour rien.
En général (en tout cas ça a été le cas de toutes les entreprises ou je suis allé), les gens qui veulent une machine séparée avec des droits admins, c'est soit :
-des chieurs ou des patrons : dans ce cas la de toute manière la virtualisation ne leur plaira pas plus car ils veulent un truc palpable qui est "à eux seuls".
-des nomades : dans ce cas la ils ont un laptop.
-quelqu'un qui a une appli métier spécifiques demandant beaucoup de ressources : dans ce cas la on leur donne une workstation bien boostée. Le graphiste dont tu parles plus haut ne se satisfiera pas d'une interface avec un potentiel lag par rapport à son input sur la carte graphique et il lui faudra de toute façon un écran 30" qui ne sera pas géré par un thin client.
-quelqu'un qui a une appli proprio chiante dont la protection de la copie se fait via un dongle. Dans ce cas la, même avec la meilleure interface du monde qui gère le usb, c'est une plaie à gérer avec une solution de virtualisation (j'imagine le hub géant avec 15 dongles). Le jour où tu mets en place ton serveur, t'es content ça marche, puis 2-3 ans après vient une norme différente de usb ou autre et un éditeur se met dans la tête que sont dongle utilisera cette norme. Bam ! nouveau cas spécifique et tu ne vas pas changer ton serveur de VM pour 1 utilisateur. Tu lui fournira de toute façon un pc.
En dehors de ça, il ne reste plus beaucoup de cas pratique pour lesquels la virtualisation peut répondre.
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 4.
Beaucoup le disent. On ne les entend pas forcément dans les médias parce que le buzz actuel est de dire que c'est bien.
Personnellement je trouve que la virtualisation c'est bien dans des cas très précis :
-pour des labs de tests
-pour pouvoir se débarasser d'une vieille machine avec un vieil os qui ne serait plus supporté par du hardware moderne parce qu'un besoin légal nous demande de garder telle application et telles données pendant x années et qu'elle nous coûte cher en énergie et qu'elle ne serait plus maintenue en cas de panne hardware
Par contre pour de la prod, bof. A côté de certaines solutions commes les chroot, Jails ou les zones, non j'en vois peu l'intérêt (mais celles-ci sont souvent englobées dans le terme vague de virtualization).
[^] # Re: Explications?
Posté par Psychofox (Mastodon) . En réponse au journal SPICE libéré ! (bientôt). Évalué à 7.
D'ailleurs, je ne comprends pas vraiment ce que prétendent offrir de plus les solutions de virtualisation dans ce domaine la.
[^] # Re: Sécurité
Posté par Psychofox (Mastodon) . En réponse au journal Debian Lenny 5.0 is out !. Évalué à 4.
La vérité c'est qu'avahi est très peu utilisé dans un contexte professionnel car il est la pour palier aux manques d'un réseau "bordélique" d'une maison où le serveur dhcp est un petit routeur sans-fil dans sa configuration par défaut acheté au supermarché et où les utilisateurs n'ont que peut de connaissance de l'informatique. Il est donc surtout utilisé dans un contexte grand public pour la publication des imprimantes et à très très moindre échelle pour le partage de fichier : la plupart des gens ne savent même pas faire ça et passent par une clé usb ou les email pour partager des données d'un pc à un autre.
L'utilisation pour de la musique est très confidentielle (public averti), de même que pour de la messagerie (ça ne sert à rien pour quelqu'un qui de toute façon se connecte à msn).
Donc vous pouvez le moinser autant que vous voulez, mais Octabrain a raison sur un point : l'usage d'avahi est relativement confidentiel et très limité (notemment à la publication d'imprimantes).
[^] # Re: Vendredi....OK, Target Locked ..... OK.... FIRE!
Posté par Psychofox (Mastodon) . En réponse à la dépêche Sortie de Moonlight 1.0. Évalué à 2.
[^] # Re: Pas que ça me dérange ...
Posté par Psychofox (Mastodon) . En réponse au journal L'OS national russe pourrait être basé sur Fedora. Évalué à 2.
Pendant qu'on y est, il y a l'horrible s/se basé/se baser/
C'est insupportable de se rendre compte que plus on s'éloigne des études, moins on écrit, et que moins on écrit, plus on fait de fautes. Et les mauvais exemples sont tellement fréquent sur internet qu'il est difficile de ne pas être "contaminé" par les erreurs des autres...