Fedora veut faire un (ou plusieurs) gros "cluster" (un peu comme SETI@home mais à usage plus général).
Les outils sont déjà dispos (Red Hat a libéré du code suite à RHEL MRG : Condor).
En fait, ce n'est pas encore un projet Fedora, c'est actuellement qu'une proposition.
Le file de la proposition (avec une discussion sur l'impact écologique :-)) :
http://www.redhat.com/archives/fedora-advisory-board/2008-Ma(...)
J'ai du mal à voir l'intérêt concrêt de la chose. Si quelqu'un peut m'éclairer je le remercie d'avance.
# Pour fedora, je n'en sais rien…
Posté par seginus . Évalué à 6.
Faire un gigantesque distcc.
Il arrive en effet parfois (même si c'est rare) qu'un ordinateur sous Gentoo ne soit pas en train de compiler. Et bien dans ce cas là, autant tirer profit de cette puissance non-utilisé pour accélérer les compilations de autres membres de la communauté.
[^] # Re: Pour fedora, je n'en sais rien…
Posté par olosta . Évalué à 9.
[^] # Re: Pour fedora, je n'en sais rien…
Posté par polytan . Évalué à -1.
[^] # Re: Pour fedora, je n'en sais rien…
Posté par Mathieu . Évalué à 2.
Il y a généralement tout un système de contrôle et de vérification des paquets, ce qui laisse rarement l'opportunité à un "méchant" d'y insérer quelque chose de malicieux.
Par contre utiliser distcc et voir son code compilé sur la machine d'un inconnu... je reste sceptique sur la confiance qu'on pourrait lui accorder.
# t'éclaircir ?
Posté par michauko . Évalué à 3.
ouais bon ça va... j'ai un HD qui vient de lacher, un raid soft qui va me pourrir ma matinée, tout ça quoi...
# Peut être une explication
Posté par Amine Mokhtari . Évalué à 1.
j'ai peut être un semblant de réponse. Bon, c'est un peu tiré par les cheveux mais c'est un scénarios plausible.
Les distributions Linux commence à gratter des parts de marché au Grosse Distribution Unix propriétaire, sur les super calculateur et autres machine destinés à faire de gros calcul. (Voir pour plus d'éclaircissement sur ce point ici: http://linuxfr.org/2007/11/14/23351.html)
Même la NASA c'est mis à Fedora (la 4 si je me souviens bien) et à la Red Hat Entreprise. un mec qui a visité leurs locaux a pris quelques photos (voir ici: http://jaboutboul.blogspot.com/2008/02/fedora-on-final-front(...)
Fournir un gros cluster totalement compatible, pour ce type d'entreprise est un argument décisif. Leurs garantir qu'ils auront accès à un cluster gratuitement, si ils se mettent à leurs distributions est un très bon argument dans la balance. "Vous acheté 20% de la puissance de calcul dont vous avez besoin, et nous nous vous fournirons le reste (les 80%) à travers notre cluster".
c'est une stratégie bien pansait par Red hat (si c'est l'objectif visée)
[^] # Re: Peut être une explication
Posté par ckyl . Évalué à 4.
[^] # Re: Peut être une explication
Posté par Amine Mokhtari . Évalué à 1.
[^] # Re: Peut être une explication
Posté par ckyl . Évalué à 2.
Les simulations sont importantes. Alors ajoute a ca une pile de procédures bien lourdes et le service juridique....
[^] # Re: Peut être une explication
Posté par Amine Mokhtari . Évalué à 0.
Néanmoins, pour le calcul des prévisions météo par exemple. ce n'est pas un secret de polichinelle à première abord, c'est un calcul utiles pour une entreprise tel que Air france ou la NASA. donc si le portage totale ou de manière partielle sur d'autres machine externe peut leurs faire gagner en précision/prévision, je ne pense pas qu'elles cracheront dessus.
Prend l'exemple de la Grid community (http://www.worldcommunitygrid.org/) c'est bien un super ordinateur qui a été formé par un ensemble de PC connecté au Web. La World Community Grid met sa technologie (fournis par IBM principalement) à disposition des seules organisations publiques ou à but non lucratif pour qu'elles l'utilisent dans des recherches humanitaires qui, autrement, risqueraient de ne pas aboutir en raison du coût élevé de l'infrastructure informatique nécessaire en l'absence d'infrastructure publique.
porter des simulation ou analyser de données non sensible sur une grid/Cluster ouvert(e), est toujours bon à prendre à mon avis.
l'avenir est dans les calculs/traitement distribués. qu'on le veuille ou pas. y'a qu'à voir du coté des laboratoires de recherches. les réseaux totalement ad hoc pour le calcul et la transmission des données ont la cote. On investit dans ce type de R&D de manière massive, sur tout les plans: sécurité, optimisation des réseaux, fiabilité, robustesse, coût, etc.
[^] # Re: Peut être une explication
Posté par ckyl . Évalué à 1.
Fournir un gros cluster totalement compatible, pour ce type d'entreprise est un argument décisif. Leurs garantir qu'ils auront accès à un cluster gratuitement, si ils se mettent à leurs distributions est un très bon argument dans la balance
Bref tu te contredis
> Néanmoins, pour le calcul des prévisions météo par exemple ce n'est pas un secret de polichinelle à première abord
Comment crois tu qu'ils vivent ? Si il n'y a que GFS pour fournir les sorties des runs, la methodologie et l'implementation il y a une raison.
Il y a aussi un problème de confiance. Quelle confiance as tu dans des calculs s'exécutant en environnement hostile ? Si tu fais un calcul c'est que ton activité dépend de son résultat.
> Prend l'exemple de la Grid community
Tu nous parlais d'entreprises.
> l'avenir est dans les calculs/traitement distribués. qu'on le veuille ou pas
C'est mon métier, merci. Pour les gens qui en ont besoin c'est aussi le passé et le présent.
[^] # Re: Peut être une explication
Posté par Amine Mokhtari . Évalué à 1.
Alors, à quoi pourrait servir se cluster made in Fedora ?
En faite, l'explication était fourni dans le lien (http://www.redhat.com/archives/fedora-advisory-board/2008-Ma(...)
"... I'd like to create a Fedora Home project where Fedora hosts a MRG grid scheduler, people can donate CPU time on their computers for computations, and we schedule meaningful or useful work to these people's computers... It would also be a great marketing showcase for Fedora by showing our leadership in grid technology and in the power of our community. ... Red Hat and the University of Wisconsin recently signed a partnership
that makes available the Condor source code under an OSI-approved open
source license (mostly ASL). We have packaged Condor, submitted it to
the F9 development branch, and are maintaining it there. The University
of Wisconsin's Condor project remains our upstream code base and
community. So, from a technology perspective, we should be able to
build Fedora Home using technologies that will all be in Fedora.". En somme, l'université du Wisconsin en partenariat avec RedHat cherche à développer une communauté autour de ces outils.
Néanmoins je pense que la délégation de calcul dans un environnement hostile, comme tu dis, est quelque chose qui viendra. sûrement pas tout de suite (bcp de problèmes à résoudre encore), mais ...
j'aimerai bien avoir ton avis sur ce point. :-p
[^] # Re: Peut être une explication
Posté par Nicolas Schoonbroodt . Évalué à 3.
Suffit de faire comme moi, avoir toujours raison.
# Re:
Posté par IsNotGood . Évalué à 3.
Pour l'intérêt, je crois qu'il y a deux aspects.
Il y a un intérêt technique/marketing pour Red Hat.
L'autre intérêt est plus social.
Imaginons qu'une université a des idées pour faire des tests de non-regression, ou qu'elle veut depuis des données de satellite afiner Fightgear. Imaginons que pour ça elle a besoin de beaucoup de CPU.
Dans ce cas Fedora propose l'infrastructure technique et "nous" nous offrons du CPU.
Ceci pourrait aussi être fait pour des projets de recherche qui s'engagent à rendre les résultats librement disponibles. On participe à l'élaboration de contenus libres.
Il y a évidemment des problèmes de sécurité. Mais si c'est pour du contenu (et non des programmes), c'est moins critique.
[^] # Re: Re:
Posté par Sufflope (site web personnel) . Évalué à 2.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.