-
cp :
313(13.2 %)
-
tar, à l'ancienne... y a que ca de vrai ! :
397(16.7 %)
-
rsync ou autre solution de synchronisation :
1172(49.3 %)
-
partimage :
23(1.0 %)
-
g4u :
1(0.0 %)
-
Clonezilla :
89(3.7 %)
-
Backup Manager :
77(3.2 %)
-
Amanda :
19(0.8 %)
-
Back In Time :
73(3.1 %)
-
Internet, parce que je suis un « real man » :
116(4.9 %)
-
duplicity :
99(4.2 %)
Total : 2379 votes
# Lien
Posté par 🚲 Tanguy Ortolo (site web personnel) . Évalué à 9.
Ça vaudrait le coup de mettre un lien pour cette histoire de vrai homme : https://en.wikiquote.org/wiki/Linus_Torvalds#1996
[^] # Re: Lien
Posté par B16F4RV4RD1N . Évalué à 10.
moi je faisais mes sauvegardes sur megaupload…
Only wimps use tape backup: real men just upload their important stuff on megaupload, and let the rest of the world ~~mirror~~ link to it
[^] # Re: Lien
Posté par Florent Zara (site web personnel, Mastodon) . Évalué à 4.
Complètement d'accord avec toi. D'ailleurs je l'aurais fait si cela était possible. Je t'invite donc à pertinenter cette entrée du suivi qui demande exactement cela !
# Backup manager
Posté par Framasky (site web personnel) . Évalué à 2.
Parce que ça permet d'envoyer sur ftp (fourni par ovh avec mon kimsufi) contrairement à rsync. Sinon j'utiliserais du rsync.
Being a sysadmin is easy. As easy as riding a bicycle. Except the bicycle is on fire, you’re on fire and you’re in Hell.
[^] # Re: Backup manager
Posté par ckyl . Évalué à 2.
Ca existe encore des hébergement sans SSH ? Kimsufi c'est pas des dediés ?
[^] # Re: Backup manager
Posté par Rolinh (site web personnel) . Évalué à -1.
Si si, les kimsufi sont des dédiés…
Donc comme toi, je suis dubitatif.
PS: et les hébergements sans ssh sont légions…
[^] # Re: Backup manager
Posté par Tony Cheneau (site web personnel) . Évalué à 4.
Je pense que Luke Sky fait référence à un espace de stockage FTP mis a disposition par OVH pour effectuer les sauvegardes de son serveur, et non pas de son dédié lui même.
Ça me semble être une pratique assez courante chez les hébergeurs.
Cordialement,
Tony
[^] # Re: Backup manager
Posté par Framasky (site web personnel) . Évalué à 4.
C'est tout à fait ça : 100Go de FTP offerts avec le dédié. Parfait pour les backups, à part que c'est du ftp.
Being a sysadmin is easy. As easy as riding a bicycle. Except the bicycle is on fire, you’re on fire and you’re in Hell.
# Corruption
Posté par ckyl . Évalué à 4.
Quelqu'un connait une solution contre la corruption de la source ou de la destination avec rsync ?
Avec les options par defaut rsync ne verra rien si une corruption arrive puisqu'il se base uniquement sur les informations de l'inode (taille et mtime). On peut activer la vérification avec checksum pour détecter les corruption, passer l'output en --itemize-change et grepper sur ">fc.." qui nous sortira tout les fichiers ou il y eu corruption. Le problème c'est qu'on ne sait toujours pas si c'est la source ou la destination qui est corrompue. Et on ne peut pas le savoir sauf avoir gardé un checksum des fichiers lors du dernier incrément.
Bref faut pas mal scripter pour avoir un truc un peu robuste, et j'ai pas vu de wrapper simples pour ce problème. Quelqu'un en connait un ?
PS: Utiliser un FS moderne qui checksum les blocks n'est pas une option envisageable. Avec un btrfs avec checksum + replication on pourra s'en passer.
[^] # Re: Corruption
Posté par rpointel . Évalué à -9.
Du rsync over ssh devrait faire l'affaire non ?
[^] # Re: Corruption
Posté par ckyl . Évalué à 10.
Merci de m'avoir fait découvrir rsync ! Sérieusement comment tu peux répondre à un message sans manifestement l'avoir lu…
[^] # Re: Corruption
Posté par rpointel . Évalué à 4.
Excuses moi, j'ai effectivement mal compris ton poste, et en le relisant j'avoue être passé complètement à côté. Désolé.
[^] # Re: Corruption
Posté par Charles Leclerc . Évalué à 1.
J'ai rencontré le même problème que toi ; après beaucoup de recherches je n'ai pas trouvé de solution existante, j'ai donc développé moi-même une application qui fait tout ça : calcul et conservation du checksum avant la sauvegarde, copie, calcul et conservation du checksum à l'arrivée. Le problème c'est que les opérations de vérification possibles lors de la sauvegarde sont assez complexes (beaucoup de cas à prévoir).
[^] # Re: Corruption
Posté par spider-mario . Évalué à 4.
Il me semble qu’Unison fait ça. Personnellement, je l’utilise surtout parce que contrairement à rsync, il est bidirectionnel.
[^] # Re: Corruption
Posté par Kioob (site web personnel) . Évalué à 3.
Il y a un patch fourni avec rsync (et donc non compilé par défaut) qui permet de sauvegarder les checksums des fichiers transférés, et éventuellement s'en servir lors des transferts suivants. D'ailleurs BackupPC utilise ça en guise de cache.
Je n'ai pas creusé plus, mais peut-être est-il possible de coupler ça avec une autre option afin d'avoir le comportement que tu souhaites (cad, vérification de la sauvegarde).
Au passage, je n'ai pas compris pourquoi ce genre d'option n'est fournie avec le source d'rsync que sous forme de patch, et pas dans la branche "standard", si quelqu'un a une explication je suis preneur !
alf.life
[^] # Re: Corruption
Posté par SaintGermain . Évalué à -1.
Il faut envoyer les informations par2 ou zfec qui devraint te permettre d'identifier les corruptions ou de réparer.
# Bacula
Posté par abonanni (site web personnel) . Évalué à 10.
Bonjour,
Est-ce normal que Bacula n'est pas dans la liste ???
http://www.bacula.org
[^] # Re: Bacula
Posté par Flo . Évalué à 3.
Non.
Là j'ai l'impression que le choix se limite plus ou moins à des sauvegardes pour le PC de la maison, ou un serveur isolé, plus que pour une sauvegarde d'entreprise (je ne connais pas tout ce qui est proposé, c'est pas mon boulot, mais cp ou rsync, euh… ça me semble léger, à moins de développer une floppée de scripts avec, mais dans ce cas, pourquoi ne pas utiliser un outil tout fait?).
[^] # Re: Bacula
Posté par bruno212 . Évalué à 1.
BackucpPC permet de sauvegarder plusieurs serveurs à la fois.
[^] # Re: Bacula
Posté par zebra3 . Évalué à 2.
Je ne vois pas en quoi Clonezilla serait plus adapté que Bacula à un usage grand public :-/
Article Quarante-Deux : Toute personne dépassant un kilomètre de haut doit quitter le Tribunal. -- Le Roi de Cœur
# Il manque rsnapshot
Posté par Pascal Obry (site web personnel) . Évalué à 8.
Un must pour moi!
[^] # Re: Il manque rsnapshot
Posté par Wawet76 . Évalué à 9.
Et aussi BackupPC.
http://backuppc.sourceforge.net/
[^] # Re: Il manque rsnapshot
Posté par Laurent Mazet (site web personnel) . Évalué à 2.
Parfaitement! Ainsi, je fait des sauvegardes incrementales tous les jours de l'ensemble des machines de l'appartement, y compris le pc sous xp de ma femme et le portable qui n'est pas allume regulierement.
# rien
Posté par Donk . Évalué à 10.
Les sauvegardes, c'est comme les freins.
C'est pour les mauviettes.
:)
[^] # Re: rien
Posté par yellowiscool . Évalué à 3. Dernière modification le 25 mai 2012 à 18:43.
Bah tu ne dois pas rouler bien vite pour ne pas te servir des freins :-)
Envoyé depuis mon lapin.
[^] # Commentaire supprimé
Posté par Anonyme . Évalué à 4.
Ce commentaire a été supprimé par l’équipe de modération.
[^] # Commentaire supprimé
Posté par Anonyme . Évalué à 9.
Ce commentaire a été supprimé par l’équipe de modération.
[^] # Re: rien
Posté par solsTiCe (site web personnel) . Évalué à 3.
je suppose que le sondage est un follow-up sur le hack de bitcoinica
http://www.bitcoinmoney.com/post/23748723157/bitcoinica-no-database-backups
en gros, on se fait hacker, le cracker supprime les db dans le cloud=> owned ! car pas de backup
[^] # Re: rien
Posté par ze_lionix (site web personnel) . Évalué à 1.
Même pas… c'est juste que j'étais en week-end "backup" de toutes les bécanes et je me suis dis que ce serait un bon sujet de sondage ! :o)
Fuse : j'en Use et Abuse !
[^] # Re: rien
Posté par shoud (site web personnel) . Évalué à 1.
exactement
"les sauvegardes, c'est fait pour les gens qui n'ont pas confiance en eux ou en leur matériel"
# rdiff-backup
Posté par Goffi (site web personnel, Mastodon) . Évalué à 10.
Ça marche pas trop mal, ça passe dans du ssh, et vu que ça ne sauvegarde que la différence, c'est pas trop gourmand en ressources. du coup a un miroir du disque + un historique ce qui permet de récupérer les fichiers dans leur état à une date précise, ou de voir ce qui a été modifié (en cas d'attaque soupçonnées par exemple).
[^] # Re: rdiff-backup
Posté par zerkman (site web personnel) . Évalué à 2.
c'est absolument parfait, il suffit d'avoir 2 PC, et on peut sauvegarder l'un sur l'autre par réseau. Quoi demander de plus ?
[^] # Re: rdiff-backup
Posté par ddfdom . Évalué à 0.
je plussoie fortement j'adore rdiff-backup simple permet le backup distant via SSH jl'utilise pour mas backup journalièrement juste les rapports un peu abscons mais il y'a certains scripts python qui les mettent sous une forme bien plus "lisibles"
sinon je suis en pleine période de tests de BURP
# rdiffbackup
Posté par Franck Routier (Mastodon) . Évalué à 10. Dernière modification le 25 mai 2012 à 17:16.
Après nous être "pris la tête" avec Amanda, un lecteur de bande, un jeu de 10 bandes tournantes pour conserver 10 jours d'historique, et pour finir par une panne dudit lecteur, impossible à remplacer à un prix raisonnable, nous avons opté pour la solution suivante :
- deux disques dur usb 2"5 de 1 To
- rdiff-backup
On alterne sur les deux disques, l'un d'eux part tous les soirs avec le responsable de la sauvegarde. On maintenant plus d'un an d'historique, la garantie de pouvoir faire évoluer simplement le système, pas de dépendance à un hardware spécifique… que du bonheur. Vive le libre.
# git push
Posté par DerekSagan . Évalué à 6.
Qu'est-ce qu'il y a d'important qui ne soit pas dans git ?
[^] # Re: git push
Posté par Framasky (site web personnel) . Évalué à 3.
La rotation des backups ? => ne pas avoir besoin de restaurer un truc depuis la nuit des temps mais au plus d'il y a un mois ?
Being a sysadmin is easy. As easy as riding a bicycle. Except the bicycle is on fire, you’re on fire and you’re in Hell.
[^] # Re: git push
Posté par Martin Peres (site web personnel) . Évalué à 2.
git peut très bien gérer ça ;)
http://bogdan.org.ua/2011/03/28/how-to-truncate-git-history-sample-script-included.html
Je suis un grand fan de git. Ça me permet d'accéder à mes données de partout et de gérer les versions et conflits de versions. Cerise sur le gateau, ça réplique :) C'est parfait!
[^] # Re: git push
Posté par Michaël (site web personnel) . Évalué à 2.
Il me semble qu'il ne sauvegarde pas les dates, si?
De plus, pour sauvegarder des données utilisateur pourquoi pas, mais s'il s'agit de sauver un système, il vaut mieux penser à autre chose/.
[^] # Re: git push
Posté par DerekSagan . Évalué à 4.
Ça dépend ce que tu appelles sauver un système. Perso je considère que l'OS lui-même en cas de crash disque ou autre ça va plus vite de le réinstaller que de le restaurer, en plus ça permet de repartir d'une version plus récente. Et concernant sa configuration (en gros /etc) justement c'est très sympa de la bourrer dans git parce que ça permet de reprendre l'historique de tes /etc/httpd/conf.d/* ou de restaurer la version précédente de /etc/resolv.conf quand dhclient vient de l'écraser alors que tu voulais pas.
[^] # Re: git push
Posté par barmic . Évalué à 2.
Il y a un truc qui déchire des tambourins pour ça c'est svk. Tu attaque un serveur svn, tu fais de la gestion de version distribué, mais en plus tu ne modifie pas le /etc.
Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)
[^] # Re: git push
Posté par Albert_ . Évalué à 6.
Git est pourri, enfin pas fait pour, des que ca concerne de gros fichiers binaires donc s'en servir comme solution de backup c'est pas tip top.
[^] # Re: git push
Posté par samo . Évalué à -5.
Tu peux aussi écrire un .gitignore pour ne sauvegarder que les sources et pas les binaires… enfin je suppose que si tes binaires changent tous les soirs c'est qu'ils proviennent des sources qui sont développées tous les jours.
Bon après c'est sûr que c'est plus minutieux à préparer qu'un gros rsync bourrin du disque sans faire de distinctions…
[^] # Re: git push
Posté par gnumdk (site web personnel) . Évalué à 3.
Ah, parce que toi tu ne sauvegardes que des fichiers textes ?
[^] # Re: git push
Posté par samo . Évalué à 1.
Sérieux j'avais pas pensé aux fichiers genre sauvegarde gimp (x_x) …
À ma décharge, je n'en crée pas beaucoup…
[^] # Re: git push
Posté par Albert_ . Évalué à 2.
Sérieux tu n'utilises quasiment aucun fichier binaire ? Pas fichier zip? Pas de fichier jpeg. ? Pas de fichier audio ? Etc.
[^] # Re: git push
Posté par samo . Évalué à 0. Dernière modification le 30 mai 2012 à 07:12.
C'est pas que j'utilise pas, c'est que j'y avais pas pensé, là, dans la discussion… ( - _ - ')
Euh pour jpeg et zip, mon argument au sujet des binaires compilés s'applique !
C'est-à-dire que le zip tout comme le jpeg possède des sources quelque part.
Cela dit même pour les fichiers sources il peut y avoir du binaire, comme ton exemple de l'audio le montre bien…
[^] # Re: git push
Posté par Albert_ . Évalué à 4.
Des jpeg (c'est a dire des images) avec des sources? Ah oui ca m'arrive de prendre des photos de rivieres mais autrement je vois pas trop comment tu peux faire ca ;)
Le sujet de la discussion etait un outil pour faire un backup de ton systeme ce qui implique systematiquement des binaires (aujourd'hui) d'ou le fait que je precise que Git bien qu'etant genial sur bien des points n'est pas du tout fait pour les fichiers binaires (merci a Batchyx pour la commande git annex je vais regarder comment ca fonctionne pour voir si cela resout certains de mes problemes ;) )
[^] # Re: git push
Posté par samo . Évalué à 2.
Haha, j'ai rigolé, pour les rivières : )
Nan mais chuis nul chuis nul, c'est tout.
J'avais pas pensé aux fichiers binaires multimédia voilà ( ^ ^ ;)
[^] # Re: git push
Posté par barmic . Évalué à 2.
Tu sauvegarde tout au format ppm http://fr.wikipedia.org/wiki/Portable_pixmap ou svg et c'est tout ! :)
Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)
[^] # Re: git push
Posté par Batchyx . Évalué à 6.
Pour les gros fichiers binaires, il y a git-annex. Ça ne garde pas l'historique du fichier (seulement celui de son hash) et ça utilise rsync en dessous quand il faut transférer les données.
[^] # Re: git push
Posté par Kaane . Évalué à 2. Dernière modification le 27 mai 2012 à 02:07.
Qu'est-ce qu'il y a d'important qui ne soit pas dans git ?
Ben déjà les droits pour commencer.
Ensuite la sauvegarde par blocs (Personnellement faire des sauvegardes avec des outils qui travaillent au niveau fichier ca m'a toujours laissé perplexe.)
Après au niveau sauvegarde/restauration il y a aussi de légers défauts. Est-ce qu'on fait une branche par sauvegarde ? Une branche pour les mensuelles qu'on garde deux ans et des append dans la branche active pour les sauvegardes journalières ? Comment on cherche la bonne version d'un répertoire avant corruption ? On fait 40 rebase et on y va à la mano ? etc.
GIT est un outil de versionning donc orienté synchronisation. Mais pour les backups c'est pas le pied a moins de le barder de tout un tas de scripts. Ca peut éventuellement être la base d'un système de sauvegarde, mais en soi c'est loin du compte.
[^] # Re: git push
Posté par spider-mario . Évalué à 3.
Pourquoi ferait-on ça ?
Ben,
git bisect
.[^] # Re: git push
Posté par Kaane . Évalué à 1.
Pourquoi ferait-on ça ?
Parceque des fois la sauvegarde cohérente est liée à plusieurs machines.
En restauration il y a grosso modo trois possibilités suite à un plantage :
a) On veut ramener un fichier ou un ensemble de fichiers dans un état antérieur (par exemple avant qu'ils ne soient écrasés ou mal écrits)
b) On veut ramener un serveur dans un état antérieur (par exemple avant une mise à jour foireuse)
c) On veut ramener un système dans un état antérieur (par exemple une appli et sa base de données avant un gros traitement qui a mal tourné)
En créant une branche par sauvegarde (par exemple avec la date de la sauvegarde dans la branche), il ets très facile en lisant les commits de la branche de voir si toutes les sauvegardes se sont bien passées ce jour là, si il y a eu besoin de relancer des sauvegardes à la main, si l'opérateur est intervenu etc.
Et ça, ça aide grandement quand on doit faire une restauration de type b) ou c).
En plus ca permet aussi facilement de faire un clone à une date précise pour garder des sauvegardes intégrales de l'ensemble du système.
Ben, git bisect.
Ca ca marche si je sais déjà à quel jour j'ai un fichier ou une base non corrompue. Si je cherche la sauvegarde dans laquelle tel ou tel fichier de conf fait plus de 40 octets je suis reparti en rebase à gogo.
[^] # Re: git push
Posté par Batchyx . Évalué à 3.
De ce que j'en comprend, t'a envie de tags, pas de branches. Mais en même temps je comprend toujours pas pourquoi tu veut créer une branche par jour, même s'il n'y a rien qui t'en empêche.
Et pour savoir qui à fait le con sur un fichier, c'est du coté de git blame (ou sa gui) qu'il faut regarder.
[^] # Re: git push
Posté par Marotte ⛧ . Évalué à 2.
Je n'avais jamais entendu parler de l'instruction blame de git, c'est juste génial. Avoir utilisé blame (blâmer) plutôt que lastmodified ou last c'est une manière d'assumer de mettre un pression sociale potentielle sur chaque développeur ;)
[^] # Re: git push
Posté par ckyl . Évalué à 3.
Juste pour info ca existait déjà dans CVS… ;)
[^] # Re: git push
Posté par Kaane . Évalué à 1.
De ce que j'en comprend, t'a envie de tags, pas de branches.
Je me suis mal exprimé, j'ai besoin d'une méthode qui permette à 43 scripts de sauvegardes différents de passer à la queueleuleu dans un même bloc en disant si ils se sont bien déroulés ou pas, et si pas donnat les fichiers non sauvegardés.
Ce bloc doit me permettre de savoir rapidement si oui ou non la sauvegarde faite un jour me permet de restaurer à l'identique l'ensemble d'une infrastructure (ie système + base de données + conf + queues + autres fichiers de conf ou utilisateurs).
Une des solutions est de faire une branche par jour et de mettre les infos de sauvegarde dans les commits. En lisant le contenu des commits je sais tout de suite si oui ou non la sauvegarde d'une journée est bonne.
Il y a d'autres méthodes bien sur, mais c'est moins facile de voir si à une date donnée toutes les sauvegardes se sont bien déroulées.
[^] # Re: git push
Posté par Batchyx . Évalué à 2.
Je suis toujours pas sûr d'avoir compris (c'est quoi un "bloc" ?), mais pour moi, si tu à 43 choses différentes à sauvegarder, alors tu à 43 dépots.
Et si tu à envie de versionner l'état de tes 43 dépots, alors tu crée un autre dépot parent qui possède les 43 dépots en sous-modules. le dépot parent ne va versionner que les hash des révisions de tes 43 sous-modules, mais va le faire avec toutes les fonctionnalités de git : messages de commit, branches, tags …
Bon après, les sous-modules, c'est pas la fonctionnalité la plus génialement faite de git, c'est un peu mal intégré avec le reste…
[^] # Re: git push
Posté par Kaane . Évalué à 0.
mais pour moi, si tu à 43 choses différentes à sauvegarder, alors tu à 43 dépots.
Et ben vache, le jour ou je veux réconcilier tout ça je vais en baver.
Supposons une société qui a cloturé son bilan 2011, l'AG arrive et pour une raison X, Y ou Z les comptes sont refusés. Par exemple parce que une floppée de clients se sont plaint d'avoir été surfacturés en décembre et que du coup les actionnaires ont un poil l'impression qu'on se fout de leur gueule en présentant des chiffres mirobolants. Donc les comptes sont refusés et il faut revenir à l'état du 31 décembre (ou le plus proche possible) et refaire les comptes en provisionnant les réclamations clients.
Comme il est interdit de réouvrir une compta cloturée en France (c'est même une des conditions nécessaires pour qu'un logiciel de compta puisse envisager l'agrément le plus faible), il faut faire un rollback complet au 31 décembre. Entre temps il y a eu 2 mises à jour de MySQL et 127 mises à jour de PHP (oui le logiciel de compta est web 2.0). Sans compter qu'il faut aussi restaurer les ESB, les sytèmes de fichiers et les divers logiciels de déclaration à la même date sous peine de faire planter tous les traitements automatisés ou d'avoir des résultats incohérents.
De là deux solutions. Soit tu sauvegardes tout ce qui a été fait depuis la cloture en bloc, tu restaures tout au 31 décembre en bloc et de là on avance pas à pas. Soit tu as 43 sauvegardes distinctes et là tu vas jouer à "komenkonfè" et "keskimanke" pendant deux mois (ce qui va ennerver les actionnaires et les dirigeants, donc probablement couter son poste au DSI qui avant de partir aura une pensée émue pour toi - le chargé de backup).
Même problème en cas d'incendie qui détruit tout le système ou en cas de panne qui existe depuis un moment mais dont on ne se rend compte qu'aujourd'hui parceque le traitement concerné n'est lancé que tous les trimestres.
[^] # Re: git push
Posté par Batchyx . Évalué à 2.
Et bien tu prend la première solution, qu'est ce qui t'en empêche ?
Ah, et pour revenir au 31 décembre en bloc, c'est
cd $depot_parent && git checkout $le_commit_du_31_decembre && git submodule update
(et peut-être ungit submodule foreach git push
, ça dépend comment tu organise tes dépots)[^] # Re: git push
Posté par Kaane . Évalué à 1.
&& git checkout $le_commit_du_31_decembre
Et bien tu prend la première solution, qu'est ce qui t'en empêche ?
C'est donc officiel, je ne parle pas français.
Dans mon exemple, la première solution (à savoir celle ou on fait un branche par jour) que cette branche soit au niveau 1, 2 ou 10 d'une arbo de sous modules est la bonne solution.
Sauf que dans le cas ou j'utilise les sous modules il faut en plus que je trouve un moyen de ma'assurer que ma journée de sauvegarde est bien cohérente (si pour une raison ou une autre un des sous modules n'a pas commité au 31, alors submodule update va remonter silencieusement la dernière bonne version connue, qui peut dater.)
Donc quitte à faire une branche par sauvegarde, autant le faire à fond.
[^] # Re: git push
Posté par rakoo (site web personnel) . Évalué à 1.
C'est vrai, faire un submodule par script/activité/peuimporte c'est pas forcément la meilleure solution, puisque tu veux garder ton système en un tout cohérent; tout à la version du 31 décembre ou tout à la version du 3 Août.
Par contre quand tu dis branche, tu veux dire _branch_er par rapport à quoi ? Tu veux pas parler de
commit
tout simplement ?[^] # Re: git push
Posté par Kaane . Évalué à 1.
Par contre quand tu dis branche, tu veux dire _branch_er par rapport à quoi ? Tu veux pas parler de commit tout simplement ?
Non, j'utilise les commits pour avoir un rapport sur le comportement des différentes sauvegardes.
Par exemple j'ouvre le bloc de sauvegarde du jour avec un git branch, chacun des 43 systèmes à la queueleuleu fait un merge puis un commit de sa sauvegarde (en donnant la liste des éléments non sauvegardés, les soucis, les incohérences dans le commit), puis on fait les traitements de fin de journée on note leur résultat dans un dernier commit sur la branche.
Ensuite on ouvre une nouvelle branche pour les sauvegardes du lendemain.
[^] # Re: git push
Posté par Batchyx . Évalué à 2.
git submodule update ne va pas "prendre la dernière version connue", elle va prendre la version associée au commit courant. Autrement dit, celui du 31 décembre.
Si un submodule n'à pas été changé par le commit du 31 décembre, tu peux t'en rendre compte en regardant le commit. Tu peux aussi mettre l'information dans le message de commit pour qu'elle soit plus visible…
# Bouquin sur le sujet, et info sur BackupPC
Posté par Wawet76 . Évalué à 7. Dernière modification le 25 mai 2012 à 17:50.
J'ai choisi BackupPC après avoir lu le bouquin O'Reilly "Backup and Restore" : http://shop.oreilly.com/product/9780596102463.do
Le bouquin est plutôt à destination des gens qui gèrent un petit parc informatique je trouve. il est parsemé d'anecdotes qui motivent bien à faire des backups corrects ET des tests de restauration.
BackupPC permet de faire des sauvegardes régulières de différentes machines avec une mise en commun des fichiers pour gagner de la place (C'est fait pour sauvegarder sur le disque du serveur qui l’exécute). Il y a une interface web pour surveiller le tout et se balader dans les sauvegardes pour récupérer juste un fichier ou un répertoire sans faire toute une restauration. Pour un poste perso il y a sans doute plus simple par contre.
# dar
Posté par zx81 . Évalué à 5.
http://dar.linux.free.fr/
Parce que, entre autres:
--diff
−−include−ea (acls des serveurs samba)
--execute (pour graver)
--key (pour la sécurité)
--alter (pour la discrétion)
−−backup−hook* (pour postgresql)
Le support est très réactif (voir la ml).
Pour certains serveurs, je "darre" le / sur plusieurs dd externe alternés (sauf proc et sys bien sur).
# Areca Backup
Posté par XBMC . Évalué à 2.
Areca Backup : sympa, java.
J'aime bien.
[^] # Re: Areca Backup
Posté par XBMC . Évalué à 2.
Areca Backup
[^] # Re: Areca Backup
Posté par ddfdom . Évalué à 1.
j'ai toujours pas compris la rotation des sauvegarde de ARECA
# A propos de dev
Posté par GG (site web personnel) . Évalué à 3.
De /dev en fait.
Il me semble que /dev/ contient plein de trucs, et qui ne sont pas forcément des trucs à backuper.
Pour les partitions, elles sont montées ailleurs.
donc, pour /dev? quelle serait la bonne politique?
C'est vrai que tout dépend si l'on veut pouvoir remonter un serveur à l'identique, ou uniquement remettre en place les données et la config, et avoir un truc qui tourne.
Moi, j'utilise rdiff-backup, et je n'ai pas encore eu l'occasion de tester mes backups. Déjà parce que j'ai vérifier que les fichiers dont j'avais besoin étaient disponibles, et j'ai eu besoin un jour d'aller y chercher une version de la veille :)
Une fois, dans un conteneur OpenVZ, j'ai fait un chmod -R 750 / et heu… ça va très vite j'avais le choix entre utiliser les backup, ou laisser tomber puisque je voulais tester la gestion des mails, et que je n'avais donc encore rien fait. Et j'ai toujours rien fait, j'ai effacé le conteneur et voilà. Dommage, c'était une bonne occasion de tester la remise au propre d'un conteneur complet. Histoire de voir ce qui manque pour la restauration…
Donc, le /dev/, vous le backupez ou pas? et comment?
Bonne soirée
G
Pourquoi bloquer la publicité et les traqueurs : https://greboca.com/Pourquoi-bloquer-la-publicite-et-les-traqueurs.html
[^] # Re: A propos de dev
Posté par Pierre Jarillon (site web personnel) . Évalué à 5.
Je ne sauvegarde pas le système, seulement /etc dans lequel il y a des données importantes.
Sur une machine récente, le système s'installe en un quart d'heure, un autre pour reconfigurer le système en s'aidant de l'ancien /etc et une demi-heure pour installer les logiciels complémentaires et faire les updates.
Pour sauver le système, dd est une solution, mais si on est obligé de changer du matériel par quelque chose de nouveau, on peut avoir de gros ennuis.
[^] # Re: A propos de dev
Posté par DerekSagan . Évalué à 2.
Et je dirai même plus: souvent quand t'as un gros crash avec perte du système, t'as un disque dur, une alim et/ou une carte mère à changer, justement…
[^] # Re: A propos de dev
Posté par Ignatz Ledebur . Évalué à 1.
Non, mais si j'avais à le faire, je regarderais du côté de cpio. Les initrd du noyau Linux sont des archives cpio compressées, et c'est comme ça que de nos jours on charge les systèmes live (un installeur par ex. ) en RAM.
[^] # Re: A propos de dev
Posté par ze_lionix (site web personnel) . Évalué à 2.
Il est re-peuplé au boot sous les debian like il me semble, il y a même un joli message "Populating /dev" ….
Pas besoin de les sauvegarder sur ces distributions ! ;o)
Fuse : j'en Use et Abuse !
# dump
Posté par Michaël (site web personnel) . Évalué à 9.
Comme j'utilise un vrai système d'exploitation (FreeBSD) il y a déjà un outil de sauvegarde simpliste mais robuste installé dessus. Mon schéma de sauvegarde consiste à faire une sauvegarde de niveau 0 quand ça me pète, une sauvegarde de niveau 1 tous les mois, et des sauvegardes de niveau 2-9 le reste du temps.
[^] # Re: dump
Posté par Chapellon Alexandre . Évalué à 0.
A qui s'adresse ce commentaire sur les "vrais OS"?
[^] # Re: dump
Posté par Michaël (site web personnel) . Évalué à 4.
Aux gens qui utilisent un OS qui n'est pas livré avec un outil de sauvegarde raisonnable.
[^] # Re: dump
Posté par Psychofox (Mastodon) . Évalué à 4.
la commande dump existe sous linux aussi et supporte ext2/3 et 4.
Pour les autres FS moins courant je ne sais pas.
# Hammer
Posté par Enjolras . Évalué à 3.
Le système de fichier de dragonflyBSD et sa fonctionnalité de mirroring.
# Backup Manager
Posté par flagos . Évalué à 3.
Je me suis tourné vers backup manager pour éviter de devoir scripter moi-meme (ca n'aurait pas été dur a faire mais bon..)
J'ai ajouté par dessus monit qui permet de monitorer toutes sortes de ressources: monit parse les fichiers de log de backup-manager, et en cas de soucis (notamment parce que les machines de backup sont auto heberges), hop un petit mail.
Ca permet d'avoir l'esprit tranquille.
[^] # Re: Backup Manager
Posté par dj_ (site web personnel) . Évalué à 2.
C'est vrais que c'est une bonne interface graphique, et au moins les fichiers restent lisible avec un simple navigateur de fichier.
# zfs ses snapshots et la fonction send receive
Posté par Psychofox (Mastodon) . Évalué à 4. Dernière modification le 26 mai 2012 à 10:20.
sur la machine source, snapshots automatiques chaque heure/jours avec convention de nommage simple (en gros date +".date +").
on envoie (zfs send) un incrémental entre ce snapshot et le précédent sur la machine de backup via ssh.
on détruit automatiquement x snapshots suivant l'espace que ça prend et la volatilité du fs.
Sur la machine de backup on fait de même mais avec une rétention plus longue.
1x par semaine, on un snapshot complet, pas un incrémental.
on rince, et on répète jusqu'à plus soif.
Note1: idéalement la machine qui backup utilise aussi du ZFS et dans une version identique sinon supérieure ce qui permet de pouvoir naviguer dans les fichiers et faire des restores de fichiers individuels. Mais pour du disaster recovery, les snapshots zfs peuvent simplement être envoyés et stockés sous forme de fichiers sur un filesystem d'un autre type et ils ne seront utilisable qu'en cas de restore complet du volume via un zfs receive.
Note2: on peut faire de même mais au lieu d'envoyer via ssh, on envoie sur un disque externe et on en fait tourner plusieurs. C'est ce que je préfère pour la maison au final avec un échange de disque dur avec la famille quand je leur rends visite pour avoir une copie de moins de x mois en cas d'incendie.
# tar + openssl + lftp
Posté par Marotte ⛧ . Évalué à 2.
Ya que ça de vrai !
# Arkeia Network Backup
Posté par frenard . Évalué à 1.
C'est une solution de sauvegarde en réseau pour les entreprises qui n'est pas open-source (à part un outil de restauration permettant de récupérer les données sans le logiciel) mais dont il existe une version gratuite accessible sur http://www.arkeia.com/fr/freelinuxbackup
Les avantages de cette solution sont sa simplicité d'utilisation grâce à son interface graphique Web (il y a aussi une CLI) sa capacité à sauvegarde sur disques, bandes et cloud ainsi que sa déduplication de données.
Arkeia Software sera sur Solutions Linux (au CNIT du 19 au 21 Juin).
Frederic
Disclaimer : je fais partie de la société Arkeia Software
# Brasero
Posté par jihele . Évalué à 1.
J'ai voté rsync parce que je m'en sers pour envoyer quelques petits fichiers sur un dédié (carnets d'adresses, fichiers importants qui changent souvent, factures).
Mais pour les grosses données (photos, éventuellement musiques et vidéos), j'utilise brasero. Enfin il faudrait que je le fasse…
# Tarsnap - Online backups for the truly paranoid
Posté par MrLapinot (site web personnel) . Évalué à 1.
J'utilise tarsnap, parce que je suis un vrai parano (mais pas trop).
http://www.tarsnap.com/
# Deja-Dup
Posté par Nahuel . Évalué à 2.
https://live.gnome.org/DejaDup
Qui est bien fait, et qui fonctionne sans avoir à se galérer.
[^] # Re: Deja-Dup
Posté par TNorth . Évalué à 2.
Pour ce dernier, il faut cocher "duplicity", sur lequel il est basé.
# Un peu de tout
Posté par Axioplase ıɥs∀ (site web personnel) . Évalué à 2.
tar, dar, duplicity, rsync, mercurial, email, cpold, scp.
# J'ai répôndu rsync ou autre ...
Posté par David Allard . Évalué à 0.
Personnellement, c'est plus une solution tournant avec burp (http://burp.grke.net). L'architecture utilise donc burp en client sous Linux ou Windows 2008 et burp-server installé sur une machine qui utilise moosefs en stockage avec un goal de 4. Donc rapidité de sauvegarde et sécurisation de la sauvegarde par multiple copie sur des serveurs répartis sur plusieurs bâtiment reliés par de la fibre :-). Restauration rapide car lecture simultanée sur les 4 serveurs de stockages :-)
# bacula
Posté par Chapellon Alexandre . Évalué à 4.
http://bacula.org ne figurant pas ici, je me permet de le rapeller. C'est probablement l'un des plus complets. Je l'ai utilisé des années, j'en suis tres satisfait
# NanoTech
Posté par NanoTech . Évalué à 0.
4.5% de "real men", j'ai du mal à y croire.
# Des snapshots avec rsync
Posté par Artefact2 (site web personnel) . Évalué à 1.
http://www.mikerubel.org/computers/rsync_snapshots/
rsync, combiné avec cp -al, permet d'avoir des snapshots des données sauvegardées, tout en étant économe en espace disque, voici par exemple un du -sh de mon disque de backup:
(J'ai changé de hostname depuis)
Chacun de ces dossiers contient toute l'arborescence de mon $HOME à l'instant ou le backup a été fait. Pour libérer de l'espace disque, c'est on ne peut plus simple: on supprime (avec rm) n'importe lequel de ces dossiers, sans affecter aucun des autres snapshots (c'est la magie des hard links…).
[^] # Re: Des snapshots avec rsync
Posté par ckyl . Évalué à 4.
Ca va faire 10 ans que --link-dest existe ;)
[^] # Re: Des snapshots avec rsync
Posté par nerbrume . Évalué à 1.
Tu vient de me faire découvrir ca, moi qui me disait que j'allais passer à rsnapshot. Du coup, je suis en train de me demander quel est l'interet de ce dernier…
[^] # Re: Des snapshots avec rsync
Posté par Artefact2 (site web personnel) . Évalué à 0.
Oui, et je m'en sers. C'est indiqué dans le lien que j'ai donné (ce flag n'existait pas à l'époque où il a été écrit, ça a été rajouté plus tard).
# D2D2T
Posté par kuroineko . Évalué à 1.
L'utilises tout simplement
un D2D2T croisé
machine 1 à 3 sont sauvées. 1 sur 2 / 2 sur 3 & 3 sur 1
la machine 1 est sauvegardée aussi sur tape ainsi que le montage depuis 2 et depuis 3
disk to disk to tape
donc sur la sauvegarde bande c'est machine 1 + machine 2 + machine 3
(3 formats Tar à la suite)
il suffit par exemple pour aller sur le 3ième fichier de faire
# backupninja
Posté par BohwaZ (site web personnel, Mastodon) . Évalué à 2.
https://labs.riseup.net/code/projects/backupninja
BackupNinja c'est chuper, ça permet de tout automatiser les dumps mysql, sauvegarder les paquets debian installés, les repositories svn, et envoyer tout ça avec rdiff-backup, rsync, duplicity, etc.
« Je vois bien à quels excès peut conduire une démocratie d'opinion débridée, je le vis tous les jours. » (Nicolas Sarkozy)
# Contemplation
Posté par scaife9 (site web personnel) . Évalué à 2.
Un disque dur qui lache doit etre vu comme le symbole de l'impermanence et du caractère transitoire des données que nous stockons. Il faut voir les représentations faites par
baobab
comme des mandalas. Ne pas faire de sauvegarde permet de combattre l'attachement.Nasty thoughts are like buses - you don't get one for ages and then a whole army arrive at once.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.