Saluzatous,
avant de changer de distrib (MDK 10.1 Community vers Debian Sarge 3.1),
j'ai fait un bakup via le réseau de mes données (repartionnage DD)
le pb, c'est que j'ai fait un tar de pas moins de 35Go
(compression de fichiers compressés, pas la peine) ;P
sur une autre machine, sur laquelle, j'avais recompil le noyo avec prise en charge gros fichiers pour la partition qui a reçu ce fichier gros tar. :)
J'ai tenté de scp/ftp ce fichier pour le restaurer sur l'ordi nouvellement réinstallé
Là, apparemment, le 35Go ne voulait pas y aller en entier -noyo sans prise en charge grandes tailles, je pense-
Alors, aprés montage nfs, j'ai tenté un untar direct via le réseau, et surprise, ça s'arrête aprés 24Go, manque 11Go :'(
Je sais que quelques noms de fichiers comportaient des caractères pas trop acceptés par Linux !! style -par ex : {[($#@... etc-
Est-ce que ça peut gêner le tar xvf ?
J'ai paumé 11Go :'(
Merci d'avance
# rsync
Posté par TazForEver . Évalué à 2.
La problème fois, fais un simple rsync, et y aura plus aucun problème
[^] # Re: rsync
Posté par Dams Nation . Évalué à 1.
euh, je crois que je le ferais plus !?...
# Cavanna, siouplait
Posté par syntaxerror . Évalué à 1.
Cavanna, siouplait - http://fr.wikipedia.org/wiki/Fran%C3%A7ois_Cavanna(...)
[^] # Re: Cavanna, siouplait
Posté par Dams Nation . Évalué à 1.
lool ;)
[^] # Re: Cavanna, siouplait
Posté par syntaxerror . Évalué à 2.
# Détail (trés) important
Posté par Dams Nation . Évalué à 1.
et le résultat est idem : mangue 11Go !! :'(
Mon tar est vérollé définitivement ?
[^] # Re: Détail (trés) important
Posté par Calim' Héros (site web personnel) . Évalué à 3.
Et t'a bien mis les meme locales entre la machine de depart (celle d'ou proviennent les données) et celle ou tu veux les mettre?
Si le tar te dit sur quel fichier ca plante tu peut pas rajouter un truc du genre --exclude=fileQuiPlanteAvantLeCaractereCoupable* ?
Il te reste assez de place sur la partition ou tu de-tar (df -h ) ?
[^] # Re: Détail (trés) important
Posté par syntaxerror . Évalué à 3.
Si l'extraction est partielle et le test complet, ce peut être un problème d'écriture (noms de fichier invalides?).
Mais on devrait voir quelque message d'erreur.
Si l'archive est malade, tu peux essayer les options -i et -B.
[^] # Re: Détail (trés) important
Posté par Dams Nation . Évalué à 1.
je lance le test d'archive 'tar -tvf' et :
tar: GrosseFile.tar: ne peut read: Erreur d'entrée/sortie (12 fois !)
tar: Trop d'erreurs, fin d'exécution.
tar: Erreur non récupérable: fin de l'exécution immédiate
Il s'arrête aprés un fichier à nom un peu long, pas vraiment dangeureux dans les caractères !...
je teste qques --ignore-failed-read et/ou -i ... :?
NB : A force de chercher la ch'tite bêbête, j'en oublie les trucs simples !
ex: man tar :S
Merci !
[^] # ça s'annonce mal !
Posté par Dams Nation . Évalué à 1.
, j'ai les mêmes erreurs :
tar: GrosseFile.tar: ne peut read: Erreur d'entrée/sortie (12 fois !)
tar: Trop d'erreurs, fin d'exécution.
tar: Erreur non récupérable: fin de l'exécution immédiate
sauf, qu'il met un peu plus de temps à avouer qu'il peut rien faire !
NB, le DD fait comme s'il bloquait sur un cluster !
J'ai alors tenté un fsck -V /dev/hdc11
...propre... mais répondu en un 1/4 de sec !?... rapide le gus ? :?
Là, je sais plus quoi faire !?... :'(
[^] # Re: ça s'annonce mal !
Posté par syntaxerror . Évalué à 3.
Pour le tar, j'vois pas. En espérant que ce n'est pas une erreur disque, peut être est il possible de passer par dessus les fichiers vérolés et récupérer les suivants. Quoique je crois bien que tar le fait tout seul (?).
Sinon en googlant un peu je suis tombé là-dessus:
http://www.urbanophile.com/arenn/hacking/gzrt/gzrt.html(...)
qui contient un patch pour ajouter une option --recovery à tar.
[^] # C'est pire ! :'(
Posté par Dams Nation . Évalué à 1.
par contre, j'ai suivi la page pour le --recover de tar, y'a un hic :
le déplacement de fichier, finalement, c'est la source qui est coincée !
Je m'explique : arrivé à 24Go, que ce soit pour le tranférer ou pour le recompresser, ça s'arrête !... Erreur de lecture...
le pb, c'est que sur le site de gzrecover, il faut partir d'un tar.gz !
gzrecover File.tar.gz => File.tar.recover, puis
tar xvf File.tar.recover --recover => File/
du coup :
tar xvf File.tar --recover, ne marche pas !...
NB : J'ai tenté à tout hasard, de gzip File.tar, de gzrecover File.tar, et farfeluderies... rien à faire, je retombe sur l'erreur de lecture !...
Enfin, merci quand même pour le tuyau, ça servira à pas mal de monde, chuis sûr !! ;)
Doit y avoir une histeoire avec la taille de 24Go et la capacité de prise en charge du noyo !?... :? C'est ma dernière chance !
je vais pas encore le supprimer, mais là, chuis bel et bien bloqué !
Si qq1 a une idée, un de ces 4', qu'il fasse un signe... On sait jamais !
Merci, pour vos efforts !! ;)
@+
Dams
[^] # Re: Détail (trés) important
Posté par syntaxerror . Évalué à 2.
(man tar est très incomplet)
[^] # Re: Détail (trés) important
Posté par Dams Nation . Évalué à 1.
Mais, le pb c'est que rien n'y fait !!
j'ai tenté un peu tous les ignore,
je crois que c'est foutu ! :'[
je ne me vois pas traiter le pb en hexa, dans le fichier !... mdr
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.