| |||||
| Dernière réponse | |
|---|---|
| Sujet : [ TAR ] découpage en fichier | |
| Aschrack | ah? spossible, jvais chercher là dessus merchi :) |
| Aperçu |
|---|
| Vue Rapide de la discussion |
|---|
| Aschrack | ah? spossible, jvais chercher là dessus merchi :) |
| Mjules | si tu les compresses pas, ya rsync qui sert à ça non ? |
| Aschrack | plus fort maintenant :D
un script qui ferait for i in *; do tar cf "/dossier de destination/$i.tar" "$i";done mais qui en réalité, vérifierait si il y a une différence entre les dossiers d'origine et les tar déja présent dans le dossier de destination but: faire une sauvegarde régulière (via crond) d'une série de dossier la vérification est là pour éviter de sauver des dossiers n'ayant pas reçu de fichiers supplémentaires (note: les dossiers d'origine comme celui de destination se trouve sur de la fat) pcq bon, ça use le dur et pis ça prend pas mal de ressource dès qu'on a beaucoup de donnée :D et à la limite, à ce stade là, ce même script pourrait alors devenir plus interressant si au lieu de simplement utiliser tar je compressais les archives obtenues :) (pcq si je les recompresse à chaque fois pour rien, alors qu'aucun fichier n'aura été ajouté :(, alors qu'en listant le contenu des archives, en le comparant à celui du dossier correspondant on voit direct si un fichier supplémentaire fut mit. Et même à la limite dans ce cas le plus simple serait de rajouter le fichier dans l'archive au lieu de tout recompresser) |
| Aschrack | merchi bocoup, c'est tout parfait
enfin, presque, j'ai tenté de l'adapter car dès qu'il y avait un espace dans le nom ben il n'en voulait pas exemple: dossier du nom "Compta ok" tar: ok: ne peut stat: No such file or directory donc la commande dans ce cas (qui semble foncitonner) est for i in *; do tar cf "$i.tar" "$i";done encore merchi à tous |
| Mjules |
|
| Taz | ok, ben laisse tomber ...les dump et graver autre chose. je vois pas trop le problème avec un gros tar en fait ? si ce n'est que ça foire chez toi. j'ai déjà fait un tar de 17Go / 43000 fichiers sans problèmes |
| Aschrack | vi mais si je grave autre chose que de l'iso ça risque de ne pas être lisible sur certaine système donc :( (non?)
dump? (jmate un coup ce que c'est) |
| Taz | voir de faire une sorte de dump ? |
| Taz | t'as essayé de graver sur ton DVD autre chose que de l'ISO puisque tu dis que t'es limité par la longueur des noms ? |
| Aschrack | j'ai on va dire un GROS dossier (genre 15go) à graver sur dvd
cd gros dossier contient disons 150 dossiers (qui eux contiennent u n nombre variable de dossier) et je voudrais obtenir donc obtenir 150 tar, un par dossier contenu dans le dossier principal pcq bon, le truc si je fais un gros tar que je split, c'est que les infos incluses dans ce dernier ne sont plus lisibles, sauf si on extrait la totalité ce qui est bien lourd lorsqu'on veut juste un pti fichier d'1 mo alors que là, je prendrai le sous dossier approprié qui fera max 100mo, déja mieux à décompresser et si je tiens à utiliser tar, ben c'est tout simplement pcq les noms de fichiers sont extrêmement long et le nombre de niveaux également et split était requis pcq le fichier tar obtenu était gigantesque donc forcement, ça tenait pas sur dvd edit: je pourrai bien sûr, à la main fait tar -cvf nomdossier1.tar nomdossier1 mais bon, le faire 150 fois :( pis ça c'est que pour le premier :( |
| Taz | j'ai toujours pas compris ce que tu veux faire |
| Mjules | for i in *; do tar cf $i.tar $i;done
là, c'est pour tout fichiers et dossiers ; ça doit pouvoir s'adapter pour ne prendre que les dossier |
| Aschrack |
maintenant que j'y pense
|
| Taz | ou alors tu as partimage |
| Taz | oui parted, je programme de sauvegarde de partition GNU. il te permet meme de les sauvegarder en crypté et compressé |
| Aschrack | lol, encore merci |
| Aschrack | root? tiens, j'y avais pas pensé (venant de le créer avec ce compte sur de la fat32) |
| Aschrack | parted? (ben pcq avec la fonction recherche du forum, mjules, les autres dans le topic indiqué, les liens trouvés sur google je tombais sur tar | split) |
| Taz | bah mets toi en root :o |
| Taz | pourquoi tu joue pas avec parted plutot ? |
| Aschrack | &ls
xaa xab $cat xa* | tar -xvf - pis à chaque fois jme tape pour chaque fichier "ne peut utime: Operation not permitted" exemple : "tar: Mordor/Drivers/Nvidia/12.41-W2K.exe: ne peut utime: Operation not permitted" des fichiers (xaa et xab) créé avec $tar -cvf - Mordor | split -b 2000m - |
| Aschrack | fin, "une"
plusieurs partoches, dossiers etc... et comme c'est du gros backup, c'est plus simple de faire des tar que de m'amuser à répartir et comme je l'ai dit, y'a le problème des noms de fichiers |
| Aschrack | nope, je veux sauvegarder une partoche win sur dvd
mais bon, le truc c'est que j'ai des noms de fichiers à la ralonge et donc le soft de gravure me les modifies (ce qui à la base est chiant, et surtout, lrosqu'il s'agit de page web avec fichiers associés ben le code html ne correspond plus au nom du fichier) :( |
| Taz | ché pas moi, j'ai fait des tar plus gros que ça.
pourquoi tu exportes tout ton truc par le réseau ? |
| Aschrack | (je me pose la question, et je cherche directement ensuite, comme ça un autre utilisant une la fonction recherche du forum tombe sur un topic avec des questions et les réponses) |
| Aschrack | http://dbforums.com/arch/183/2003/5/779032
it's impossible to have a single file that is over 2 gigs. it's a hard limit in the filesystem itself. You can have more than that amount of data in a compressed tar by writing/extracting the tar through a pipe, but you can never have the uncompressed tar file except in the form of a tape or other raw block device. so you have to uncompress to stdout and pipe that directly into tar, you can't uncompress and then untar as seperate steps. to unpack the .tar.gz do this: gunzip file.tar.gz |tar xvf - to create such a tar do this: tar cvf - |gzip >file.tar.gz |
| Taz | non |
| Aschrack | bon, là maintenant j'allais uniquement faire un tar d'un dossier de 2.7 go
il fait son boulot etc... pis s'interromp et me sort " File size limit exceeded " c trop pour un tar 2.7 go? (gt mal barré alors pour en découper un de 4500 mo) |
| Aschrack | smarrant, il me sort nombre d'octet invalide
bon, ben jvais lui filer la taille en octet puisque ça le branche plus :D |
| Aschrack | zètes trop rapide pour moi :D
encore merchi |
| Aschrack | jcomprend pas pourquoi lorsque je clic sur le bouton du milieu firebird me fait tout seul des recherches
enfin, tout à fait par hasard donc je suis tombé là dessus contre mon plein gré mais bon, pour une fois ça tombe bien :D http://lists.debian.org/debian-use [...] 01504.html
|
| Taz | non :o |
| Mjules | http://forum.hardware.fr/forum2.ph [...] 405&cat=11 |
| Aschrack | ah vi, ok
donc on se contente de créer l'archive normalement et ensuite on la coupe avec un autre prog humhum on obtient des tar découpés qu'on peut extraire séparement? |
| Aschrack | dsl :( (c vrai que j'ai oublié de faire une recherche) |
| Mjules | ça a été demander ya un ou 2 jour ; en résumé : tar cv | split |
| Aschrack | voila, j'ai pas mal de données à sauver
données étant des fichiers avec des noms hyper long et une arborescence abyssale alors jme suis dit, que faire des tar avant de les graver sur dvd ça serait simpa mais comment ne pas me flinguer et demander directement à tar de me faire des tranches de 4.7 go? (je ferai bien un man mais je n'en ai pas la possibilité à l'instant même) |




