[ deda Miloje @ 09.03.2002. 08:39 ] @
da li mogu da skinem deo fajla na jednoj masini (npr 100Mb koliko stane na ZIPetu)
i kuci iskopiram tih 100Mb na drugu masinu i nastavim sa wget-om da skidam ??

kako napraviti 3 tar.gz fajla po 100 MB od jedog 300Mb ??
[ random @ 09.03.2002. 13:59 ] @
1) Da.

2) $ split -b 100m velikifajl.tar.gz
[ Dejan Lozanovic @ 09.03.2002. 14:19 ] @
E evo ti saljem malo programce koje pravi rupe u fajlovima, e sada kao drugi argument koristis broj bajtova koji ce se napraviti kao rupa, experimentisi sa raznim vrednostima tj pocevavaj lagano vrednosti pa gledaj duzinu fajla sa "ls -l" a ujedno prati i koliko si blokova zauzeo sa "du"
[ deda Miloje @ 09.03.2002. 15:15 ] @
h v a l a
[ Dejan Lozanovic @ 09.03.2002. 19:26 ] @
Citat:
SyStemOuT:
E evo ti saljem malo programce koje pravi rupe u fajlovima, e sada kao drugi argument koristis broj bajtova koji ce se napraviti kao rupa, experimentisi sa raznim vrednostima tj pocevavaj lagano vrednosti pa gledaj duzinu fajla sa "ls -l" a ujedno prati i koliko si blokova zauzeo sa "du"


Ja ne znam sta se desilo sa prvom porukom ali ono sto sam ja hteo da kazem, ako mozes da skines ceo fajl u celosti, onda bi mogao da sa komandom dd (vidi man dd) za detalje da podelis taj fajl na proizvoljan broj manjih fajlova.

A ukoliko ne bi mogao, onda je varijanta da probas nekako da zavaras wget da nastavi da snima nakon npr prvih 100 mb-a, jer koliko mi se cini on nezna da batali prvih npr n bajtova. E zato sam ti poslao i ono programce koje pravi rupe u fajlovima pomocu sistemskog poziva lseek. E sada ne znam da li wget mozda proverava nesto bajtova sa pocetka fajla i/ili sa kraja gde je stao pa onda eventualno da ga prvaris tako sto bi imao mali deo fajla sa pocetka i tamo gde je stao :)). I ona lepa stvar kod Unixa je sto te rupe u fajlovima ne zauzimaju fizicko mesto na disku, pa je tako npr moguce napraviti fajl duzine 100 mb na disketi od 1.44 mb :))
[ Dusan Marjanovic @ 09.03.2002. 19:54 ] @
systemout...mozda nisam najbolje shvatio sta si hteo da kazes...ali wget zna da zanemari prvin n bajtova...tj ako je url za download http://nesto.com/1.zip a ti vec imas deo tog fajla koji nosi isto to ime (1.zip) na masini, i pokrenuo si wget sa -c switchem...samo ce da nastavi prenos, naravno ako server do dozvoljava.
[ Dejan Lozanovic @ 09.03.2002. 21:28 ] @
Citat:
MAdafaKA:
systemout...mozda nisam najbolje shvatio sta si hteo da kazes...ali wget zna da zanemari prvin n bajtova...tj ako je url za download http://nesto.com/1.zip a ti vec imas deo tog fajla koji nosi isto to ime (1.zip) na masini, i pokrenuo si wget sa -c switchem...samo ce da nastavi prenos, naravno ako server do dozvoljava.

Pa ercimo da covek nema mesta na tom racunaru da skine ceo fajl ( quota ili je to neki polu-public gde ne moze da ostavi fajl na neko odredjeno vreme pa da dodje par puta po deo fajla) pa onda mora da skida samo 100 po 100 mb, mislim najelegantnije je da skine ceo fajl odjednom a posle da ga sa dd razdeli, ali ko zna kakve su muke coveku
[ deda Miloje @ 10.03.2002. 09:19 ] @
a da li ncftp moze da skida od npr. 50Mb na dalje ?

i da li mogu da fajl iz /tmp da linkujem u /var/www/htdocs/download , i ako moze how ?
[ Dejan Lozanovic @ 16.03.2002. 15:47 ] @
Citat:
deda Miloje:
a da li ncftp moze da skida od npr. 50Mb na dalje ?

i da li mogu da fajl iz /tmp da linkujem u /var/www/htdocs/download , i ako moze how ?

Pa ja koliko sam citao svaki fajl u /tmp -u bude tamo sve dok je aktivan proces koji ga je napravio, e sada da bi ga linkovao, mora pre svega /tmp i /var/www/htdocs/download budu na istom fajlsistemu(tj na istoj particiji) u protivnom je moguce napraviti samo simbolican link, a on pada u vodu cim se ugasi proces koji je napravio fajl u /tmp-u