[ Orome @ 30.05.2015. 10:19 ] @
Znam koristiti mysqldump, imam i varijantu sa jednom tabelom,sa 1 bazom u 1 fajlu i svim tabelama iz baze gde je 1 tabela 1 fajl (tj. 2 fajla 1 je create a drugi data). ima li varijanta ako je dump sql npr 1GB da komandom dobijem to podeljeno na 2-3 dela gde ce okvirno imati oko 300 ili 500 MB? Da puni fajl dok ne dodje do 500 a onda prelomi u novi fajl? ne mogu to da nadjem ali taj parametar sa velicinom bi bas pomogao.
[ nkrgovic @ 30.05.2015. 13:28 ] @
A da uradis split posle? Prost split, komanda u svakom posix *nix-u i linuxu?
[ Orome @ 30.05.2015. 14:59 ] @
ne znam kako deli? nije mi vazna samo prosta podela fajla, onako mesarski, nego da se moze vratiti baza posle uredno. da li deli u pola inserta ili zavrsi taj red pa odsece ?
[ Tyler Durden @ 30.05.2015. 15:52 ] @
Dijeli na nivou fajla na veličinu koju ti odrediš, tako da poslije možeš uredno te fajlove uredno da spojiš u jedan fajl i vratiš bazu.
[ bogdan.kecman @ 30.05.2015. 16:16 ] @
ne moze mysqldump da ti napravi fajlove po 500M ... zavisi sta ti je
cilj, ako hoces da ih snimis po cd-ovima onda spakuj to i koristi neki
arhiver koji ume to da podeli po velicini koju zelis + doda neki %
recovery rekorda .. npr neki RAR i 7zip ili ...

ako ti je cilj da posle mozes lakse da vratis komad po komad zato sto
restore radis iz neke skripte pa ti je problem da pustis da skripta trci
5 dana nego bi radije parce po parce, proguglaj skriptu bigdump.php koja
jedan dump ucita i insertuje po N inserta i onda se restartuje pa krene
gde je stala, idealna za shared hosting gde ti provajder limitira koliko
dugo moze da se izvrsava neki php skript i koliko meomorije trosi

za neke druge razloge, da ne pogadjam ja sad kad ti vec nisi napisao a
kugla mi je na poliranju, pogledaj takodje:
http://www.mysqldumper.net/
https://www.percona.com/software/percona-xtrabackup
https://www.percona.com/software/percona-toolkit
[ Miroslav Strugarevic @ 30.05.2015. 17:22 ] @
Citat:
Orome:
ne znam kako deli? nije mi vazna samo prosta podela fajla, onako mesarski, nego da se moze vratiti baza posle uredno. da li deli u pola inserta ili zavrsi taj red pa odsece ?


Mozes da delis po velicini (-b) ili po broju linija (-l).

miroslav@ubuntu:~$ for x in `seq 1 10000`; do echo "Line $x" >> bigfile10klines.txt; done
miroslav@ubuntu:~$ wc -l bigfile10klines.txt
10000 bigfile10klines.txt
miroslav@ubuntu:~$ split -l 1000 bigfile10klines.txt
miroslav@ubuntu:~$ wc -l x*
1000 xaa
1000 xab
1000 xac
1000 xad
1000 xae
1000 xaf
1000 xag
1000 xah
1000 xai
1000 xaj
10000 total
miroslav@ubuntu:~$ dd if=/dev/zero of=bigfile.dd bs=1M count=500
500+0 records in
500+0 records out
524288000 bytes (524 MB) copied, 2.07509 s, 253 MB/s
miroslav@ubuntu:~$ split -b 100000000 bigfile.dd
miroslav@ubuntu:~$ ls -lh x*
-rw-rw-r-- 1 miroslav miroslav 96M May 30 09:10 xaa
-rw-rw-r-- 1 miroslav miroslav 96M May 30 09:10 xab
-rw-rw-r-- 1 miroslav miroslav 96M May 30 09:11 xac
-rw-rw-r-- 1 miroslav miroslav 96M May 30 09:11 xad
-rw-rw-r-- 1 miroslav miroslav 96M May 30 09:11 xae
-rw-rw-r-- 1 miroslav miroslav 24M May 30 09:11 xaf
[ tarla @ 30.05.2015. 18:51 ] @
Nisam siguran da može ali pogledaj i https://launchpad.net/mydumper

[ nkrgovic @ 30.05.2015. 21:44 ] @
Da si uradio man split video bi ovo sto je Miroslav napisao - da mozes da delis na cele linije. Naravno, ne moze i u bajte i u linije, ali mozes da napravi shell skriptu koja sracuna broj linija i duzinu (uradi wc -l ), pa onda podeli i da ti otprilike neku velicinu. Pri tom, vodi racuna, sql dump se jako lepo gzip-uje.

Ajde reci sta ce ti to, pa mozda dobijes i bolji/pametniji predlog? Generalno pitanja "kako da uradim X", bez onog dela "zasto" su losa pitanja - mozda ti neko da bolje resenje, ako zna ZASTO to zelis da uradis. A Bogdan je u pravu za pogadjanje: meni zena skuva sav bob koji donesem u kuci pa ni ja nemam u sta da gledam..... :( Ali bar se slatko najedem pihtija od boba :D