[ komarac-pz @ 24.09.2009. 16:18 ] @
zanima me jeli tko pravio clastere to mi je za diplomski rad,nikako nemogu da spojim kompove u klaster jer ih trebam testirat, ako neko kojim slucajem ima testove ili link na kojem je objasnjeno kako da ih spojim neka ostavi link ili posalje na mail darkoga@mail.com,

mogu i gotovi testovi samo bi me zanimala konfiguracija hardwera.

spasili bi ste mi zivot jer sam teoretski dio odradio sad samo terbam prakticni.

Unaprijed zahvaljujem
[ mulaz @ 24.09.2009. 16:52 ] @
http://tinyurl.com/ydf3ae8 ? :)
[ EArthquake @ 29.09.2009. 16:21 ] @
MPI standard naravno !!!

http://www.mcs.anl.gov/research/projects/mpi/

a mozes da izguglas i gomilu tutoriala

u sustini , nikakvo podesavanje hardvera ti ne treba
sve radi preko ssh

eventualno , ako je veci klaster i ako ti treba neka vrsta time share-a
koristis dodatni server menadzer , torque recimo

pogledaj ovaj standard , potrazi par tutoriala po internetu

jedina stvar s hardverom bi bila ako nebi pravio klaster preko ethernet-a
vec preko , recimo , infiniband protokola koji je posebno dezajniran za klastere ,
ali ti za to treba posebna oprema naravno


a za testiranje , standarno je mnozenje matrica, sortiranje i sl
ili pak obrada velikog broja slika visoke rezolucije

ali , ako vec radis diplomski definitivno pogledaj MPI

to je de facto standard za klastere
[ komarac-pz @ 01.10.2009. 15:03 ] @
dali si mozda radio sa klasterima pa imas neke gotove rezultate
da ih podvalim.


[Ovu poruku je menjao Gojko Vujovic dana 01.10.2009. u 22:40 GMT+1]
[ EArthquake @ 02.10.2009. 07:12 ] @
imam ,ali krajnje specificnih
svaki od kompova u klasteru ima CUDA enabled graficku koja radi numericku integraciju , a procesori zvacu matrice

ali ne mogu da ti ih dam:) (taj rad spremam za publikaciju ..., a mozda meni bude posluzio kao bachelor rad :) )

mislim stvarno , to postavljanje i testiranje nije nikakav posao ,
mozes da nadjes vec gotove primere za ovaj MPI

mozes to da uradis za jedan vikend