[ nkrgovic @ 23.05.2020. 17:08 ] @
Povod je ovaj clanak:

https://www.nextplatform.com/2...l-be-nvidias-biggest-business/

Highlights:

- nVidia A100 cipovi izlaze na trziste, koje ima veliku potraznju za njima (integrisanim u resenjima koje nude Supermicro, Dell, HPe / Cray)
- Dodatno, nVidia prodaje cele DGX servere, po jako dobroj ceni.
- Kao sto clanak spominje, Mellanox je postao deo nVidia-e, a isti je skoro postao profitabilan.
- Pre oko mesec dana je najavljena akvizicija Cummulus Linux platforme, koja opet radi na raznim proizvodjacima.
- Hiperscalers i Cloud provajderi sve vise nude GPU-ove kako vreme prolazi.
- AI/ML trziste raste.
- Jedino nVidia, koliko vidim, ima pristojnu podrsku za Docker.
- nVidia ima svoju "cloud" platformu za gaming - GoForce Now, koja jako prija i izdavacima AAA naslova - jer nema piraterije.

Hoce li prodaja "desktop" procesora uskoro posustati? Da li ce potraznja na skupljim trzistima dovesti do pada proizvodnje za gejmere ili do skoka cena masina za "entuzijaste"?
[ Branimir Maksimovic @ 23.05.2020. 17:24 ] @
"Hoce li prodaja "desktop" procesora uskoro posustati?"

Nece.

"Da li ce potraznja na skupljim trzistima dovesti do pada proizvodnje za gejmere ili do skoka cena masina za "entuzijaste"? "

Nvidia se podigla na gejmerima, cene su vec nabiflane, no nikad se ne zna.

"nVidia ima svoju "cloud" platformu za gaming - GoForce Now, koja jako prija i izdavacima AAA naslova - jer nema piraterije."

Nisu jedini, ali svakako da ovo moze da prodje.

Za ostalo ne znam pa ne mogu da komentarisem ;)
[ Nedeljko @ 23.05.2020. 17:28 ] @
Šta je bilo sa real time ray tracing-om? Ima li toga u prodaji i da li pravi samo nVidia ili još neko?
[ Ivan Dimkovic @ 23.05.2020. 17:48 ] @
Citat:
nkrgovic
Hoce li prodaja "desktop" procesora uskoro posustati? Da li ce potraznja na skupljim trzistima dovesti do pada proizvodnje za gejmere ili do skoka cena masina za "entuzijaste"?


Sta god da se desi sa desktop procesorima i gejmerskim masinama, NVIDIA je obezbedila #1 mesto kao HPC akcelerator. Konkurencija je prakticno irelevantna zbog ogromnog jaza u dostupnosti softvera i biblioteka. AMD mozda ima relativno konkurentan hardver ali po pitanju softvera je NVIDIA godinama ispred njih.

AMD godinama pati od ovog problema. Verovatno je jedan od razloga kolicina $ koje je AMD mogao da ulozi u razvoj drajvera i softvera.

Intel takodje radi na GPU resenjima (Xe). Upitno je koliko je realno da Intel izbaci nesto sto je konkurentno NVIDIA i AMD resenjima, ali bar sto se softvera tice Intel ima mnogo jacu osnovu od AMD-a.

Sve u svemu, NVIDIA nema cega da se brine kada su naucne/industrijske upotrebe u pitanju.

@Nedeljko,

Real-time "ray tracing" je hype bar sto se prve generacije (Turing) tice. Performanse su takve da se RT koristi samo kao metod za poboljsanje kvaliteta scena u AAA igricama. Neko renderovanje scena filmskim kvalitetom u realnom vremenu je i dalje prilicno daleko. Ampere ce svakako doneti poboljsanja, ali performanse koje bi ti bile potrebne za fotorealisticno renderovanje komplikovanih scena su i dalje nedostizne za 60 FPS.
[ mjanjic @ 23.05.2020. 18:06 ] @
RTX?

Još uvek je to mnogo para, a mislim da nije toliko važno u igrama (osim ako ti se baš hoće i imaš para), mada bi RTX2070 trebala da bude od 500 do 600$, dok je RTX2080 od 1000 do 1200$ za Founders Edition, ali znamo svi kakve su cene u radnjama.

Za rendering u 3D programima takođe doprinosi značajno, bar je tako u nVidia demo prikazima od pre godinu dana, dokle se stiglno ne znam, valjda je krajem prošle godine Autdesk izbacio Maju i Arnolda sa podrškom za RTX, koliki je doprinos mogao bi da kaže neko ko koristi tu kombinaciju softvera i hardvera (na Youtube nikad niste sigurni da li je neko sponzorisan ili je stvarno odradio realan prikaz).
[ ademare @ 23.05.2020. 18:18 ] @
Osim Nvidie , za igranje na trziste ocigledno ulazi i AMD .

Nova MS-ova X-Box konzola za koju AMD pravi procesor i grafiku , najverovatnije kao APU , imace RT.

Samim tim moze se ocekivati da AMD to resenje kasnije mozda i krajem godine ponudi i na PC trzistu .
[ nkrgovic @ 23.05.2020. 21:31 ] @
Citat:
Branimir Maksimovic:
"Hoce li prodaja "desktop" procesora uskoro posustati?"

Nece.

"Da li ce potraznja na skupljim trzistima dovesti do pada proizvodnje za gejmere ili do skoka cena masina za "entuzijaste"? "

Nvidia se podigla na gejmerima, cene su vec nabiflane, no nikad se ne zna.

"nVidia ima svoju "cloud" platformu za gaming - GoForce Now, koja jako prija i izdavacima AAA naslova - jer nema piraterije."

Nisu jedini, ali svakako da ovo moze da prodje.

Zapravo, si kontradiktoran. :) Ako GeForce Now nastavi da raste, GPU na desktopu ce postati suvisan, bar za one koji igraju legalne igre. To ce dovesti do nekog pada potraznje sto, uz malo lobiranja, moze lako da dovede do drasticnog pada cena - koje ce obesmisliti GPU na desktopu. Tu svi mogu da dobiju:

- nVidia dobija jer sve jedno uzima pare, i to jos na pretplatu.
- Veliki provajderi dobijaju dodatnu traznju (mada je GeForce now upotrebljiv vec sa 15-20Mbit/s)
- Gejming industrija dobija jer se ubija piraterija

Jedini ko gubi su oni koji igraju piratske igrice, ali mislim da je to i cilj.... Ako platforme nastave vrlo je moguce da ce neki naslavi biti GeForce Now ekskluziva - cisto da bi time obezbedili da se ne piratuje. Ovo seli GPU-ove u, pogodio si, DC. Naravno, kad je GPU u DC-u, lako se prebaci i za druge namene.
[ nkrgovic @ 23.05.2020. 21:33 ] @
Citat:
ademare:
Osim Nvidie , za igranje na trziste ocigledno ulazi i AMD .

Nova MS-ova X-Box konzola za koju AMD pravi procesor i grafiku , najverovatnije kao APU , imace RT.

Samim tim moze se ocekivati da AMD to resenje kasnije mozda i krajem godine ponudi i na PC trzistu .

Kao i stara, kao i PS4 i PS5 . :)

Ali pitanje je koliko je to cilj, kao i da li tu ima Sony / Microsoft propriatery tehnologija, ili samo ugovora koji bi to sprecili. Verujem da bi Microsoft rado video Azure varijantu umesto GeForce Now, a da se ni AMD ne bi gadio da, umesto gejmerima u nepoznatim kolicinama, ima predvidljiv ugovor za Azure. Posebno sto MS moze u ponudu da ubaci razvojni tim koji bi pomogao AMD-u da sustinge nVidia-u koja, kao sto Ivan rece, ima OGROMNU prednost u data center i scientific trzistima.
[ nkrgovic @ 23.05.2020. 21:35 ] @
Citat:
Ivan Dimkovic:
Sta god da se desi sa desktop procesorima i gejmerskim masinama, NVIDIA je obezbedila #1 mesto kao HPC akcelerator. Konkurencija je prakticno irelevantna zbog ogromnog jaza u dostupnosti softvera i biblioteka. AMD mozda ima relativno konkurentan hardver ali po pitanju softvera je NVIDIA godinama ispred njih.

Ja probam da napomenem, nVidia sada je i Mellanox (sa sjajnim 25Gbit/100GBit/400GBit switchevima i prakticnim monopolom na InfiniBand), kao i, od skora, Cummulus Linux. nVidia raste na DC trzistu i horizontalno.
[ Nedeljko @ 23.05.2020. 21:40 ] @
Pa, sad, ako tvrde da imaju real time ray tracing, a nemaju ga, to je prevara, koja bi morala da bude kažnjiva. Zna se vrlo dobro šta znači real time i šta znači ray tracing i šta znači da je to onaj video sa reklame.
[ ademare @ 24.05.2020. 00:19 ] @
Ja nisam bas neki poznavalac RT , ali ovako kao pratilac zbivanja mogu da napisem nesto o tome .

Prvo su GPU godinama imali tzv. Fiksnu Pipeline arhitekturu . Pixel sejder , vertex sejder , Texturne jedince i ROP . Kasnije je prvi tada ATI napravio za MS X-box 360 novu arhitekturu , koncepcijski novu arhitekturu , gde umesto Pixel i Vertex shejdera , postoje samo Unified-Junifajd sejderi koji po potrebi obavljaju jednu od ove dve funkcije , njihov odnos nije fiksan kao nekada .

AMD je tu koncepciju zadrzao sve do danas u svakoj mikroarhitekturi GPU-a .

Nvidia je u za sada najnovijoj na trzistu Turing , osim ova tri dela dodala i Tensor jezgra i RT jezgra . To je serija 20XX . Kasnije su videli da RT bas i nece zaziveti masovno , pa su izbacili seriju GPU 16XX gde su RT jezgra iskljucena kao i Tensor jezgra.

Tako da oni imaju RT jezgra fizicki u karticama 20XX . Mada se ispostavilo kako sam i pisao ranije da to nece zaziveti masovno , u tim starim postovima sam to uporedio sa Nvidia PhysX koji su oni u startu forsirali , kao hardverski akcelerator . Ali to nije bas tako zazivelo kako su oni zamisljali . Sada je to Open source .
[ Ivan Dimkovic @ 24.05.2020. 02:08 ] @
Citat:
Nedeljko:
Pa, sad, ako tvrde da imaju real time ray tracing, a nemaju ga, to je prevara, koja bi morala da bude kažnjiva. Zna se vrlo dobro šta znači real time i šta znači ray tracing i šta znači da je to onaj video sa reklame.


Odlican, ko te ne zna pomislio bi da si ozbijan :-)

Za ljude koji nisu pratili tehnike renderovanja, glavna stvar koju su ljudi ukapirali radeci na Ray Tracing algoritmima je: slanje zraka "iz kamere" je ekvivalentno slanju zraka "ka kameri".

Kljucna razlika je sto ako saljemo zrake "iz kamere" dobijamo jako puno na brzini, zato sto bi se inace nacekali da slucajno razbacani zraci pogode svaki piksel "kamere". Ovako mi kontrolisemo zrake tako sto cemo pokriti svaki piksel kamere u prvom prolazu.

Na zalost, slanje zraka "iz kamere" otvara novi problem: Kako bi postigli ekvivalenciju ili bar uporediv rezultat sa slanjem zraka "u kameru", prilikom svakog odbijanja moramo "lansirati" novi zrak (drzimo se odbijanja, da ne komplikujemo puno). Kad taj zrak udari u nesto, lansiramo sledeci i tako dalje. Posto smo okrenuli stvari naopako, mi smo ti koji odlucujemo dokle ovaj proces moze da ide.

Pitanje je: koliko je potrebno ici u "dubinu" tj. kada je OK stopirati proces emitovanja novih zraka prilikom sudara sa objektima?

Prvih nekoliko koraka prave najvecu razliku (ko je eksperimentisao moze videti kako nastaju "mekane" senke). Posle nekog vremena uticaj na rezultat postaje zanemarljiv, ali broj moze biti prilicno rastegljiv. Kao sto se moze pretpostaviti, varijacije u "dubini" prave enormnu razliku u performansama. Za neke scene vrlo lako moze doci do eksplozije u kompleksnosti. Teski frejmovi renderovani za holivudsku produkciju bivaju generisani citav dan (!).

Tako da, "sta je ray tracing" je jasno, ali sta se smatra za prihvatljivo sto se kvaliteta tice je vrlo rastegljiv pojam.

NVIDIA koristi meru "broj zraka u sekundi". Turing (RTX) arhitektura donosi ~8x ubrzanje u odnosu na Pascal.

Quadro RTX 8000, NVIDIA tvrdi, moze da se nosi sa 10 Giga Zraka / sec. OK. Hajde da vidimo sta to znaci:

- Uzmimo 3840x2160 (4K) kao referentnu rezoluciju, 60 frejmova u sekundi
- Samo za prvi prolaz (12od kamere do prvog objekta) pricamo o 0.124 "Giga Zraka" (stagod) u sekundi
- Ovo nam daje ~0.5 "Giga Zraka" (stagod) po sekundi
- Sa RTX 8000, dakle, imamo mogucnost da "lansiramo" 20 zraka po pikselu u proseku ako zelimo da render bude u realnom vremenu

Takodje, sa ovim smo tek zagrebali povrsinu. Ray Tracing u klasicnom smislu obicno nije ono sto se zeli. Ray Tracing ne resava problem globalne iluminacije kao sto ni ne modelira razne efekte koji su primarno vezani za ponasanje fotona.

Za ovo je potrebno unaprediti RT algoritme, recimo sa mapiranjem fotona. Na zalost, mapiranje fotona zahteva nezavisne prolaze za RT kao i za izvore svetlosti (gde se "zraci" ispucavaju od izvora svetlosti). Ima i drugih popularnih algoritama, ali se svi oni zasnivaju na ispucavanju dodatnih zraka, ovog puta vezanih za izvore svetlosti.

20 sekundarnih zraka zvuci kao puno, ali zapravo nije. Ako zelimo foto-realizam, moramo ukljuciti i globalnu iluminaciju i modelirati jos fenomena.

Takodje nista nismo rekli ni o kompleksnosti same scene, optimizacijama sa "paketima" zraka i sl.

NVIDIA RTX je svakako impresivna stvar (do skoro smo pricali o nekoliko stotina miliona zraka / s kao nekom uspehu, sad pricamo o 10 milijardi zraka / s), ali to je i dalje nedovoljno za holivudski kvalitet rendera. Da stvar bude jos komplikovanija - gomila efekata koji se danas prave sa shader trikovima bi morali da se oponasaju "grubom silom" u Ray Tracing izvedbi. Samo to ce da pojede nekoliko RTX "budzeta" od 20 zraka po pikselu.

Citat:
ademare
Prvo su GPU godinama imali tzv. Fiksnu Pipeline arhitekturu . Pixel sejder , vertex sejder , Texturne jedince i ROP . Kasnije je prvi tada ATI napravio za MS X-box 360 novu arhitekturu , koncepcijski novu arhitekturu , gde umesto Pixel i Vertex shejdera , postoje samo Unified-Junifajd sejderi koji po potrebi obavljaju jednu od ove dve funkcije , njihov odnos nije fiksan kao nekada .

AMD je tu koncepciju zadrzao sve do danas u svakoj mikroarhitekturi GPU-a .


?? Sa FFP AMD ne bi mogao da podrzi bilo sta iole moderno od DX/GL/Vulkan funkcija.

FFP je "emuliran" izvrsavanjem specificnih shader programa na fleksibilnim jedinicama za racuanje. AMD to ima jos od R600.
[ Branimir Maksimovic @ 24.05.2020. 05:45 ] @
"Zapravo, si kontradiktoran. :) Ako GeForce Now nastavi da raste, GPU na desktopu ce postati suvisan, bar za one koji igraju legalne igre. To ce dovesti do nekog pada potraznje sto, uz malo lobiranja, moze lako da dovede do drasticnog pada cena - koje ce obesmisliti GPU na desktopu."

Mislim da igranje na cloudu nikako nece dovesti do pada potraznje GPU na desktopu samo ce povecati masu igraca. Pitaj me kako znam? ne znam :P imam osecaj ;)
[ ademare @ 24.05.2020. 10:34 ] @
Citat:
Ivan Dimkovic:
Citat:
ademare
Prvo su GPU godinama imali tzv. Fiksnu Pipeline arhitekturu . Pixel sejder , vertex sejder , Texturne jedince i ROP . Kasnije je prvi tada ATI napravio za MS X-box 360 novu arhitekturu , koncepcijski novu arhitekturu , gde umesto Pixel i Vertex shejdera , postoje samo Unified-Junifajd sejderi koji po potrebi obavljaju jednu od ove dve funkcije , njihov odnos nije fiksan kao nekada .

AMD je tu koncepciju zadrzao sve do danas u svakoj mikroarhitekturi GPU-a .


?? Sa FFP AMD ne bi mogao da podrzi bilo sta iole moderno od DX/GL/Vulkan funkcija.

FFP je "emuliran" izvrsavanjem specificnih shader programa na fleksibilnim jedinicama za racuanje. AMD to ima jos od R600.


Verovatno si bio malo pospan kada si pisao Post

U delu koji si citirao ne pise da danas AMD koristi FFP ?! Nikako .

Pise da je ATI tada se firma tako zvala , kasnije ce je kupiti AMD , koji ce 2 godine zadrzati ime ATI , posle toga samo AMD ! Znaci ATi jos 2005 za X-Box 360 uvodi Unified sejdere .

Znaci u pasusu se prvo pominje FFP . Posle se na kraju istog Pasusa pominje Unified microarhitektura .

U sledecem pasusu pise da je taj koncept zadrzao do danas !

Tako da je logicno da posto postoji vremenska gradacija i da se prvi Pasus odnosi na dva koncepta , da konstatacija iz drugog se odnosi na zadnji deo prvog .

Prva PC serija je 2XXX sa procesorom koji i ti pominjes . Nigde u mom postu ne pise drugacije . Mada je meni bilo ocigledno , vidim da nekako Uvrnuto moze neko da razume i drugacije od onoga sto pise ?
[ bojan_bozovic @ 24.05.2020. 10:59 ] @
Citat:
Prvo su GPU godinama imali tzv. Fiksnu Pipeline arhitekturu . Pixel sejder , vertex sejder , Texturne jedince i ROP . Kasnije je prvi tada ATI napravio za MS X-box 360 novu arhitekturu , koncepcijski novu arhitekturu , gde umesto Pixel i Vertex shejdera , postoje samo Unified-Junifajd sejderi koji po potrebi obavljaju jednu od ove dve funkcije , njihov odnos nije fiksan kao nekada .

AMD je tu koncepciju zadrzao sve do danas u svakoj mikroarhitekturi GPU-a .


Dobro, da li je zadrzao staru arhitekturu tj. koncept, sto drugi pasus kaze, ili je presao na novu sto pre toga tvrdis? Odluci se.
[ ademare @ 24.05.2020. 11:05 ] @
Au bre pa ovo visa matematika

Ima 3 koncepta microarhitekture . Nvidia ima najnoviju .

AMD-ove su sve STARE ! Samo je jedna od Dve Stare, Starija !

Ne mislis valjda da je nesto sto je uvedeno 2005 , za PC 2007 moderno i Novo ?
[ Ivan Dimkovic @ 24.05.2020. 12:07 ] @
AMD-ova "mikroarhitektura" za GPU je VLIW jos od TeraScale. Shaderi su kompletno programabilni od tada, uostalom pogledaj insrukcijski set.

U svetu 3D grafike, FFP je vrlo jasno definisan kao skup IP blokova koji obavljaju operacije nad geometrijom i pikselima. FFP funkcije su opisane, na primer, OpenGL API-jima pre shader-a. Glavna odlika FFP-a je fiksirana funkcionalnost - FFP ne moze da izvrsava proizvoljni kod, vec iskljucivo funkcije definisane, npr. OpenGL 1.x i 2.x standardima.

AMD je odavno batalio FFP pristup, bas kao i NVIDIA (koja jeste bila par godina ispred u vreme Tesla arhitekture. GTX 8800 je bukvalno transformisala industriju).

Naaravno, sve kartice i dan danas mogu da izvrsavaju matori FFP kod.

Ali to rade tako sto ucitaju shader-e koji implementiraju matore OpenGL i DirectX API-je. Sam hardver pojma nema da li izvrsava pseudo "FFP" kod ili bilo koji drugi.
[ Nedeljko @ 24.05.2020. 14:10 ] @
Ivane,

Bio sam potpuno ozbiljan. Za ispaljivanje zraka iz kamere sam znao i ja još 90-tih, kao i za dubinu iračunavanja (broj odbijanja). Bila je neka knjiga "Visual Basic - programiranje grafike" u kojoj je to bilo lepo objašnjeno sa primerom gde imaš u nekoj tački beskonačan broj odbijanja i u njenoj okolini je renderovanje bilo sporo.

Međutim, to su tamo bila ogledala, koja imaju idealnu refleksiju. U stvarnosti se energija fotona gubi prilikom svakog odbijanja, tako da posle nekoliko komada to praktično i nema uticaja.

Ne znam koje su to složene scene (jer ne igram video igre), ali mogu da zamislim krošnju drveta kao jednu od složenijih (gde se ipak brzo izgubi energija fotona od odbijanja) ili neki oblak, za koji pretpostavljam da je stvarno zaguljen za ray tracing (a postoje specijalni efekti nalik oblaku da bi se dočarala nekakva čarolija) ili ekploziju, za koju pretpostvljam da je takođe jako teška za ray tracing.

U svakom slučaju, u onom videu nema ni oblaka, ni eksplozija, tako da bi trebalo da isporučuju real time ray tracing za takve slučajeve.

Evo šta je 1992 renderovao 486 ray tracing metodom, malo manje od mesec dana (bilo je predavanje na Matematičkom fakultetu u Beogradu), što je tada urađeno kod nas.

[ ademare @ 24.05.2020. 15:00 ] @
Evo na ovom linku imas kako to izgleda u igrama . Filmovi su sa YT , vecinom zvanicni Nvidia filmovi. U nekima ima On , Off gde pokazuju razliku .

U sustini nekoliko najpopularnijih igara imaju " patch " za RT .

https://www.digitaltrends.com/...es-support-nvidia-ray-tracing/

Prvi film nije RT , vec poredjenje Free Sync i G-Sync .

U clanku pise ukupno 14 igara podrzava RT, sto za karticu koja se prodaje 1.5 godinu je jako malo .
[ Branimir Maksimovic @ 24.05.2020. 15:18 ] @
"U clanku pise ukupno 14 igara podrzava RT"

Pa ako mora da se radi oko toga, veca dara nego mera, tim pre sto se onda
ogranicavaju na Nvidije i to samo zadnju generaciju. Za jedno 2-5 godina mozda
bude vise....
[ Ivan Dimkovic @ 24.05.2020. 17:03 ] @
@Nedeljko,

Krosnja drveta i sl. objekti sa gomilom poligona nisu problem za RT. Veci broj poligona ima neki merljivi uticaj na kompleksnost ali je to kontrolisano tehnikama podele prostora u regione (BVH npr.) - kad radis testove da li zrak "udara" neki trougao, proveravaces samo trouglove u regionima kroz koje zrak prolazi.

Efikasna vokselizacija tipa BVH drasticno smanjuje broj operacija koje moras da izvedes i sprecava eksploziju u kompleksnosti dodavanjem novih geometrijskih detalja.

Veci problem za RT su "meke" senke, prelamanje i svetlosni efekti (tipa oponasanje koze) - ove stvari zahtevaju gomilu novih zraka ako zelis foto realizam. Spica dnevnika RTS je relativno lak problem koji bi danas mogao da renderujes u realnom vremenu i na nekom procesoru sa puno jezgara. Da je neko dodao prozore, vise izvora svetlosti ukljucujuci i ambijentalno i eventualno neko ljudsko lice, stvari bi postale malo komplikovanije.

Uzmi npr. kozu koja je solidan problem za CGI - u principu nema prepreka da simuliras kozu sa "grubom silom", ali ce te to kostati puno novih zraka kako bi izasao na kraj sa rasejavanjem ispod povrsine, Fresnelovim efektima itd. Dodaj na to globalnu iluminaciju (jos jako puno novih zraka).

Slican problem ces imati sa drugim "prirodnim" objektima tipa vocem/povrcem, vegetacijom i sl. Zbog toga su rani Ray Tracing demonstratori koristili staklene ili gvozdene kugle na sahovskim tablama. To je bukvalno najlaksi scenario. Takodje se lepo podudarilo da su tadasnji metodi rasterizacije imali problem sa oponasanjem odbijanja zraka.

Ali cim krenes da trazis komplikovanije materijale i hoces da i svetlo bude verodostojno ulazis u kompletno novu teritoriju sto se tezine tice.
[ Nedeljko @ 24.05.2020. 17:07 ] @
"Problem" kod krošnje je veći broj odbijanja po zraku, ali se prilikom tih odbijanja energija fotona troši, tako da ne mora mnogo da se razmatra u dubinu.

Podržava ga Fritz 17 šahovski program zajedno sa Fat Fritz modulom, zasnovanim na neuronskoj mreži, koji najbolje rezultate daje sa nVidia RTX 2080 karticom.

Možeš ti da teraš Fritz 17 i bez toga, ali ćeš najbolje rezulate doboto tako. Verovatno je tako i sa video igrama. Utopi se apstrakcija u Game Engine i onda teraj po tome.
[ Ivan Dimkovic @ 24.05.2020. 17:51 ] @
@Nedeljko,

Zavisi koliko zelis da proces bude fotorealistican.

Ako zelis da tretiras listove komplet, onda moras uzeti u obzir da listovi, takodje, propustaju svetlo plus, naravno, imas i ostale komplikacije kao sto je rasejavanje zraka unutar samog lista.

Dodaj na to i kojekakve smole, vodu i sl. koji imaju uticaj na to kako ce list izgledati.

[ nkrgovic @ 24.05.2020. 18:29 ] @
Citat:
Branimir Maksimovic:
Mislim da igranje na cloudu nikako nece dovesti do pada potraznje GPU na desktopu samo ce povecati masu igraca. Pitaj me kako znam? ne znam :P imam osecaj ;)

Ja nekako mislim da se nVidia-i vise svidja da naplacuju pare svaki mesec, nego da prodaju jednu karticu, pa onda nista godinama. Dodaj tu da sad nVidia ima jako znacajan uticaj na mreznu inftrastrukturu vecih provajdera (Mellanox u top 5) i supperracunara (Mellanox je verovatno br. 1 za supercomputing networking, po prodaji), pa ces videti sta ih zanima - bukvalno su 'put their money where there mouth is".

Naravno, sta se proizvodi se pitaju i proizvodjaci igara, ali nekako mi se cini da su i oni zainteresovani za varijantu "ne mozes da piratujes" onako, prilicno..... Mnogo pogleda iz perspektive "zivim u Srbiji" deluju logico, ali nisu - jer oni koji ne zive u Srbiji mnogo lakse odvoje 5$ mesecno za Now Premium account, a i mnogo lakse dobiju low latency net.

Videcemo, meni se cini da ce za par godina nVidia da se presalta mnogo vise na datacentar primene. Cak i da se "samo" nastavi rast as-is, njihov kombinovani DC portfolio ce prerasti gaming - i to bez Cummulus-a. Ako se gaming preseli bar delimicno na cloud, to ce se samo ubrzati.
[ Ivan Dimkovic @ 24.05.2020. 19:09 ] @
Ne brinem se ja za gejmersko trziste - neko mora da kupi i skartove.

Cak i najskuplje GTX varijante obicno nemaju sve SM-ove u odnosu na Quadro/Tesla modele. Iako je NVIDIA presla na koriscenje manjeg jezgra (*02) za najjace gaming modele i dalje je to veliki cip sa velikom sansom da nije 100% funkcionalan.

Eventualno na kraju ciklusa NVIDIA izbaci neki Titan Sega Mega model koji ima celo *02 jezgro ("big" *00 jezgro i ne ulazi u razmatranje, Titan V je bio jedini izuzetak u proteklim godinama). A i taj Sega-Mega model prave da rasprodaju zaostale cipove posto HPC kupci Tesla modela u tom momentu vec prelaze na sledecu generaciju.

Jasno je i da ce za nekoliko godina glavni izvor prihoda NVIDIA-i biti serversko / HPC trziste. Trziste gde mozes da prodas GPU za $10K ili da naplacujes ekstra za "cloud" licence.
[ Nedeljko @ 24.05.2020. 19:43 ] @
Ako Linux drži 100% HPC tržišta, a nVidia izbacuje Linux drajvere, kako će to da ostvaruje prihode od HPC-a i kako da im naplaćuje to masno?
[ ademare @ 24.05.2020. 19:58 ] @
Evo zanimljivog linka , Nvidia je pre neki dan objavila prihode . Oni ne idu kao Intel i AMD , kalendarski po kvartalima , vec su ovo podaci Q1 Fiskalne 2021 .

Podaci su Extra i pokazuju snagu Nvidie . U mnogim oblastima imaju rast a u oblasti Data Center i 80 % !

https://nvidianews.nvidia.com/...-for-first-quarter-fiscal-2021
[ Ivan Dimkovic @ 24.05.2020. 20:22 ] @
Citat:
Nedeljko:
Ako Linux drži 100% HPC tržišta, a nVidia izbacuje Linux drajvere, kako će to da ostvaruje prihode od HPC-a i kako da im naplaćuje to masno?


? NVIDIA izbacuje redovno Linux drajvere. Jedini problem je sto su binarni sto zahteva rekompajliranje od strane NVIDIA-e. Sumnjam da neko u HPC industriji ima poseban problem sa tim.

Sto se masnog naplacivanja tice, to ce biti uradjeno sa hardverom. Ako ti treba NVIDIA kartica za servere, pripremi se da platis nekoliko puta vise nego za gejmersku karticu.

NVIDIA ce uciniti sve da ti zakomplikuje pokusaje koriscenja gamerskih kartica - prvo konektori za napajanje nece biti na dobrom mestu i sistem hladjenja nece biti uopste optimalan za serverske kutije.

Ako te to nije sputalo, EULA koja zabranjuje koriscenje GeForce drajvera u datacentru (osim ako ne rudaris cryptocoin-e :-) ce ti dodati jos jednu komplikaciju. Nece te NVIDIA juriti kao pojedinca, ali kao firmu koja pruza neki servis, nije iskljuceno (znam za slucaj firme koja se bavi pruzanjem gaming servisa, imali su prijatne razgovore sa NVIDIA pravnicima).

Nije nikakav problem, V100 moduli su tu negde oko $10K :-)

NVIDIA uziva margine iz Intel zlatnog doba. Samo, za razliku od Intela, NVIDIA nema konkurenciju trenutno pa ne mora da sece cene na pola kao Intel.

AMD je irelevantan, nemaju ni delic softvera i biblioteka potrebnih za HPC/AI. Intel u teoriji moze da raspise softver ali dosadasnji pokusaji ulaska u GPU trziste su im se zavrsavali lose. Doduse sad imaju Raju i Jim K.-a.
[ nkrgovic @ 24.05.2020. 20:32 ] @
Intel je, po meni, ozbiljnija konkurencija. Altera IP, mogucnost da se deo toga integrise u Xeon, plus igracke kao Optane cine intel jako konkurentnim. Ono sto ne moze da ponudi CPU hardverom intel moze da proba da nadoknadi softverom i FPGA-ovima.... Za sada nije bilo potrebe, ali sad su margine pale i intel ima potencijalnih problema u buducnosti. Sigurno nece cekati da im iskoci drugi problem.

Prednost nVidia je Mellanox, to je odlican biznis, sam po sebi - i kupili su ga kad treba, tj. bas kad je postao profitabilan.
[ Nedeljko @ 24.05.2020. 20:59 ] @
Citat:
Ivan Dimkovic: ? NVIDIA izbacuje redovno Linux drajvere. Jedini problem je sto su binarni sto zahteva rekompajliranje od strane NVIDIA-e. Sumnjam da neko u HPC industriji ima poseban problem sa tim.

Znam da su binarni i nije to problem, nego je nVidia više puta kukala kako će obustaviti pravljenje Linux drajvera (mislim da su to najavljivali i za ovu godinu).

Bilo je i ovo

[ Ivan Dimkovic @ 24.05.2020. 21:44 ] @
@Nedeljko,

Mozda su mislili na potrosacke (gamerske) kartice. To bi mozda i imalo neke logike.

Za serverske / HPC proizvode to bi bilo samoubistvo, posto vecina HPC i ML sistema trci Linux. Sumnjam da bi NVIDIA sekla granu na kojoj sedi.

Sta god Linus mislio o njima :-)
[ Branimir Maksimovic @ 24.05.2020. 22:08 ] @
Citat:
Nedeljko:
Citat:
Ivan Dimkovic: ? NVIDIA izbacuje redovno Linux drajvere. Jedini problem je sto su binarni sto zahteva rekompajliranje od strane NVIDIA-e. Sumnjam da neko u HPC industriji ima poseban problem sa tim.

Znam da su binarni i nije to problem, nego je nVidia više puta kukala kako će obustaviti pravljenje Linux drajvera (mislim da su to najavljivali i za ovu godinu).

Bilo je i ovo



Sada prvi put cujem za tako nesto. Nvidia je rekla da nece da podrzi Wayland, pa je posle podrzala, ali sad nece da podrzi XWayland pa tako
za sada nema igranja pod Waylandom sa Nvidia kartama.
[ Texas Instruments @ 24.05.2020. 22:38 ] @
Citat:
Ivan Dimkovic:
AMD je irelevantan, nemaju ni delic softvera i biblioteka potrebnih za HPC/AI. Intel u teoriji moze da raspise softver ali dosadasnji pokusaji ulaska u GPU trziste su im se zavrsavali lose. Doduse sad imaju Raju i Jim K.-a.

Sudeci po nekim benchmarcima Raja i Jim nisu bas usrecili Intel za sada. :)

https://www.techradar.com/news...md-have-nothing-to-worry-about
[ Ivan Dimkovic @ 24.05.2020. 23:57 ] @
Zakljucak: GPU razvoj je tezak :-)

Ni Apple nije poceo od nule nego su godinama koristili ImgTech PowerVR IP. Mislim da ga i dalje koriste.
[ mjanjic @ 25.05.2020. 02:26 ] @
nVidia Tesla kartice čak kupuju na Zapadu univerziteti i instituti upravo zbog zakonskih "problema" sa drajverom, tj. pri instalaciji drajvera za GTX/RTX grafičke u EULA piše da je zabranjeno da se instaliraju na "NNNNNNNNNN" (ne sećam se tačno šta, ali u principu ne možeš RTX da staviš čak ni u običan računski centar u serversku mašinu i omogućiš zaposlenima korišćenje resursa te kartice za neke kripto algoritme, rendering niti bilo šta drugo.

Sad ne znam kako to funkcioniše u praksi, evo npr. ovde imaju na nekoj mašini u "magacinu" 4 GeForce GTX Titan kartice: https://youtu.be/7U-RbOKanYs?t=166

Međutim, ovo je snimak iz 2016. godine, a nVidia je ažurirala EULA 2018. godine tako da je, između ostalog:
Citat:
“No Datacenter Deployment. The software is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted.”

Citat:
“GeForce and Titan GPUs were never designed for data center deployments with the complex hardware, software, and thermal requirements for 24x7 operation, where there are often multi-stack racks.

“To clarify this, we recently added a provision to our GeForce-specific EULA to discourage potential misuse of our GeForce and Titan products in demanding, large-scale enterprise environments.”

A spokesperson added: “We recognize that researchers often adapt GeForce and Titan products for non-commercial uses or other research uses that do not operate at data center scale. Nvidia does not intend to prohibit such uses.”

Izvor: https://www.datacenterdynamics...a-to-prohibit-data-center-use/


Tu je problem što nVidia nije jasno specificirala šta je "datacenter use", pa praktično može da bude, kao što neki tumače na internetu:
Citat:
Almost any non-personal use can be construed as ‘datacenter’ use, which include VMs being run by hosting providers


Dakle, po novom EULA čak i slučaj sa prethodnog videa je praktično zabranjen, i dozvoljeno je praktično samo imati takvu mašinu kojoj se pristupa direktno ili je može preko udaljenog pristupa istovremeno koristiti samo jedna osoba. Kod njih je u pitanju mašina koju opisuju ovde: https://www.youtube.com/watch?v=RG2Z7Xgthb4

Rezultat je da za određene primene morate kupiti karticu koja je 5-6 puta skuplja iako vam nije potrebna. Kome je potrebna kartica sa 24GB ili više video memorije, u redu, nema izbora, ali kome je dovoljna RTX 2080 Ti sa 11GB memorije za neki AI, može je koristiti samo na personalnom računaru/radnoj stanici, a za postavljanje na bilo kakav server sa deljenim pristupom mora da se kupi nekoliko puta skuplja kartica.


Ukratko, jednom rečenicom vas proizvođač ograničava kako ćete koristiti njegov hardver.
Kao kad bi vas proizvođač automobila ograničio da njegov auto koristite na reli trkama (čak i bez bilo kakvih izmena), nego morate od njih da kupite model sa malo drugačijim branicima i gumama po 5x većoj ceni.
[ Nedeljko @ 25.05.2020. 04:19 ] @
Ako nVidia nije jasno definisala šta je "datacenter use", to može da bude samo na njenu štetu.

Postoji pravno načelo da ako postoji više pravnih mogućnosti (a sud procenjuje da li je tako i koje su to pravne mogućnosti), onda se primenjuje ona koja je najpovoljnija po optuženog. Optuženi ima jednostrano pravo da od svih pravnih mogućnosti izabere onu koja mu najviše odgovara. Tužilac nema to pravo.

Dakle, ako je EULA nejasna i može se protumačiti u korist optuženog, tako će se i protumačiti.
[ nkrgovic @ 25.05.2020. 10:24 ] @
Citat:
mjanjic:
Dakle, po novom EULA čak i slučaj sa prethodnog videa je praktično zabranjen, i dozvoljeno je praktično samo imati takvu mašinu kojoj se pristupa direktno ili je može preko udaljenog pristupa istovremeno koristiti samo jedna osoba. Kod njih je u pitanju mašina koju opisuju ovde: https://www.youtube.com/watch?v=RG2Z7Xgthb4

Rezultat je da za određene primene morate kupiti karticu koja je 5-6 puta skuplja iako vam nije potrebna. Kome je potrebna kartica sa 24GB ili više video memorije, u redu, nema izbora, ali kome je dovoljna RTX 2080 Ti sa 11GB memorije za neki AI, može je koristiti samo na personalnom računaru/radnoj stanici, a za postavljanje na bilo kakav server sa deljenim pristupom mora da se kupi nekoliko puta skuplja kartica.


Ukratko, jednom rečenicom vas proizvođač ograničava kako ćete koristiti njegov hardver.
Kao kad bi vas proizvođač automobila ograničio da njegov auto koristite na reli trkama (čak i bez bilo kakvih izmena), nego morate od njih da kupite model sa malo drugačijim branicima i gumama po 5x većoj ceni.

nVidia je, takodje, jedini proizvodjac hardvera koji podrzava da Docker koristis sa --gpu. Dok se to ne promeni, nVidia ce super uspesno da gura dev masine sa nVidia grafikom. Ovo je jedan od razloga zasto ja ocekujem poskupljenje nVidia karti - sve vise developera ima potrebu da tera kontejnere koji vrte TensorFlow za neki AI/ML pipeline. Cinjenica da samo deo ljudi to pise ne menja cinjenicu da vecini treba da se dignu svi kontejneri, bar po jedan, za razvoj/test. Ovo je primena za cisto desktop kartice, ali je ogromno trziste za nVidia-u - ne samo po brojkama (broj developera je manji nego broj ljudi koji igraju igre), vec po novcu: Neko ko hoce da se igra, samo hoce da se igra i, ako mu omogucis da kupi konzolu, zakaci na TV i igra AAA naslove za PC kroz cloud jevtino (a jesi, kroz GeForce Now), on moze da bude OK sa tim (nece svi, ali neki hoce). Developeri imaju mnogo realniju potrebu, oni moraju da rade i platice dosta vise nego "igraci".

To koliko je to "losa ideja" mozete zakljuciti po tome da je GeForce Now rasprodat. :) Ne moze da se kupi trenutno. Ne mislim da nVidia nece imati kome da proda skartove, plasim se da ce biznis primene, kako god ih klasifikovao, pokupovati sve skartove. :)
[ Branimir Maksimovic @ 25.05.2020. 11:50 ] @
Nikola:"Ovo je jedan od razloga zasto ja ocekujem poskupljenje nVidia karti - sve vise developera ima potrebu da tera kontejnere koji vrte TensorFlow za neki AI/ML pipeline."

Ako mislis da ce potraznja znacajno rasti u ovom segmentu zbog toga, moguce je. Samo treba izaci sa brojevima, zato sto ako je to nesto 0.5% nece znacajno uticati na
to da Nvidia ima nadmocni udeo na trzistu. AMD je recimo imao zestoku potraznju zbog majnovanja i njihove karte su zbog toga kostale ko svetog petra kajgana,
a onda je i Nvidia uzela deo tog kolaca pa su i njihove karte jezivo kostale. Te cene se uopste nisu smirile iako rudarenje jenjava. Znaci ukoliko sad potraznja za
kartama poraste tako da nemaju dovoljno svakako ce cene rasti. Zakon ponude i potraznje.
[ Space Beer @ 25.05.2020. 12:52 ] @
Citat:
nkrgovic:
nVidia je, takodje, jedini proizvodjac hardvera koji podrzava da Docker koristis sa --gpu. Dok se to ne promeni, nVidia ce super uspesno da gura dev masine sa nVidia grafikom.

Samo što nisam nikad koristio i ne znam da li i kako radi
https://rocmdocs.amd.com/en/la...mp;-Containers.html#docker-hub
[ nkrgovic @ 25.05.2020. 13:33 ] @
@Bane: Ne mislim da ce potraznja toliko rasti, koliko da ce se trziste promeniti. Ocekujem pad prodaje za igracko trziste (GeForce Now je rasprodat, ocigledno neko prelazi na taj model), a da umesto njega vidimo vise developera koji to koriste.

@SpaceBeer : Video, nisam probao. Sve i da radi ostaje pitanje kvaliteta integracije, kao i kvaliteta podrske - TensorFlow mnogo bolje radi na nVidia kartama. Ovo nema toliko veze sa arhitekturom, koliko sa time koliko nVidia ulaze u serversko trziste.

Akvizicija prvo Mellanox-a a onda i Cummulus-a jasno pokazuje da nVidia ima fokus na servere. S'druge strane, AMD ulaze puno u procesore, dok se nekako cini da u grafickim kartama / koprocesorima osetno kaska, kao da i dalje nema resursa da u to ulozi. Meni se cini da ce nVidia imati fin rast na tom trzistu i da ce nastaviti da raste. AMD deluje da je fokusiran na procesore, te da minimalnim ulaganjem na ovo trziste prakticno ostavljaju nVidia-i prostor da dominira. Pokusaj da problem "rese" opensource-ovanjem (rogobatne li reci) drajvera ocigledno nije urodio plodom do kraja - jer i dalje ne vidim nikakav rast u tom segmentu. nVidia je dostupna na svim cloud provajderima, biblioteke koristi sve vise projekata, ima dosta "just add glue" resenja koja rade osetno bolje na nVidia platformama..... Bukvalno dominacija.
[ Space Beer @ 25.05.2020. 14:33 ] @
Ulažu puno i ostali, ali kasne svi bar 5 godina. I AMD i Intel i Xilinix i Google i mnogi drugi imaju svoja rešenja. Ali kao što je neko rekao, niko nije toliko popularan i fleksibilan kao nVidia. Kupiš gejming kartu za 300€ i naučiš sve što ti treba da radiš posao na HPC-u. I AMD i Intel imaju rešenje da CUDA kod radi na njihovim akceleratorima, ali to nije dovoljno. Intel je kupio PlaidML prošle godine (oni su nudili dobro rešenje za ML na AMD kartama)

AMD već 5 godina ozbiljno radi na ovom polju, i opet toliko zaostaje. Intel gura OneAPI već neko vreme, mada nemam pojma u kakvom je stanju. Što dovoljno govori koliko je to veliki posao
https://www.anandtech.com/show...nd-cuda-compilers-for-amd-gpus

U suštini, nVidia jeste lider, ali to ne znači mnogo ako ne nastave istim tempom. Imaju primer iz CPU biznisa gde je Intel mislio da je nedodirljiv. Mada mislim da oni neće napraviti takvu grešku.
[ Ivan Dimkovic @ 25.05.2020. 19:49 ] @
Nisam siguran da ce NVIDIA imati problem sa konkurencijom u sledecih N godina.

Eto bas taj Intel primer - AMD je bukvalno godinama pokusavao da prestigne Intel. Osim kratkog perioda iz ranih Opteron dana, Intel je obicno bio ispred AMD-a. Manje ili vise a nekad i mnogo vise (Sandy Bridge).

Bilo je potrebno da Intel za*ere i bukvalno nekoliko godina izbacuje podgrejane re-spinove Skylake arhitekture na 14nm+++++++++ procesu.

Realno, AMD-u su bile potrebne decenije da mogu konzistentno da prestizu Intel, a i to je samo zato sto su u Intelu odlucili da udaraju glavom u zid puno puta.

NVIDIA je bukvalno stvorila "GPGPU" segment i u njega ulagala kao stratesku investiciju jos od sredine 2000-tih.

Niko drugi u GPGPU nije toliko verovao. Intel je bukvalno morao da urnise par projekata i tek su pre par godina ukapirali da roj Pentium-a nije zamena za GPU.

AMD nije uopste shvatao ozbiljno taj segment. Cryptocoin manija je mozda nesto malo promenila stav, ali glavni problem AMD-a je bilo nepostojanje resursa za pariranje NVIDIA-i na softverskoj strani. NVIDIA bukvalno salje tone kartica i podrske gomili developer-a, naucnika i sl. kako bi imali ubitacan ekosistem.

Bice potrebno dosta vremena da neko stigne firmu koja je godinama ulagala u nesto sto niko drugi nije shvatao ozbiljno.
[ nkrgovic @ 25.05.2020. 21:11 ] @
Da, ovo je ono sto se meni cini... AMD se trudi da napada Intel, ignorisuci nVidia-u. Dok im je intel konkurncija za CPU, graficko trziste oni drze "onako" radeci na "nekom" razvoju i probaju da pariraju softveru podrskom OSS zajednici. Ovo, ocigledno, nije bas urodilo plodom na serverskom trzistu i oni su na tom trzistu skoro pa nigde. Za razliku od procesora, intel je ovde u ofanzivi, i ulaze sredstva, nVidia se konsoliduje spajajuci biznis i nudeci integrisana networking resenja - i pravi jos veci jaz, a AMD i Radeon ostaju.... u zapecku nekako?
[ Branimir Maksimovic @ 25.05.2020. 21:35 ] @
"AMD i Radeon ostaju.... u zapecku nekako? "

Ne bih rekao, sve dok drze konzole...
[ Ivan Dimkovic @ 25.05.2020. 21:46 ] @
Ma da, za NVIDIA-u je HPC/datacenter kljucni deo biznisa i tome pristupaju vrlo ozbiljno.

Sumnjam da je AMD ikada HPC/dc tretirao kao strateski biznis. Sto je steta posto, hardverski, imaju sasvim OK proizvode ali su softverski bukvalno amaterska liga u odnosu na NVIDIA profesionalce.

Poceli su da budu malo ozbiljniji sa ROCm bibliotekama, sto je uspeh u poredjenju sa godinama pateticne sw. podrske (OpenCL revizije sa drasticno manje kontrole i mogucnosti u odnosu na CUDA-u).

Ali i dalje je sve to jadnjikavo, mislim - pazi ovo:

https://www.extremetech.com/co...off-with-a-huge-step-backwards

Ili, jos bolje:

https://phoronix.com/scan.php?...;px=ROCm-Unofficial-APU-Ubuntu

O kasnjenju u podrsci za npr. TensorFlow da ne pricamo.

Sve u svemu, ovakve za*bancije pokazuju da AMD nije ozbiljan kada se radi o HPC softveru. Niko danas nije nezaposlen do te mere da ce da se za*bava pokusavanjem da natera softver da radi sa AMD karticama.

NVIDIA CUDA, jednostavno, radi. Takodje, svoj softver mozes da teras na laptopu sa NV dGPU-om isto kao i na nekoj DGX-1 azdaji.

Ove zaje*ancije tipa "ROCm neoficijelno podrzava APU" preko bezbroj poruka o nepostojecoj podrsci za XYZ AMD modele, pa sve do "probaj sam" varijante za TF ili neke druge biblioteke. Zasto bi neko sebi pucao u glavu, uzmes NVIDIA kartice i ne razmisljas.

Osim ako ne planiras da teras GeForce u datacentru :-)))))

Citat:
Branimir Maksimovic
Ne bih rekao, sve dok drze konzole...


Mislim da je prica vezana za serversko trziste, ne konzole.

Super je sto AMD vec godinama dominira na trzistu konzola. Ne znam koga to uopste zanima osim proizvodjace konzola i igrica za iste.
[ Branimir Maksimovic @ 25.05.2020. 22:09 ] @
Ivan:"Mislim da je prica vezana za serversko trziste, ne konzole."

Grafika na serverima je relativno nova stvar, i nije ni blizu veliko trziste kao sto su konzole...
Lepo je to sto ce nekom za HPC trebati grafika, ali to nije pravilo, vez izuzetak. 99% serverskog
trzista cine web serveri, kojima grafika nicemu ne sluzi...
[ nkrgovic @ 25.05.2020. 22:15 ] @
Citat:
Grafika na serverima je relativno nova stvar, i nije ni blizu veliko trziste kao sto su konzole...
Lepo je to sto ce nekom za HPC trebati grafika, ali to nije pravilo, vez izuzetak. 99% serverskog
trzista cine web serveri, kojima grafika nicemu ne sluzi...

Vecina ozbiljnih web servera hoce analitiku.... ;) Tu vec GPU pomaze.

A sto se velicine trzista tice, da li si siguran da je lova za DC manja od love za konzole? Konzola kosat 300$, AMD tu uzme.... 30$? A jedna Tesla kartica kosta... ;)
[ Branimir Maksimovic @ 25.05.2020. 22:18 ] @
Nikola:"Vecina ozbiljnih web servera hoce analitiku.... ;) Tu vec GPU pomaze."

Minorno. Da bi ti trebala skupa karta moras bas da imas potrebe za tim, mozda promil ili dva ima potrebu za tim.

"A sto se velicine trzista tice, da li si siguran da je lova za DC manja od love za konzole?"

Sigurno.

[ Ivan Dimkovic @ 25.05.2020. 23:52 ] @
Citat:
Branimir Maksimovic:
Ivan:"Mislim da je prica vezana za serversko trziste, ne konzole."

Grafika na serverima je relativno nova stvar, i nije ni blizu veliko trziste kao sto su konzole...
Lepo je to sto ce nekom za HPC trebati grafika, ali to nije pravilo, vez izuzetak. 99% serverskog
trzista cine web serveri, kojima grafika nicemu ne sluzi...


Grafika? Tesla kartice nemaju video izlaz, ne sluze za grafiku. Ni jedna od tih kartica nece nikad nacrtati nesto na ekranu.

Serversko trziste za NVIDIA-u nisu web serveri, vec serveri koji rade AI zakljucivanje ili AI treniranje, finansijsko ili meteorolosko modeliranje, modeliranje zemljista i procesiranje seizmickih slika za industriju energije tj. nalazenje nafte i gasa, dinamiku fluida (CFD) i drugi mali milion aplikacija koje zahtevaju intenzivno racunanje.

NVIDIA je ulozila silne resurse u razvoj biblioteka i alata za bukvalno svaki segment ovih industrija (i jos gomile drugih).

Bilo da modeliras ponasanje proteina za razvoj novih lekova, trcis algoritme za brzu trgovinu na berzi, radis detekciju objekata u gomili video signala, prognoziras vreme ili trazis optimalni oblik krila novog aviona - sve su sanse da ces to raditi na masinama sa gomilom NVIDIA akceleratora a-la DGX-2.

DGX-2 kutijica ti omogucava 240 FP32 TFLOPS-ova ili 1920 Tensor TFLOPS-ova.

A to je kutija iz 2018.

Nova arhitektura (Ampere) je malo brza - 5 petaflops-a u serveru:

https://blogs.nvidia.com/blog/2020/05/14/gtc-2020-keynote/
https://nvidianews.nvidia.com/...-5-petaflops-of-ai-performance

Ako ti treba jos malo performansi, imas DGX SuperPOD - 700 petaflops-a. 140 A100 kanti uvezanih sa Mellanox 200 Gbit/s InfiniBand linkovima (unutar kanti imas NVLink sa 4.8 TB/s vezom izmedju "grafickih" kartica).

Ni jedna od ovih masina nema video izlaz... tako da ne mozemo odgovoriti da li mogu da trce Crysis :-)

Citat:

Minorno. Da bi ti trebala skupa karta moras bas da imas potrebe za tim, mozda promil ili dva ima potrebu za tim.


NVIDIA zaradjuje skoro milijardu $ po kvartalu na tom "promilu ili dva". Za dve do tri godine ce datacenter donositi istu kintu kao potrosacki segment.
[ Branimir Maksimovic @ 25.05.2020. 23:59 ] @
Ivan:"Grafika? Tesla kartice nemaju video izlaz, ne sluze za grafiku. Ni jedna od tih kartica nece nikad nacrtati nesto na ekranu."

Znam, rekao sam grafika, zato sto se radi o grafickim kartama, ne o general purpose procesorima....

"Serversko trziste za NVIDIA-u nisu web serveri, vec serveri koji rade AI zakljucivanje ili AI treniranje, finansijsko ili meteorolosko modeliranje, modeliranje zemljista i procesiranje seizmickih slika za industriju energije tj. nalazenje nafte i gasa, dinamiku fluida (CFD) i drugi mali milion aplikacija koje zahtevaju intenzivno racunanje."

Za taj mali milion aplikacija, osim vladinih institucija i vecih igraca musterije mozes nabrojati na prste....
[ nkrgovic @ 26.05.2020. 00:04 ] @
Ja sam bukvalno pre par meseci uzimao takve masine na AWS-u. Na par sati da nesto testiram, ali sve jedno... Kojih "na prste"? Znam na vise nego sto imam prstiju firmi u BGD-u koje to koriste.
[ nkrgovic @ 26.05.2020. 00:08 ] @
Citat:
Ivan Dimkovic:
NVIDIA zaradjuje skoro milijardu $ po kvartalu na tom "promilu ili dva". Za dve do tri godine ce datacenter donositi istu kintu kao potrosacki segment.

Zapravo, ove godine. To sam okacio na pocetku teme.

Sad, sa Mellanox akvizicijom, procena je da ce nVidia na DC trzistu uzimati 50% prihoda. Drugih 50% su "kartice sa displayport-om", sto ukljucuje i Quadro (kojih se prodaje manje, ali po mnogo vecoj ceni).
[ Branimir Maksimovic @ 26.05.2020. 00:09 ] @
"Znam na vise nego sto imam prstiju firmi u BGD-u koje to koriste. "

Nisam bio bukvalan, al ajde. Broj korisnika grafike koje rade HPC, je zanemarljivo
mali prema broju korisnika konzola, koje su maltene u svakoj kuci....
Mislim najvece tu trziste je rudarenje, a tu AMD ima/imao primat ;)
[ Ivan Dimkovic @ 26.05.2020. 00:41 ] @
Citat:
Branimir Maksimovic:
Ivan:"Grafika? Tesla kartice nemaju video izlaz, ne sluze za grafiku. Ni jedna od tih kartica nece nikad nacrtati nesto na ekranu."

Znam, rekao sam grafika, zato sto se radi o grafickim kartama, ne o general purpose procesorima....

"Serversko trziste za NVIDIA-u nisu web serveri, vec serveri koji rade AI zakljucivanje ili AI treniranje, finansijsko ili meteorolosko modeliranje, modeliranje zemljista i procesiranje seizmickih slika za industriju energije tj. nalazenje nafte i gasa, dinamiku fluida (CFD) i drugi mali milion aplikacija koje zahtevaju intenzivno racunanje."

Za taj mali milion aplikacija, osim vladinih institucija i vecih igraca musterije mozes nabrojati na prste....


Kako gde. Pazi kad moja firma koja veze sa HPC-om nema trenira AI modele sa TF-om na kantama nabijenim NVIDIA akceleratorima. Sta mislis zasto AWS, Azure i GCP nude instance sa NVIDIA karticama? Na AWS-u, recimo, mozes da nabijes 8 (osam) V100 akceleratora:

https://aws.amazon.com/ec2/instance-types/p3/

Obrati paznju - te instance su dostupne u USA, Evropi, Kini, Japanu, Juznoj Koreji, Singapuru i Australiji.

Tesko da bi Amazon opremao opremu sirom sveta sa karticama koje ukupno kostaju $100K po instanci, da nemaju potraznje za tim.

To sto kartice nisu "general purpose procesori" ne znaci da su graficke kartice. Tesla kartice uopste nemaju izlaz za video. Pod Windowsom obicno trce u "TCC" modu, tako da nemaju graficki drajver ili graficke API-je (OpenGL / Vulkan / DX) vezane za njih.

Inace, ne znam da li si skoro probao, NVIDIA kartice mogu savrseno da izvrsavaju "general purpose" C/C++ kod. Nije bas smisleno koristiti ih na takav nacin, ali ako bas moras - neces imati problema. Pre 10+ godina si imao ogromne penale za trcanje serijskog koda na SIMT arhitekturi. Danas je to zamaskirano kesom, lokalnom memorijom i pametnijim scheduler-om.

Da, mozes komotno da parsiras bitstream na kartici. Nije bas najbolji nacin iskoriscavanja resursa ali ako insistas, radi.

Citat:

Mislim najvece tu trziste je rudarenje, a tu AMD ima/imao primat ;)


NVIDIA kartice su potpuno nepodobne za rudarenje. Uprkos tome, NVIDIA datacenter prihodi su nekoliko puta veci od CPU+GPU datacenter prihoda AMD-a.

A NVIDIA ne valja CPU-ove za datacenter trziste. NVIDIA samo sa svojim Tesla karticama ubira 3x vise kinte nego AMD-ov CPU i GPU datacenter biznis + konzole, zajedno.
[ nkrgovic @ 26.05.2020. 09:04 ] @
To i ja probam da mu objasnim.... Zarada na konzolama je za AMD smesna. Dzaba sto ih ima puno kad nVidia na jednoj Tesla karti zaradi vise nego AMD na 100 konzola.

nVidia je kupovinom Mellanox-a jasno stavila do znanja gde ide. Malo bezveze za Mellanox, ali bolje nego da ih je intel kupio (a bilo je prica) - znamo kako zavrsi networking kad in intel kupi. ;)

Ono sto me zanima je dokle ce se odrzati desktop trziste kakvo ga znamo, posto:

a) Vec postoji veliki momenat da se nVidia kartice "vidjaju" po developer / dataSomething desktop racunarima kao koprocesori
b) Postoji znacajno interesovanje za GeForce Now (bukvalno su rasprodali sve resurse)

[ ademare @ 26.05.2020. 11:20 ] @
Nije lose trziste Konzola , ali ovo je mnogo bolje .

Po mojim nekim grubim procenama AMD je imao Promet , ne Profit , za 6 godina od Konzola oko 1 Milijardu US$ godisnje .

A toliko je u sektoru Data Center , Nvidia imala Promet sami u jednom kvartalu ! Plus tu su Profitne margine bar duplo vece ! Pa je i profit u toj Milijardi duplo veci nego profit u AMD Milijardi od konzola .
[ Shadowed @ 26.05.2020. 11:29 ] @
Citat:
Ivan Dimkovic:
Serversko trziste za NVIDIA-u nisu web serveri, vec serveri koji rade AI zakljucivanje ili AI treniranje, finansijsko ili meteorolosko modeliranje, modeliranje zemljista i procesiranje seizmickih slika za industriju energije tj. nalazenje nafte i gasa, dinamiku fluida (CFD) i drugi mali milion aplikacija koje zahtevaju intenzivno racunanje.

I, naravno, DigiCortex :)


Jesi li probao na necemu takvom? Ako je uopste kompatibilno..
[ Space Beer @ 26.05.2020. 11:48 ] @
Sve velike SaaS kompanije koriste i nude nVidia grafike i akceleratore za ML/AI/HPC, ali istovremeno svi oni rade na svojim/drugim rešenjima. I to ja vidim kao najveću opasnost za zelene. Google ima svoj TPU i Tensor flow koji nudi za manje novca nego V100. Microsoft gura FPGA sa podrškom za TF (Intelov, ali mislim da su i oni pravili nešto), Amazon ko zna šta radi, čini mi se da i Baidu pravi nešto svoje, itd.

I na kraju će kompanije koje drže 70-80% tržita nuditi svoja rešenja po nižoj ceni. Baš kao što je slučaj sa Amazon ARM opcijom. Neće to odgovarati svima, ali će sigurno uzeti deo tržišta od nVidia-e.

Takođe, Google, MS... već nude svoje servise besplatno ili za malu cifru univerzitetima, institutima, neprofitnim organizacijama itd. Ne moram ni da kupujem GeForce, samo sa se logujem na Azure, AWS ili Google cloud.

Inače i Google i MS su izabrali AMD karte za svoje gejming servise, ima AMD tu dobro rešenje.

Nije problem kada ti je konkurencija AMD, ARM, Qualcomm, Imagination... Problem je kad su to Google, Amazon, Microsoft, Intel....

[Ovu poruku je menjao Space Beer dana 26.05.2020. u 13:02 GMT+1]
[ nkrgovic @ 26.05.2020. 12:17 ] @
AWS, za sada, nudi nVidia - vec nekoliko godina. Da, google nudi Tensor, ali mislim da i Google i Azure imaju klasicne GPU instance, s'tim da Google naravno gura svoje. FPGA isto ima i Azure i AWS, oba su, stavise neutralni. Problem je sto je, za sad, FPGA losije resenje.... Iako je u teoriji super, treba naci nekoga da razvija Verilog, dok TensorFlow biblioteka nudi dosta toga gotovo...

Intel jeste ovde "u ofanzivi", ali problem je sto je nVidia standard. TensorFlow je prilicno optimizovan za nVidia i vise-versa, pa intel ima sanse sam na problemima koji nisu optimazni za TF/GPGPU - a to je nisa trziste, bar za sada... Najbolja taktika koju intel ima je ovo sa ubacivanjem FPGA delova u Xeon CPU, pa da tako "na mala vrata" uvede svoje biblioteke, ali tu je cloud veliko pitanje - jer nemam blage kako se to virtualizuje. Reprogramiranje FPGA nije bas "brza" operacija, ne za context switching...
[ ineve74 @ 26.05.2020. 12:29 ] @
Nvidia je realno mnogo bolja kartica od ATi
Ja sam poceo da koristim ati jos od ati expert kartice sa rage chipom pa sam imao razne radeon kartice i sad sam na rx550
Nvidia sam imao 3 kartice i mogu da kazem da sam se naigro sa njima.
Jedini razlog sto nemam nvidia je sto nemam para jer su skuplje
[ Space Beer @ 26.05.2020. 12:41 ] @
@nkrgovic
Mislim da će Google optimizovati TF bolje za svoj TPU nego za tuđi GPU :) I kao što rekoh, MS-ov FPGA ima podršku za TF. Ako Microsoft/Intel ponude bolji perf/price odnos od nVidia-e, šta mene kao korisnika briga koliko je šta optimizovano.
https://docs.microsoft.com/en-...how-to-deploy-fpga-web-service
[ nkrgovic @ 26.05.2020. 12:46 ] @
Da, za google mislim da je mnogo veca konkurencija, bas zbog toga sto ima uticaj na samu biblioteku. To je ujedno i "problem" koji vidim sa Intel-om, jednostavno Google pravi procesore za TF, intel moze da programira FPGA ekvivalentno, ali cip koji nije FPGA sa istim kodom je uvek brzi. nVidia ima prednost na nekoliko mesta: prvo, oni de facto prave Tensor jezgra u GPGPU-ovima, drugo ima osetno bolji proces nego intel i trece i najbitnije - imaju trziste. Google ne prodaje, koliko znam, tensor procesore za private cloud...
[ Space Beer @ 26.05.2020. 14:36 ] @
Google nudi sve :D I na njihovom cloudu i za sitnu raju :D Npr.
https://coral.ai/products/dev-board/
https://www.arrow.com/en/resea...s-intel-neural-compute-stick-2
https://towardsdatascience.com...n-googles-edge-tpu-7f53750d952

Njihov TPU je manje više isto što i tenzor jezgra u nVidia čipovima. Nije TSMC baš osetno bolji od Intelovog procesa. Ali kao što rekoh, nije poenta da li ja imam da kupim jeftin hardver za učenje/rad. Već da li imam jeftinu opciju da izvrtim to na oblacima. A Google, MS, Amazon mogu to da ponude sa svojim ili tuđim ASIC, FPGA, GPU... čipovima. Čak i da nVidia napravi svoju cloud platformu, kao što su uradili za game streaming, pitanje je da li može da parira najvećim kompanijama u tom segmentu. A to su ove tri.
[ Ivan Dimkovic @ 26.05.2020. 19:11 ] @
Citat:
Shadowed:
Citat:
Ivan Dimkovic:
Serversko trziste za NVIDIA-u nisu web serveri, vec serveri koji rade AI zakljucivanje ili AI treniranje, finansijsko ili meteorolosko modeliranje, modeliranje zemljista i procesiranje seizmickih slika za industriju energije tj. nalazenje nafte i gasa, dinamiku fluida (CFD) i drugi mali milion aplikacija koje zahtevaju intenzivno racunanje.

I, naravno, DigiCortex :)


Jesi li probao na necemu takvom? Ako je uopste kompatibilno..


DigiCortex je Windows aplikacija (na zalost) tako da je najjaca platforma na kojoj trci Windows kutija.

Poslednji test koji sam uradio na NVIDIA datacentar platformi je bio na Amazonovoj instanci sa 8 V100 kartica sa 128 GB HBM2 memorije: http://www.digicortex.net/node/54

To je grubo 1/2 DGX-2. Ako ekstrapoliramo to znaci da bi DGX-2 mogao da tera ~25.4 miliona DigiCortex neurona u realnom vremenu. DGX A100 bi verovatno mogao da tera preko 80 miliona.

Sto se GeForce Now tice, mislim da NVIDIA prodaje servis ispod cene troskova. Verovatno to rade kako bi namamili sto vise korisnika.

$4.99 mesecno ne moze da pokrije troskove servisa koji se sastoji od jake grafike i konstantne H.26x kompresije i saobracaja.

[ mjanjic @ 26.05.2020. 21:25 ] @
Citat:
By paying £4.99 per month, you get access to the Founders subscription. This extends session times to six hours, while also giving subscribers priority in the queues, which should slash waiting times dramatically.

The Founders tier will also enable RTX features, including ray tracing, dramatically enhancing lighting effects for supported games.

Nvidia has clarified the £4.99/month price is a limited time offer, and will likely increase 12 months after the official launch.
[ Ivan Dimkovic @ 26.05.2020. 22:11 ] @
Da imas 6 sati sesiju ali i beskonacan broj sesija. Sve sto treba je da se ponovo ulogujes.

Redovi za cekanje i izjave da ce servis verovatno poskupeti je samo cuvanje g*zice. Ako izlete iz budzeta, NVIDIA ima mogucnosti da pravi redove ili da digne cenu.

Ali svejedno, promotivna cena je debelo ispod realne cene takvog servisa.

Google Stadia je 2x skuplja a trci na slabijem hardveru + u pitanju je Google koji ne placa saobracaj prema bilo kojem bitnom ISP-u (posto imaju direktan peering).

Uzmi papir i olovku i izracunaj koliko kosta da teras nabudzeni server sa nekoliko jakih NVIDIA GPU-ova.

Na to dodaj datacentar troskove (struju, "par ruku", servisiranje) i saobracaj.

I 10 EUR mesecno je prilicno nategnuto. 4.99 je prodaja ispod cene u najboljem slucaju ili predatorska cena u najgorem.
[ Ali Imam @ 28.05.2020. 00:39 ] @
Pošto vidim da ovde ima dosta priče o veštačkoj inteligenciji
postavio bih jedno pitanje.
Zašto u pravilniku BalkanBet kladionice postoji član:
Citat:
VEŠTAČKA INTELIGENCIJA
Član 32.

Učesniku je strogo zabranjeno da koristi bilo koji oblik veštačke inteligencije u korišćenju registrovanog korisničkog naloga na interaktivnim komunikacijskim kanalima.

Zašto je korisnicima zabranjeno korišćenje veštačke inteligencije?
Šta je to u veštačkoj inteligenciji čega se kladionica plaši?

[ Branimir Maksimovic @ 28.05.2020. 02:41 ] @
AlImam:"Zašto je korisnicima zabranjeno korišćenje veštačke inteligencije?"

Nisu sigurni sta je to.
[ mjanjic @ 28.05.2020. 21:44 ] @
Citat:
Ivan Dimkovic:
I 10 EUR mesecno je prilicno nategnuto. 4.99 je prodaja ispod cene u najboljem slucaju ili predatorska cena u najgorem.

Ma, kad bi ovi naši dali subvenciju od bar 100 miliona da se otvori jedan takav data centar kod nas (ima ih već, ali mislim da su domaće kompanije, kao Telenor i sl.), bolje za to nego za motanje kablova...


A za kladionice... verovatno se misli na to da neki AI "klikće" umesto korisnika i slično, ne misli se na korišćenje nekog AI nezavisno od kanala za komunikaciju sa kladionicom.
[ Branimir Maksimovic @ 30.05.2020. 14:56 ] @
"Sales data demonstrated that, throughout 2017, 60% to 70% of NVIDIA's GeForce revenue in China came from sales to crypto-miners, not gamers."

Ovo je interesantno: https://www.tomshardware.com/n...n-mining-gpu-revenue-as-gaming
[ nkrgovic @ 30.05.2020. 15:06 ] @
Jeste, mada koliko sam shvatio, GeForce je losiji izbor za mining od AMD-a. Takodje, Kina ima jevtinu i prljavu struju (kao jos neke zemlje), a opet nizak standard - pa je logicno da ima dosta minera.

Takodje, ono sto ja mislim, je da GeForce pocinje da sve manje i manje bude bitan, u smislu da su DataCentar i Quadro linije te koje donose vise novca.

Jeste zanimljivo, posebno jer pokazuje nesto o zemljama kao sto je Kina - i koje lice na Kinu (prljava i jevtina struja, svuda kamere za nadzor, nizak standard, ne-demokratija..... )
[ Branimir Maksimovic @ 30.05.2020. 15:11 ] @
"Takodje, ono sto ja mislim, je da GeForce pocinje da sve manje i manje bude bitan, u smislu da su DataCentar i Quadro linije te koje donose vise novca. "

Mislim da to tesko da moze biti sa obzirom na masu musterija za GeForce. Nvidia gura te svoje fore, ali opet je pitanje koliko ima musterija za to.
Visoke cene uvek indikuju ili preveliku ili premalu potraznju nikako neku sredinu....
[ Ivan Dimkovic @ 30.05.2020. 15:15 ] @
Tuzba: https://regmedia.co.uk/2020/05/15/nvidiashareholdersuit.pdf

NVIDIA je debelo profitirala na kriptoludilu i fakat da su bili vrlo pazljivi da cryptomining izostave od EULA zabrana koriscenja gaming (GeForce) modela u datacentru ukazuje da su i te kako znali sta se desava. EULA promene su fakt i nisu podlozne interpretaciji, ostale stvari ce morati da se dokazuju.

Da li akcionari imaju sansu? Zavisi koliko imaju "smoking gun" dokaza i advokate koji mogu da sloze pricu koja ce porotu ubediti da je NVIDIA menadzment prevario investitore svesno sakrivajuci pravu sliku o biznisu.

Mada, kao i vecina procesa ovog tipa, ako "smoking gun" postoji cela stvar ce biti brzo zavrsena vansudskim poravnanjem.
[ Shadowed @ 30.05.2020. 15:17 ] @
Citat:
nkrgovic: Takodje, ono sto ja mislim, je da GeForce pocinje da sve manje i manje bude bitan, u smislu da su DataCentar i Quadro linije te koje donose vise novca.

Bice im bitno ako investitori dobiju neku ozbiljniju odstetu na sudu. :)
[ Nebojsa Milanovic @ 30.05.2020. 15:26 ] @
Nisam u toku sa temom ali znam da je NVDA jedna od najpopularnijih akcija na berzi.

Ogroman skok je imala tokom poslednjih par godina, lično nikad mi nije bilo jasno zašto.

Uvek sam mislio da postoji neka "začkoljica" koju kada bi investitori znali, ne bi toliko plaćali i pumpali NVDA.
[ Branimir Maksimovic @ 30.05.2020. 15:35 ] @
Nebojsa:"Ogroman skok je imala tokom poslednjih par godina, lično nikad mi nije bilo jasno zašto."

Kripto ludilo koje je izazvalo nestasicu karti i to da cene skacu iznad krova. Nvidia inace ima primat
u odnosu na AMD cak i na Linux-u gde developeri igara garantuju da ce raditi samo na Nvidiji
zato sto ne testiraju uopste na AMD kartama (na Linux-u).
[ Ivan Dimkovic @ 30.05.2020. 15:37 ] @
Cisto sumnjam da aktivni investitori nisu znali odakle je dolazio skok u prodaji, pogotovu ako se uzme u obzir da su kriptovalute bile odgovorne.

Mozda su neki bili neobavesteni o NVIDIA biznisu van kripta, ali biti neobavesten o kriptovalutama i njihovom trzistu bi bilo vrlo cudno ako si profesionalni investitor.

Ali to nije bitno, vrednost NVIDIA akcija danas nema veze sa kriptoludilom od pre par godina, ceo fenomen je kratko trajao.

Cak nije bitno ni da li su investitori znali ili ne: i oni koji su znali ce se pridruziti u klasu, znati nesto nije prekrsaj.

Sta god investitori znali ili ne, davanje laznih izjava ili dovodjenje investitora u zabludu su sasvim dovoljni osnovi za trazenje obestecenja.
[ Nebojsa Milanovic @ 30.05.2020. 15:37 ] @
Branimir, Ivan, znam za tu namenu NVDA karti ali i pored toga je preterano.

Samo za poslednju godinu, računajući i Covid 19-crash berze, NVDA je imala skok od 150% što je po meni van pameti.
[ Ivan Dimkovic @ 30.05.2020. 15:46 ] @
@Nebojsa, sta ti se cini da je preterano?

NVIDIA P/E je 77.2
AMD P/E je 126.29

Citat:

Ogroman skok je imala tokom poslednjih par godina, lično nikad mi nije bilo jasno zašto.


Jednostavno: NVIDIA hardver je osnova za bukvalno skoro svaki veliki HPC/AI/ML projekat. Kako AI/ML nece nigde vec ce biti sve prisutniji u svakodnevnom zivotu, taj biznis moze samo da cveta.

To je segment industrije gde su profitne margine debele: jedan V100 modul kosta $10K. Umesto da taj modul prodajes "gamerima" za $1K, ti ga prodajes naucnim institutima, cloud provajderima, velikim korporacijama za $10K.

A za razliku od Intela, nemas trosak razvoja sopstvenih pogona za fabrikaciju koji kostaju debele pare.

Citat:

Samo za poslednju godinu, računajući i Covid 19-crash berze, NVDA je imala skok od 150% što je po meni van pameti.


Znas na cemu se simulira organska hemija vezana za COVID19? :-)

Vrednost NVIDIA akcija je direktno vezana za procenu rasta AI/ML trzista u sledecih 10 godina. Zbog toga imas vece oscilacije (zato sto modeli predvidjanja takvog trzista ne mogu biti vrlo precizni).

NVIDIA-in rast nije nista specijalno ako se uzmu u obzir prognoze rasta AI/ML trzista.

Za globalno AI/ML trziste je predvidjen CAGR od 46.2% od 2019 do 2025.
[ Branimir Maksimovic @ 30.05.2020. 15:49 ] @
Ivan:"Kako AI/ML nece nigde vec ce biti sve prisutniji u svakodnevnom zivotu, taj biznis moze samo da cveta."

AI/ML je corsokak, to je sada pod hype-om, ali ne daje ocekivanih rezultata, pa kad prodje hype, onda ce
splasnuti i njihov biznis u toj oblasti.

[ Ivan Dimkovic @ 30.05.2020. 15:54 ] @
@Branimir,

OK, ti mislis da je corsokak. Oni koji ulazu pare ne misle tako.

Nije uopste bitno ko sta misli i ko ce biti u pravu. NVIDIA akcije rastu zbog procena investitora da trziste, u kojem je NVIDIA jedan od glavnih igraca, ima da raste skoro 1.5x godisnje u sledecih 5 godina.

To ocigledno ne ukljucuje one koji ne ocekuju rast (kao sto si ti) i to je sasvim OK - sve dok te neko ne tera da ulazes u nesto sto ne zelis.
[ Branimir Maksimovic @ 30.05.2020. 15:56 ] @
Pazi veliki je hype bio oko autonomnih vozila, sad je dosla zima za taj biznis, upravo zbog AI corskokaka.
[ Nebojsa Milanovic @ 30.05.2020. 15:57 ] @
@Ivan

Lepo si objasnio, meni najviše upada u oči činjenica da je NVDA stara firma, a lično ne znam ni jednu firmu koja je toliko stara (a i puno manje), a da ostvari skok od 150% za godinu dana. Takav rast može da ostvari samo po neki IPO i to samo oni najuspešniji, a vrlo često je to upitno.

Rekoh ne pratim NVDA detaljnije najviše zbog tog tolikog rasta, ali da bi on bio opravdan, neophodno je da su uradili nešto baš baš veliko i to u poslednje vreme.

Market cap NVDA je preko 200 milijardi USD (kao INTC, koji je inače vrlo mirna akcija), verujem da je NVDA jedina firma na svetu koja je toliko stara i velika, a da je ostvarila toliki rast za tako kratko vreme.
[ ademare @ 30.05.2020. 16:09 ] @
Meni je u ovom linkovanom clanku sa Tomhardware sajta zanimljivo nesto sasvim drugo !

U njemu pise da je AMD kao firma , ni oni ni Nvidia nemaju svoje fabrike , toliko precenio situaciju , u smislu koliko ce trajati Mining Ludilo , da su nastancovali toliku kolicinu Polaris kartica , koju jos uvek nisu uspeli da prodaju !

Iako je danas cena 5 X manja , nego kada je trajala pomama ?

Nvidia , je stancovala to manje unapred , pa je rasprodala zalihe , ali po dobrim cenama, tako sto je izbacila 20X0 pa takvim cenama , da su kupci , umesto neve serije kupovali staru 10X0 i to bez velikih snizavanja . Cene nove serije su bile i ostale naduvane .
[ Ivan Dimkovic @ 30.05.2020. 16:18 ] @
@Nebojsa Milanovic, mislim da starost firme uopste nije relevantna. Starost firme je samo koristan podatak koji je cesto u antikorelaciji sa mogucim rastom. Sve do slucaja kada prestane da bude :-)

Sasvim je moguce da se bilo kome tako nesto cini na osnovu tipicnih situacija. Stara firma obicno ima "legacy" biznis koji je cesto odgovoran za vecinu prihoda. Osvajanje novih trzista obicno nije srazmerno velicini "legacy" trzista i zbog toga firma ne moze da ocekuje ostar rast akcija (rast akcija nije nista drugo nego rezultat uverenja investitora u buduci rast firme). Zbog toga su radikalne inovacije jako teske za progurati u matorim firmama (Microsoft je odlican primer: MSFT programer je predlozio koncept socijalne mreze, samo da bi bio ismejan. Ili ceo koncept iza Web 2.0 - Microsoft je naleteo na metod koji su implementirali za Outlook Web Access za Exchange. Tu su i stali).

Zvuci logicno i naravno vrlo cesto realnost ne odstupa od ovoga.

Ali nekada se desi.

Kako to moze da se desi? Potrebno je da firma udje u neki novi biznis koji je drasticno profitabilniji od starog.

Opet, sanse nisu na strani matorih firmi, nivo inovacije, svezeg razmisljanja i rizicnih odluka koje firme te velicine ne rade cesto je... veliki. U najvecem broju slucajeva nove ideje bivaju ubijene od strane menadzmenta (Kodak koji je prvi imao digitalnu fotografiju za potrosace je najbolji primer).

Ali, opet, to ne znaci da ne postoje izuzetci.

NVIDIA je jedan od takvih izuzetaka. Apple je jos jedan.

Pocnimo od Apple-a: Apple je firma koja je bila neko i nesto u segmentu kucnih racunara 80-tih. Posle nekog vremena su postali mali igrac zbog globalne ekspanzije PC trzista. U jednom momentu 90-tih je cak i samo postojanje firme bilo dovedeno u pitanje.

Onda se desio niz vrlo malo verovatnih (ali ne i nemogucih) dogadjaja: u firmu se vratio koosnivac vizionar i za nekoliko godina su pocistili svoje dvoriste. Ali to je bio samo pocetak. Apple je lansirao iPod a nesto kasnije i iTunes koji su imali kosmicki uspeh na globalnom trzistu. Novi kapital im je omogucio radikalna unapredjenja u "legacy" (Mac) biznisu sto je firmi donelo stabilnost i novi imidz. Onda su uradili "iPod revoluciju" jos jednom, ovog puta sa telefonom. Da stvari budu jos neverovatnije, poslo im je za rukom i sledeci put: trziste aplikacija za telefon i servisa.

Niz od nekoliko radikalnih odluka je Apple transformisao prvo od firme pred bankrotom u stabilnu firmu, onda u firmu koja je postala lider u potpuno novom segmentu potrosacke elektronike, mobilne telefonije (i to ne stare mobilne telefonije, nego nove "smartphone" telefonije koja je narasla van svih proporcija starog biznisa) i, konacno, u firmu koja je osvojila i trziste servisa.

Rezultat? Od "matore firme pred bankrotom" do najvece firme u na planeti. Sitnica.

Ko bi to mogao pretpostaviti? Sta mislis sta bi ljudi rekli krajem 1996-te (u momentu kada je Apple ponovo zaposlio Steve Jobs-a) da im neko kaze da ce Apple biti najveca firma na svetu? Verovatno bi umrli od smeha.

Trziste kucnih racunara, sve i da je neko apsolutni lider, je kap u moru kada se uporedi sa trzistem digitalne muzike, mobilnih telefona, aplikacija i servisa i potrosacke elektronike za slusanje muzike. Apple je od malog igraca u segmentu kucnih racunara postao lider ili bar bitan igrac u ovim drugim stvarima. Vrednost firme je samo skalirana na novu realnost.

A NVIDIA?

NVIDIA uspeh je daleko manji od Apple-ovog, ali je sustina ista. AI/ML (compute) trziste je fundamentalno drugi red velicine u odnosu na trziste gaming grafickih kartica. NVIDIA ne samo da je postala lider u prvom trzistu, NVIDIA je zapravo debelo odgovorna za samo postojanje tog trzista. Umesto da ugusi novu ideju da gaming kartice pretvori u racunarske akceleratore, Jensen Huang ne samo da nije ugusio ideju, vec je sunuo ogromne pare za razvoj kompletno nove softverske platforme za GPGPU (CUDA). Tako danas NVIDIA moze da valja kartice za $10K po komadu i to na trzistu koje raste ~1.5x iz godine u godinu.

Isto tako, vrednost kompanije je samo skalirana na novu realnost.
[ Ivan Dimkovic @ 30.05.2020. 16:37 ] @
@Nebojsa,

Zaboravih konacnu stvar: ovo gore je retkost, ali ima slucajeva koji su debelo izleteli van tog trenda. Apple je mozda najbolji primer, mada ni NVIDIA nije los.

Sta moze biti odgovorno za ovo? Verovatno niko ne zna sa 100% tacnoscu. Moja pretpostavka je: vizionarski menadzment. U firmama na berzi i bord koji ce stati iza menadzmenta. Nije lako, ali se nekad desi.

Nije dovoljno imati samo pravi tim ljudi. Na primeru sa Microsoftom ili Kodakom se vidi sta se desava kad u firmi imas vizionare koji nisu u poziciji da donose radikalne odluke. Projekti koji su mogli postati totalne globalne transformacije su ubijeni od strane kratkovidog menadzmenta. Da stvar bude jos gora po Microsoft i Kodak, vrlo brzo su neke druge firme (u slucaju Microsofta cak ne ni velike firme, nego startupi) dosle do istih pronalazaka i bukvalno poremetili ne samo neku industriju vec celu ekonomiju.

Pazi ovo: Apple. U jednom momentu Apple odlucuje da kupi jako dobar tim ljudi i da razvija svoj procesor. Prvo smejanje a onda za nekoliko godina Apple postaje firma koja ima najbrzi ARM procesor, bar jednu generaciju ispred drugih, iako Apple nema nikakvu istoriju razvoja procesora a konkurenti su im firme kojima je to glavni biznis.

U cemu je fora? Tim je jedna stavar, bez toga svakako ne mozes nista, ali osim tima moras imati i rukovodioce koji ce stati iza radikalne odluke. U slucaju Apple Axx procesora, odluka je kontraintuitivna, umesto da licenciras neki Samsung Exynos ili Qualcomm MSMxxx, ti odlucis da napravis bolji procesor od lidera na trzistu. U vecini slucajeva bi te nazvali ludakom, ili bi bio neki startup. Da budes globalna korporacija i da to odlucis? Nije cesto ali nije ni nemoguce.

Iako postoji jako dobar razlog zasto se matore firme ponsaju tipicno (ne vole rizike, imaju biznis u odnosu na koji bili kakva radikalna inovacija na prvi pogled ne deluje kao vredna rizika): verovatno se vecina rizicnih poteza zavrsi sa propascu.

Ali ako imas specifican miks u rukovodstvu uparen sa odlicnim timom i rukovodstvo ima takvu harizmu ili jednostavno "rezime" sa uspesima dovoljnim da celu stvar prodaju najmanjim hazarderima: instuticionalnim investitorima, onda ponekad dobijes Apple iz 2000+

[ Shadowed @ 30.05.2020. 16:47 ] @
Citat:
Ivan Dimkovic: Na primeru sa Microsoftom ili Kodakom se vidi sta se desava kad u firmi imas vizionare koji nisu u poziciji da donose radikalne odluke. Projekti koji su mogli postati totalne globalne transformacije su ubijeni od strane kratkovidog menadzmenta. Da stvar bude jos gora po Microsoft i Kodak, vrlo brzo su neke druge firme (u slucaju Microsofta cak ne ni velike firme, nego startupi) dosle do istih pronalazaka i bukvalno poremetili ne samo neku industriju vec celu ekonomiju.

Na koje projekte/pronalaske mislis u slucaju Microsofta?

Edit: nisam video tvoju prethodnu poruku..
[ Branimir Maksimovic @ 30.05.2020. 16:49 ] @
Ivan:"Pazi ovo: Apple. U jednom momentu Apple odlucuje da kupi jako dobar tim ljudi i da razvija svoj procesor. Prvo smejanje a onda za nekoliko godina Apple postaje firma koja ima najbrzi ARM procesor, bar jednu generaciju ispred drugih, iako Apple nema nikakvu istoriju razvoja procesora a konkurenti su im firme kojima je to glavni biznis."

Pazi, nema tu misterije. Ako kupis know how uvek ces imati rezultate. Apple nije nista mnogo rizikovao u ovom slucaju. Samo su imali dovoljno para.
[ Ivan Dimkovic @ 30.05.2020. 17:19 ] @
@Shadowed, Ideja za MSN Messenger da poruke mogu biti "zalepljene" i vidljive svima ("kome TO treba???") ili preteca XMLHttpRequest API-ja iz 1998-me. Microsoft je celu stvar namenio za Outlook web klijent. Nekoliko godna kasnije je ceo moderni Internet trcao na W3C standardu koji je baziran na originalno Microsoft-ovoj ideji.

@Branimir,

Da, i Microsoft je imao dovoljno para...

Ajde na stranu neprepoznavanje buducih socijalnih mreza (to bi zahtevalo mnogo vise od tehnicke ili poslovne kompetencije) ali brate da su propustili da budu iza novog Web-a iako su oni izmislili kljucnu inovaciju godine pre omasovljavanja... Ili da totalno u*eru mobilni OS iako su prakticno oni izmislili "smartphone" koncept... Za to ti treba talenat. Ovo je na nivou Kodak-ovog razvoja digitalne fotografije, samo da bi je ubili da slucajno ne ugrozi prodaju Kodak filmova.

Fora je u tome da za firmu velicine Apple-a takva odluka nema smisla ako koristis samo stvari koje te uce u poslovnoj skoli.

Cena tima koji razvija procesor je nebitna, te pare imaju i mnogo manje firme od Apple-a.

Ideja da ides uz vetar time sto hoces da promenis celo trziste nije nesto sto biva smisljeno ili podrzano od konvencionalnih rukovodioca. Minimizacija rizika je njihov prioritet, ne menjanje sveta.

Pitaj nekog brojaca para sta misli, reci ce ti da ne budalis i da kupujes procesora od najboljeg ponudjaca. Koje su sanse da ces da prestignes firme koje imaju decenije iskustva u tom poslu? Male.

Rizik veliki, isplativost nije vidljiva sa ocima koje imaju brojaci kinte. A o nekoj ideji da ne samo da ti se isplati, nego da ces ti postati lider u toj industriji... to je onaj momenat kada bi ti rekli da si lud.


[ Branimir Maksimovic @ 30.05.2020. 17:47 ] @
M$-u sasvim dobro ide, pa tako nisu propali, nego zaradjuju i dalje nesmetano. Na mobilno trziste su kasno uleteli, i nisu mogli konkurisati Linux-u iz prostog razloga sto je Linux besplatan.
Apple pravi hardver za svoj ekosistem, tako da je procesor ispao i najveci krsh, iFon bi se i dalje prodavao. No Apple nije zagrizao jos glavnu "jabuku":), a to je da zameni procesor
u svojim desktop/laptop racunarima. Verovatno zato sto to nije bas telefon koji se koristi za chatovanje i telefoniranje...
Tu opet dolazimo do one price: desktop vs mobilni procesor. Nije Apple napravio nista revolucionarno zapravo.
Intel je to pokusao sa Itanikom, ali gle cuda ni on nije propao...
[ Ivan Dimkovic @ 30.05.2020. 19:13 ] @
Ne znam da li si primetio, ali Microsoft je zamenio CEO-a koji je finansijski bio odlican za firmu ali totalno operisan od bilo kakve vizije ili kreativnosti, sa novim CEO-om koji je odlucio da Microsoftova buducnost u rentiranju kompjutera koji trce Linux.

Ono sto je zanimljivo je da je bord Microsofta skupio snage da uradi nesto tako nekonvencionalno.

Sto se tvoje price o Apple-u tice, pa vidis bas u tome i jeste interesantna stvar: Apple je mogao sa bilo kojom drugom strategijom da nastavi da prodaje iPhone. Ipak, odlucili su se da razviju najjaci ARM CPU za mobilne, iako su komotno mogli ili da naprave krs ili da jednostavno kupe model iz kataloga nekog Qualcomm-a ili Samsunga.

Apple je odlucio da ide vrlo nekonvencionalnim putem za koje bi verovatno vecina menadzera rekla da je bacanje vremena. Eto i ti si objasnio kako bi sasvim OK prosli i sa krsem. Neki CEO koji dolazi iz CFO-ovanja bi to sto si ti rekao pretvorio u strategiju.

Citat:

. No Apple nije zagrizao jos glavnu "jabuku":), a to je da zameni procesor


Glavnu jabuku? iPhone, iPad i Watch donose 7x vise kinte nego svi Mac modeli.

Ako Apple bude nesto promenio, to ce biti samo konverzija Mac-ova u iPade sa tastaturom (ne u formi, nego u maticnoj ploci).

Citat:

Nije Apple napravio nista revolucionarno zapravo.


iPad+iTunes su fundamentalno promenili nacin na koji se prvo konzumira muzika a onda i kako se dolazi do iste.

iPhone je fundamentalno promenio ulogu mobilnog telefona u zivotu ljudi.

Ove 2 stvari gore su od proizvodjaca racunara za kreativce napravili najvredniju firmu na svetu. Hoce to tako bez revolucionarnih proizvoda :-)
[ ademare @ 30.05.2020. 19:27 ] @
Apple je tu gde jeste , Najmanje zahvaljujuci , samostalnom razvoju ARM procesora .

To izvlaciti kao neki kljucni primer , je greska .

I iPod i iPhone su postali uspesni proizvodi i dok su koristili tudje procesore tj. Sockete .
[ nkrgovic @ 30.05.2020. 20:25 ] @
Citat:
Ivan Dimkovic:
Ne znam da li si primetio, ali Microsoft je zamenio CEO-a koji je finansijski bio odlican za firmu ali totalno operisan od bilo kakve vizije ili kreativnosti, sa novim CEO-om koji je odlucio da Microsoftova buducnost u rentiranju kompjutera koji trce Linux.

<sarcasm> Kako nista, a "developers, developers, developers" strategija? :)

</sarcasm>
[ Ivan Dimkovic @ 30.05.2020. 20:40 ] @
Citat:
ademare:
Apple je tu gde jeste , Najmanje zahvaljujuci , samostalnom razvoju ARM procesora .

To izvlaciti kao neki kljucni primer , je greska .

I iPod i iPhone su postali uspesni proizvodi i dok su koristili tudje procesore tj. Sockete .


Nije to izvuceno kao "kljucni primer". Primer sa procesorima je samo da pokaze kako Apple i u novoj formi i dalje povlaci nekonvencionalne odluke.

Ono sto je Apple transformisalo u firmu koja ce ostati u istoriji kao simbol prosle 2 decenije su iPod+iTunes, iPhone+App Store i, na kraju, online servisi.
[ Space Beer @ 30.05.2020. 21:50 ] @
Citat:
Ivan Dimkovic:Znas na cemu se simulira organska hemija vezana za COVID19? :-)

Na mom Ryzenu i Radeonu kad uključim [email protected] :d

nVidia i dalje ima veći prihod od gejming proizvoda nego od serverskog/HPC tržišta, ali slažem se da im je marža u ovom drugom veća.
https://www.anandtech.com/show...rnings-let-the-good-times-roll
https://www.anandtech.com/show...arter-closes-our-a-weaker-year

Jasno je da oni mogu da prodaju čip (tipa V100) za $10.000, ali šta će biti ako/kad Gugl ponudi njihov TPU za ~5.000$. Moraće da skrešu maržu baš kao i Intel sa svojom Xeon i HEDT linijom nakon EPYC i Threadripper konkurencije (i naravno ARM). Dalje, jasno je da Intel ima mnogo problema, ali ja sam uveren da će oni moći da pariraju svima u HPC/AI segmentu za 3-4 godine. I sa hardverom i sa softverom
https://videocardz.com/newz/in...rx-560-and-geforce-gtx-1050-ti
[ Ivan Dimkovic @ 30.05.2020. 22:19 ] @
Nije bas to odlucena bitka - TPU jeste bio efikasniji po ceni treniranja od V100, ali je A100 nekoliko puta brzi ako si spreman da zrtvujes malo preciznosti.

Ako si spreman da prihvatis sve trikove koje A100 koristi, skok u broju operacija postaje dvocifren.

Naravno i Google ce verovatno izbaciti nove modele, ali ne deluje da se NVIDIA predaje.
[ Nebojsa Milanovic @ 31.05.2020. 01:32 ] @
Malo sam pogledao analize za NVDA pa evo današnje, sasvim je u skladu sa ovim šta Ivan priča, cena je opravdana
Citat:

NVIDIA: This chipmaker's not playing games

Shares of graphics processing unit (GPU) powerhouse NVIDIA (NASDAQ:NVDA) were already setting fresh all-time highs prior to the pandemic, and just a couple of months after they joined the rest of the market's plunge, they are doing so again. The company's industry-leading GPUs help computers generate the realistic images in video games, but it's the opportunities in artificial intelligence (AI) and data centers that have investors most excited. The parallel processing capabilities of its GPUs have made them the workhorses powering a host of new, high-tech applications.

As the pandemic unfolded, GPUs flew off the virtual shelves, driving NVIDIA's revenue up 39% in the first quarter while net income soared 133%. Revenues in the gaming segment jumped 27% while the data center segment -- which includes cloud computing and artificial intelligence applications -- had a record-setting quarter, with its top line soaring 80% year over year.

The move to cloud computing is still ongoing, and AI is still in its infancy.



[ Branimir Maksimovic @ 31.05.2020. 04:48 ] @
"Revenues in the gaming segment jumped 27% while the data center segment -- which includes cloud computing and artificial intelligence applications -- had a record-setting quarter, with its top line soaring 80% year over year."

Fino samo ako je ovo skocilo za 80% u odnosu na koliko posto od ukupne zarade :P

"The move to cloud computing is still ongoing, and AI is still in its infancy."

Heh, ovo je rezultat hype-a. Po mojoj proceni to ce da splasne za par godina najvise 5.
[ Branimir Maksimovic @ 31.05.2020. 04:53 ] @
Svemirsko Pivo:"Na mom Ryzenu i Radeonu kad uključim [email protected] :d"

Ja sam radio folding dok nisam otkrio BOINC i WCG ;)

edit:
inace nijedan od WCG projekata ne koristi GPU ;)
A dok sam radio folding na GPU nisam bio zadovoljan jer GPU ne moze
da se limitira kolko % ce se koristiti pa to moze samo dok spavas ;)



[Ovu poruku je menjao Branimir Maksimovic dana 31.05.2020. u 06:09 GMT+1]
[ nkrgovic @ 31.05.2020. 06:43 ] @
Citat:
Space Beer:
nVidia i dalje ima veći prihod od gejming proizvoda nego od serverskog/HPC tržišta, ali slažem se da im je marža u ovom drugom veća.
https://www.anandtech.com/show...rnings-let-the-good-times-roll
https://www.anandtech.com/show...arter-closes-our-a-weaker-year

Ali ovo je vrlo indikativno - i ono o cemu pricam. Pogledaj razliku i pogledaj RAST datacentar love izmedju 2020a4 i 2021q1. Vodi racuna, da (u tekstu kaze) od sledeceg kvartala tek pocinju da u Datacentar dodaju Mellanox. Bukvalno sledeci kvartal DC prelazi preko Gaming dela. Ovo ne ukljucuje Quadro (professional visualization) kartice (sa njima je Gaming vec ispod 50% prihoda).

To je ono sto je meni bio "wow" momenat i razlog da pokrenem temu. Bukvalno je Gaming vec ispod 50% - nekad je samo gaming bio 70% prihoda.... Ono sto je jos indikativnije, pogledaj rast. Gaming ide i gore i dole q/q, imas pad u jednom kvartalu. Datacentar ide samo gore i to... ide....
[ Branimir Maksimovic @ 31.05.2020. 06:59 ] @
Nikola:"Datacentar ide samo gore i to... ide.... "

Svakako da ukoliko potreba za GPU racunaljkama poraste u odnosu na broj jezgara generickog procesora, to ce se pokazati time da ce ljudi kupovati
GPU umesto procesora *sa mnogo jezgara ;)

[ Branimir Maksimovic @ 31.05.2020. 08:57 ] @
A ovo je vec interesantno:

Citat:

Little-known Japanese CPU threatens to make Nvidia, Intel and AMD obsolete in HPC market


https://www.techradar.com/news...and-amd-obsolete-in-hpc-market

I dalje:
Citat:

Sandia National Laboratories has announced it will be the first Department of Energy labs in the US to deploy the Fujitsu A64FX, the only ARM-based processor designed from ground up for HPC projects and supercomputers.

Fujitsu is known primarily for its business laptops, tablets and desktops, but is a behemoth in its own right when it comes to processors, having been in the business for well over half a century.

Launched in 2019, the CPU has 48 cores, a theoretical peak performance of 3.38 TFLOPS, runs at 2.2GHz and has 32GB HBM2 memory on the die itself.


Hehe, ovo se zahuktava :P
[ Ali Imam @ 31.05.2020. 08:58 ] @
Citat:
Branimir Maksimovic

"The move to cloud computing is still ongoing, and AI is still in its infancy."

Heh, ovo je rezultat hype-a. Po mojoj proceni to ce da splasne za par godina najvise 5.

Na šta misliš? Da će da splasne Cloud ili AI?

U stvari rekao nih da ni jedno ni drugo neće splasnuti nego rasti.
Za cloud computing rast će verovatno biti veliki.
A primena veštačke inteligencije će rasti dok se ne približi granicama statističkih metoda.
Teško je reći koliko će to trajati jer će približavanje biti asimptotsko
a to može da se oduži...

Čak i kad se AI približi teorijskim granicama statističkih metoda
i dalje će se (AI) koristiti iz prostog razloga jer će moći da se implementira bez razvoja posebnog modela.
Smanjjiće se potražnja za skupim ekspertima koji bi godinama vršili statističke analize da bi naboli odgovarajući metod.
Daleko je jednostavnije propustiti podatke kroz nekog već postojećeg (i za badava) robota.
Za primenu AI dovoljna je obuka putem dopisnog kursa od par nedelja.

Da li to znači da će se studije statistike svesti na primenu AI?

[ Space Beer @ 31.05.2020. 09:00 ] @
Slažem se ja da je nVidia lider, i da u naredne 3-4 godine neće imati valjanu konkurenciju. Kao i da sigurno neće spavati i oslanjati se na staru slavu. Ali ono što ja vidim kao potencijalni problem za njih je to što kompanije koje kupuju većinu njihovih Datacenter i Professional proizvoda imaju račun da traže alternativu ako im nVidia prodaje Quadro ili Teslu za 5-10k po komadu. Ako ti (ili tvoja firma) kupuješ 1, 5 ili 10 V100/A100 komada jer ti treba CUDA i nemaš želju ili vremena da prelaziš na novu platformu to je očekivano. Ali Google, Amazon, Microsoft svakako mogu i moraju bar deo svog poslovanja prebaciti na nešto drugo. Bar je po knjigama tako. Ne možeš dozvoliti da ti dobavljač uslovljava tvoje poslovanje i tvoj plan razvoja i ponude na tržištu. Npr. Simscale nudi GPU za CFD/FEA, a oni koriste OpenFOAM i code_aster. Ovaj drugi čak ni nema CUDA podršku, pa pretpostavljam da se oslanjaju na openCL i openMP. Što znači da im je svejedno ko pravi akceleratore. S druge strane npr. Sim-flow koristi CUDA. Koji je poslovni model bolji, to je pitanje. Ja bih lično izabrao ovaj prvi.
[ Branimir Maksimovic @ 31.05.2020. 09:13 ] @
Ali imam:"Da li to znači da će se studije statistike svesti na primenu AI?"

Ne znam, tu neuralne mreze imaju znacajnu ulogu posto je to sto one zaista dobro rade.
Tako da je to moguce sto kazes.
[ nkrgovic @ 31.05.2020. 09:22 ] @
Citat:
Space Beer:
Slažem se ja da je nVidia lider, i da u naredne 3-4 godine neće imati valjanu konkurenciju. Kao i da sigurno neće spavati i oslanjati se na staru slavu. Ali ono što ja vidim kao potencijalni problem za njih je to što kompanije koje kupuju većinu njihovih Datacenter i Professional proizvoda imaju račun da traže alternativu ako im nVidia prodaje Quadro ili Teslu za 5-10k po komadu. Ako ti (ili tvoja firma) kupuješ 1, 5 ili 10 V100/A100 komada jer ti treba CUDA i nemaš želju ili vremena da prelaziš na novu platformu to je očekivano. Ali Google, Amazon, Microsoft svakako mogu i moraju bar deo svog poslovanja prebaciti na nešto drugo. Bar je po knjigama tako. Ne možeš dozvoliti da ti dobavljač uslovljava tvoje poslovanje i tvoj plan razvoja i ponude na tržištu. Npr. Simscale nudi GPU za CFD/FEA, a oni koriste OpenFOAM i code_aster. Ovaj drugi čak ni nema CUDA podršku, pa pretpostavljam da se oslanjaju na openCL i openMP. Što znači da im je svejedno ko pravi akceleratore. S druge strane npr. Sim-flow koristi CUDA. Koji je poslovni model bolji, to je pitanje. Ja bih lično izabrao ovaj prvi.

Google, Amazon i Microsoft su se zadnjih X godina oslanjali na Intel - pa nista. Google je nesto probao, ali bez mnogo truda, Microsoft nije ni jotu truda ulozio - osim sto usvajaju AMD kad je neko vec sve odradio. Jedino ko je nesto ulozio je Amazon u Arm.

Kako im je intel mnogo, ali mnogo veci supplier od nVidia, ne ocekujem da pokazu neki... "entuzijazam" u ulaganju u akceleratore. Google gura TPU-ove jer im treba za njih, isto kao sto je Amazon gurao Arm, ali mislim da je to - to.
[ Nebojsa Milanovic @ 31.05.2020. 14:32 ] @
U oktobru-novembru 2018, dakle pre samo nešto više od godinu dana, NVDA je imala ogroman pad, kada je cena akcije opala za više od 50%. Ja sam taj pad doživeo kao dokaz da je akcija precenjena i da je to otrežnjenje od prevelikih očekivanja od te firme (tada sam i prestao da je pratim iako sam ranije imao određen broj akcija NVDA).

Međutim, nakon tog pada koji je zaista ogroman (veoma retko se desi da neka firma toliko padne a da celo tržište nije u padu, to je najčešće nagoveštaj pravca ka propasti firme), ona se kontinuirano oporavljala i sada tokom Covid-19 krize, doživela je svoj novi maksimum.

Zaključak je jasan: Osnovna posledica Covid-19 krize je akceleracija digitalizacije celog sveta i mnoge firme su doživele eksplozivan rast tokom ovog perioda.

Ponašanje cene akcije u poslednja dva meseca jasno ukazuje da Nvidia ima svoje mesto tom trendu, i da u godinama ispred nas cena NVDA može biti samo veća.
[ Space Beer @ 06.06.2020. 16:19 ] @
Novi posao za nVidia-u (i AMD)

Purdue receives $10 million from National Science Foundation for Anvil supercomputer

Citat:
Anvil will be built in partnership with Dell and AMD and will consist of 1,000 128-core AMD Epyc “Milan” processors and will deliver over 1 billion CPU core hours to XSEDE each year, with a peak performance of 5.3 petaflops. Anvil’s nodes will be interconnected with 100 Gbps Mellanox HDR InfiniBand. The supercomputer ecosystem also will include 32 large memory nodes, each with 1 TB of RAM, and 16 nodes each with four NVIDIA A100 Tensor Core GPUs providing 1.5 PF of single-precision performance to support machine learning and artificial intelligence applications.
[ mjanjic @ 06.06.2020. 18:07 ] @
Koji posao, 1000 procesora za AMD i 64 nVidia A100 kartice?

To je daleko veći posao i para za one koji budu davali "limariju" (rekove) i kablove i koji to sve budu montirali.
[ Space Beer @ 06.06.2020. 18:43 ] @
Ako su u pitanju proizvodi od $5000 (CPU) i $10000 (GPU), nije ni tako mala cifra. I ono što je za zelene bitnije, vezali su još jednu instituciju za svoju platformu.
[ Ivan Dimkovic @ 06.06.2020. 18:56 ] @
Haha na momenat sam pomislio da je kupac "Purdue Pharma" (biznis porodice Sackler), ne Purdue uni i zapitao sam se koji ce im ovo, mozda da naprave jos adiktivniji narkotik :)))

@mjanjic, da *ebes takav "superkompjuter" kad ti ja i jos par ljudi mozemo da ga kupimo na kredit. Prosecan "malo ili srednje preduzetje" rudar Bitcoin-a u Kini verovatno ima mnogo jacu zver.

@Space Beer, da ovo je sitna masina. Proizvodjaci procesora cene bukvalno objavljuju za narudzbine od 1000 komada. Za 64 NVIDIA A100 kartice verovatno mozes da dobijes popust, tipa Jensen Huang specijalac: 5% (ako si bas dobar, 10% :-)

Opet, Purdue Uni raspolaze sa $2.63 milijarde dolara + komotno su dobili $10M za ovo, ne verujem da ce bas da se cimaju za popust.
[ nkrgovic @ 06.06.2020. 19:14 ] @
Ne znam sta ce im 1000 CPU-ova, ovde heavy lifting radi GPU. 64xA100 je fino, ali nista posebno, 1000 CPU-ova... mozda neki masivan storage, stavise najpre je tako nesto, brdo NVMe masina.

Ovde, ma kako to cudno zvucalo, niko nije "vezan" za AMD, niti je narudzbina nesto bitna.... Vezan je za PCIe 4.0, ovo moze na Xeon cim isti izadje sa podrskom za novi CPU. Nije ovo neki win za AMD, vise je pokazatelj zrelosti njihovog razmisljanja u smislu da su na vreme prepoznali da moraju da rade na brzem bus-u. (Doduse pitanje je koliko je intel propustio da to prepozna, a koliko je cela fab prica problem).

Ono gde je univerzitet, zapravo, "vezan za plaftormu" je nVidia - ovde ce se razvijati kod za nVidia GPU i to je ono sto ce biti tesko portovati. To su tih 16 GPU node-ova. Ima jos 32 "large memory" node-a, verovatno dual CPU, sa po 1TB RAM, ali to mu dodje ukupno ispod 100 CPU-ova..... Ostatak ide na I/O, posto je compute, po clanku, svega ovih 100.Taj Ceph, Lustre, ili sta je vec, nema nikakav lock-in, a sumnjam da i ti CPU node-ovi, osim mogucnosti da alociraju RAM, imaju ikakav constraint da odma ne mogu na neki drugi x64 CPU.
[ Branimir Maksimovic @ 06.06.2020. 19:22 ] @
Nikola:"Ne znam sta ce im 1000 CPU-ova, ovde heavy lifting radi GPU."

Da moze GPU da zameni CPU onda ne bi bilo potrebe za CPU uopstre, i sve bi se
radilo na taj fazon. GPU moze samo delimicno da odradi posao, i to heavy lifting zavisi
od algoritma i sta konkretno treba da se radi. Da je rudarenje ili nesto sto se procesira vecinom
na GPU u pitanju, svakako da ne bi trebalo toliko CPU-a ;)
[ Ivan Dimkovic @ 06.06.2020. 23:38 ] @
@Branimir Maksimovic,

Da, to je vazilo za Tesla (ne brand, nego arhitekturu - iz 2006) i nekoliko sledecih.

Od Pascal arhitekture mozes da trcis tvoj serijski kod na akceleratoru bez bojazni da ce biti spor. Nije bas efikasno koriscenje (optimalan paralelni kod je drasticno brzi) ali radi posao.

Volta i Ampere nemaju nikakvih problema da trce bilo kakav kod. Problem je sasvim druge prirode: kolicina memorije.

CPU kod moze direktno da adresira svu fizicku memoriju. Ako ti treba 4.5 terabajta RAM-a po CPU socket-u, nikakav problem (AMD EPYC2 moze da podrzi 4 TB po socket-u, Intel Cascade Lake "L" verzije mogu da podrze 4.5 TB po socket-u, ali ce da te kosta :-).

NVIDIA akcelerator ima fiksnu kolicinu memorije. Ampere HBM2 RAM je brz kao k*ckin sin (1.6 TB/s! DDR4 ne moze da mu prismrdi) ali 40 GB po kartici je maksimum koji mozes da kupis. 8 kartica ti daju 320 GB (i inter-GPU saobracaj od 600 GB/s) i to je to.

NVIDIA je pre nekoliko godina implementirala "pametno" adresiranje memorije tako da mozes da zaboravis na rucno kopiranje iz sistemskog RAM-a u RAM akceleratora, ali u principu sve sto oni rade je osnovni menadzment memorije sa elementarim optimizacijama. Ako "izletis" iz 40 GB prozora, jedina razlika je da ce drajver da se pozabavi time automatski tako da ti ne moras da pises kod. Ali u sustini nista se ne menja: akcelerator ima HBM2 RAM koji postaje kao neka vrsta kesa ako ti problem zahteva mnogo vise memorije od 40 GB po kartici.

Verovatno i dalje mozes da ucinis I/O sa akceleratorima brzim ako tacno znas sablone pristupa memoriji od strane tvojih algoritama i ako znas da iskoristis mogucnosti koje ti TESLA (brand) akceleratori daju poput 2 nezavisna memorijska kontrolera sa kojima mozes da "preklapas" transfere (ovo nece raditi na GTX karticama), ali to je vrlo skupa optimizacija, ona koja zahteva vrlo pametne inzenjere.
[ Ivan Dimkovic @ 06.06.2020. 23:59 ] @
Citat:
nkrgovic:
Ne znam sta ce im 1000 CPU-ova, ovde heavy lifting radi GPU. 64xA100 je fino, ali nista posebno, 1000 CPU-ova... mozda neki masivan storage, stavise najpre je tako nesto, brdo NVMe masina.

Ovde, ma kako to cudno zvucalo, niko nije "vezan" za AMD, niti je narudzbina nesto bitna.... Vezan je za PCIe 4.0, ovo moze na Xeon cim isti izadje sa podrskom za novi CPU. Nije ovo neki win za AMD, vise je pokazatelj zrelosti njihovog razmisljanja u smislu da su na vreme prepoznali da moraju da rade na brzem bus-u. (Doduse pitanje je koliko je intel propustio da to prepozna, a koliko je cela fab prica problem).

Ono gde je univerzitet, zapravo, "vezan za plaftormu" je nVidia - ovde ce se razvijati kod za nVidia GPU i to je ono sto ce biti tesko portovati. To su tih 16 GPU node-ova. Ima jos 32 "large memory" node-a, verovatno dual CPU, sa po 1TB RAM, ali to mu dodje ukupno ispod 100 CPU-ova..... Ostatak ide na I/O, posto je compute, po clanku, svega ovih 100.Taj Ceph, Lustre, ili sta je vec, nema nikakav lock-in, a sumnjam da i ti CPU node-ovi, osim mogucnosti da alociraju RAM, imaju ikakav constraint da odma ne mogu na neki drugi x64 CPU.


Nije Intel uopste zaboravio PCIe 4.0, ali ono sto ih je zveknulo u glavu je odluka da Ice Lake SP mora biti izbacen na 10nm bez obzira na probleme.

Ako su glasine po netu tacne, inzenjeri koji su radili na arhitekturi su nekoliko puta trazili dozvolu za "backport" na 14nm - i nisu je dobili. Intelov menadzment je odlucio da saceka tim koji je radio na 10nm procesu. Ova greska je verovatno kostala BK-a CEO pozicije.

Originalni plan za Xeone sa Sunny Cove arhitekturom (ne znam da li su se originalno zvali Ice Lake SP) i PCIe 4.0 linkom je bila produkcija u 2018/2019.

Ironicno je upravo to da je EPYC 2 dizajniran sa ciljem da parira Xeon-ima sa Sunny Cove arhitekturom (poznatih kao Ice Lake SP danas), ali je AMD bukvalno osvojio jackpot zbog Intel-ovih losih odluka. AMD je bukvalno dobio 2 godine totalne dominacije za dzabe, sto se ne desava cesto u industriji.

Pitanje je i da li bi Ice Lake SP bio dovoljan kao konkurencija EPYC2 procesorima (max. 38 jezgara vs. 48 jezgara koje bi Cooper Lake imao).
[ Branimir Maksimovic @ 02.08.2020. 23:27 ] @
i to je to izgleda : https://www.bloomberg.com/news...uy-softbank-s-chip-company-arm

Citat:

Nvidia Corp. is in advanced talks to acquire Arm Ltd., the chip designer that SoftBank Group Corp. bought for $32 billion four years ago, according to people familiar with the matter.

The two parties aim to reach a deal in the next few weeks, the people said, asking not to be identified because the information is private. Nvidia is the only suitor in concrete discussions with SoftBank, according to the people.
[ bigvlada @ 03.08.2020. 07:41 ] @
Popiće i oni antimonopolsku tužbu.
[ Space Beer @ 03.08.2020. 09:17 ] @
Ne verujem. Ja mislim da će za telefone ostaviti sve kao i do sad (možda malo veće cene), a da će promenu napraviti za posao sa serverima. Tj. da će u specifikaciju gurati svoje vlasničke standarde (npr. NVLink) umesto nekih slobodnih i tako naterati vodu na svoju vodenicu
[ vbbojan @ 07.08.2020. 20:19 ] @
Molim da neko obrise, promasio sam temu (Trebalo da ide u Gde vidite Intel...). Hvala.

A sad još počelo i da curi i to izgleda da je puno toga procurelo.
Navodno ima indicija da postoje i backdoors (po komentarima nadjenim u kodu), ne znači ništa za sad, ali sad će ljudi znati gde da gledaju...

https://www.bleepingcomputer.c...rnal-docs-from-alleged-breach/



[Ovu poruku je menjao vbbojan dana 08.08.2020. u 12:56 GMT+1]

[Ovu poruku je menjao vbbojan dana 08.08.2020. u 12:57 GMT+1]
[ Space Beer @ 14.09.2020. 06:03 ] @
Sad je i zvanično
https://videocardz.com/press-r...-to-acquire-arm-for-40-billion

Neće da ugase ARM, hoće da prodaju i svoj IP sa njim :D
[ bigvlada @ 15.09.2020. 07:46 ] @
S' obzirom na to kako su se do sada lepo igrali sa drugom decom, ne čudi da je već počeo otpor, uključujući i osnivača Arm-a.

https://www.theguardian.com/bu...-may-undermine-uks-tech-vision
[ bigvlada @ 21.09.2020. 20:29 ] @

Još dva članka na temu, oba tvrde da će Kina da stavi veto jer ovim ishodom Arm gubi status neutralne Švajcarske u svetu poluprovodnika.

US stance may end Arm’s neutrality after Nvidia deal
https://www.globaltimes.cn/content/1200993.shtml

China Expected to Oppose Nvidia’s Acquisition of ARM
http://www.businesskorea.co.kr/news/articleView.html?idxno=51878
[ bigvlada @ 05.10.2020. 20:19 ] @
Počelo je osipanje.

https://semiaccurate.com/2020/...risc-v-with-multiple-projects/

Da moram da pogađam, pretpostavio bih da je u pitanju Huawei.
[ Space Beer @ 07.10.2020. 09:52 ] @
Verovatno. Mada i Samsung ima RISC-V projekte
[ Branimir Maksimovic @ 07.10.2020. 10:07 ] @
Risc V je long standing konkurencija ARM-u, ova akvizicija ce sigurno uticati na odnos snaga...
[ nkrgovic @ 07.10.2020. 12:52 ] @
Vrlo zanimljiv clanak o Ampere A40 GPU-u:

https://www.servethehome.com/n...ore-ampere-to-the-data-center/

Najzanimljiviji deo je cinjenica da se A40 proizvodi u 8nm procesu u Samsung Foundry. Posle ugovora sa IBM-om za Power 10 evo i Ampere kod Samsung-a... Imao je Samsung i pre dobru tehnologiju, ali ovo su dva masivna, ogromna chip-a, sto govori o tome da im je proces dobro utegnut i bez vecih problema.
[ ademare @ 07.10.2020. 13:20 ] @
Proizvodjaci cipova TSMC , Samsung i drugi , koriste za svoje proizvodne procese bukvalno " Umetnicka imena " !

Ako se proizvodni proces zove 7 nm , Totalno nista u tom proizvodu nije 7 nm ! Ni velicina tranzistora nije 7 , ni razmak izmedju dva , niti interkonekcija , niti debljina ! Pa sta je 7 nm ? Nista samo ime !

Plus proizvodjaci vole da noviju verzuju starijeg proizvodnog procesa nazovu sa Manjom cifrom iako se velicine spomenute nista ne menjaju !

Tako je Nvidia proslu seriju pravila kod TSMC , proces nazvan 12 FFN a , u stvari je bio 14 nm i to kao duplo Umetnicko ime . 2080 ti i TITAN RTX koji su isti cip bili su jos veci u mm2 nego sada ovi novi , naravno jer je i proces veci .

Sada celu seriju pravi Samsung , proces se zove 8N ali je u sustini 10 LP++++ .

Samsung je ocigledno ponudio bolju cenu , jer je kod TSMC vec prilicna guzva , veca potraznja dize cenu .
[ nkrgovic @ 07.10.2020. 14:41 ] @
Ma nije toliko bitno kako se zove proces i kakav je - bitno je da se koristi za ovako nesto. Samsung je do sad fabrikovao chipove za mobilne koji su mnogo manji od ovoga sto treba da rade (ili vec rade low-yield) za IBM - i sto sad rade fully blown za nVidia. Mnogo veci cipovi obicno imaju losiji procenat uspesnih, ocigledno je Samsung to doterao kako treba. A to koliko je nm sta, nije ni bitno - bitno je koliko tanzistora spakujes na koju frekvenciju i na koju potrosnju struje - i kako se hladi. :)
[ ademare @ 07.10.2020. 16:28 ] @
Pa da , svaki onaj + ( nije krst ) nisam opalio slucajno , vec stvarno ima 4 komada .

Svaki taj plus je neka nova generacija , neko malecko usavrsavanje vec postojeceg proizvodnog procesa . Tako da su za 4 generacije oni to dobro usavrsili da mogu da naprave sta god treba , pa i najkomplikovanije CPU i GPU .

Jedino Kilavi Intel sad i kod tih pluseva muva , izbacuje , rebrenduje .

Da kod njih plus ne bude Krst ?
[ Ivan Dimkovic @ 08.10.2020. 00:11 ] @
@ademare,

Sta te boli q kao klijenta kako se zove proces - zanima te koliko tranzistora mozes da nabijes, koliko brzo mogu da rade, koliko struje trose i koliko gresaka na vaferu imas. I cena naravno.

U tom pogledu, TSMC trenutno utire, a u sledecoj generaciji (3nm) ce napraviti skok koji nije vidjen jos od Intel-ovog 22nm 3D Tri-Gatea.

Sto se pluseva tice, to je nista drugo nego posledica produzavanja rokova za razvijanje novih procesa.

U poslednjih nekoliko godina je doslo do znacajnog usporenja i proizvodjaci cipova su, jednostavno, poceli da reklamiraju minorna procesna unapredjenja kao "novu tehnologiju" (pluseve).

U vreme kada je Intel svake 2 godine izbacivao novi proces, ovo sto se danas zove "+" nije bilo ni vidljivo u marketinskom materijalu za korisnike. Jedino sto bi ljudi primetili (mozda) je novi stepping sa, recimo, 0.05v manjom voltazom i 100-200 MHz vecim max. taktom.

Danas je to +++++