[ combuster @ 06.01.2011. 00:33 ] @
http://blogs.nvidia.com/2011/0...usher-in-new-era-of-computing/

Citat:

Known under the internal codename “Project Denver,” this initiative features an NVIDIA CPU running the ARM instruction set, which will be fully integrated on the same chip as the NVIDIA GPU. This initiative is extremely important for NVIDIA and the computing industry for several reasons.

ARM is already the standard architecture for mobile devices.  Project Denver extends the range of ARM systems upward to PCs, data center servers, and supercomputers. ARM’s modern architecture, open business model, and vibrant eco-system have led to its pervasiveness in cell phones, tablets, and other embedded devices.  Denver is the catalyst that will enable these same factors to propel ARM to become pervasive in higher-end systems.

An ARM processor coupled with an NVIDIA GPU represents the computing platform of the future.  A high-performance CPU with a standard instruction set will run the serial parts of applications and provide compatibility while a highly-parallel, highly-efficient GPU will run the parallel portions of programs.
The result is that future systems – from the thinnest laptops to the biggest data centers, and everything in between — will deliver an outstanding combination of performance and power efficiency. Their processors will provide the best of both worlds, while enabling increased battery life for mobile solutions. We’re really excited to help engineer smarter brains for the next major era in computing.


Jel' mozete da zamislite da ARM u skorijoj buducnosti moze da zameni x86 arhitekturu ? Ok, racunam da moze da otkine deo trzista prenosivih racunara, tableta i slicnih cuda (cak i da nagrize zesce Atoma i Bobcat-a) ali za high-end desktop racunare ? Pfff go fish...

Windows 8 ce moci da se vrti na ARM-u (Linux vec sada moze) tako da sto se operativnih sistema tice nema problema.

[ bigvlada @ 06.01.2011. 07:22 ] @
Neće, sem ako x86 kompatibilna arhitektura ne bude implementirana hardverski.

Već sam pominjao to na temi o linuksu, poslednji napad na windows/intel standard je bio pokušaj sa os/2 i power pc procesorima. Power PC nije mogao da ponudi brzinu emulacije x86 softvera koji bi bio jednak brzini pentiuma iako je bio brži čip. Ni Alfa (koja je tada bila zver od procesora) nije prošla ništa bolje, jer je hardverski emulirala samo 286. Kako je prošao PC sa windowsom i mips r4000 procesorom?

Ovo je čisto bulažnjenje, kompanija jedva posluje pozitivno posle lutanja sa fermi arhitekturom a sada ce da napadne Intel na njegovom terenu? Njima se pre smeši sudbina utapanja u Intelovo odeljenje za grafičke čipove.


btw. imao je i Apple takve bisere;1997.godine, u vreme neposredno pre nego što se Steva vratio pokušavali su da ubede deoničare da neće bankrotirati pa su im predstavili meka sa Exponentialovim x704 procesorom na 533MHz (nasviranim na 667MHz) koji će naravno ubiti jadnu pc konkurenciju svojim performansama.

[ combuster @ 06.01.2011. 11:34 ] @
Citat:

Power PC nije mogao da ponudi brzinu emulacije x86 softvera


Dakle Denver bi trebalo da ispuni dva preduslova.

Prvi je da ponudi performanse koji ce biti slicni ili veci danasnjim x86 procesorima. Ne kazem da nije moguce, paralelizacija cini cuda. Samo koliko bi bilo isplativo takvo resenje, jer nVIDIA ne moze sebi da dozvoli da na jos jednom polju posluje sa gubitkom zarad probijanja na trziste ili drzanja market share-a. Ovo ipak apsolutno zavisi iskljucivo od nVIDIA-e.

Drugi je da ima odgovarajucu software-sku podrsku. Sto se operativnih sistema tice, no problemo, za dve godine bice to ok. Ali sto se aplikacija tice, to vec zavisi od toga da li ce se Denver uspesno probiti na samom startu. I nVIDIA mora vec sad da tesno saradjuje sa software-skim kompanijama jer i kada izadju na trziste bez kvalitetnog software-a nece uraditi nista.

Ako budu bili primorani da emuliraju x86 - slazem se sa tobom, proci ce kao i svi ostali koji su to do sada pokusali. Ali ako budu imali app-ove koji ce nativno gurati na ARM-u od toga moze nesto i da bude.
[ bigvlada @ 07.01.2011. 08:23 ] @
hm, ne smem ni da zamislim kompletan opus x86 softvera, to je prešlo cifru od 10.000 još pre dvadeset godina (i to samo ako računaš cp/m i dos mašine). Svaka nova mašina će morati da ponudi rešenje za korišćenje tog softvera. Nije dovoljno da samo nagovore Adobe i Autodesk da izdaju verzije Photoshopa i Autocad-a za tu platformu (a koliko su voljni vidi se po tome da o linuks verzijama koje bi radile na istim x86 procesorima ni ne razmišljaju).

Windows NT je bio dokaz da nije dovoljno imati samo široko rasprostranjen os koji je prilagođen procesoru, treba imati i prepeve popularnog softvera. Pa proizvođače mek softvera su tukli po ušima da pređu sa 68000 na power pc arhitekturu, neki su čak jedno vreme prodavali dve verzije programa zajedno, za obe arhitekture.

Mislim da će morati da ima hardverski implementiranu x86 kompatibilnost, seti se koliko snage ti treba za emuliranje jedne male Amige 500 koja ne radi ni na celih 8MHz ali ima MC68000.Na jakoj dx4 mašini i dalje štuca.

Transmeta je pokušala da reši taj problem sa Crusoe i Efficeon procesorima (koji nativno nisu x86) čisto softverski pomoću code morphinga ali je to uticalo na performanse. A hajp je bio ogroman - Linus u supertajnoj kompaniji razvija superčip, optimizovan za linuks, koji će uništiti jadnu pc konkurenciju (od 1984 je moderno oštriti zube na jadnoj pc konkurenciji, magacionerskim kompjuterima itd... iako su skoro svi izazivači danas u muzejima ) Možda je takav pristup kompatibilnosti među arhitekturama rešenje za budućnost a interesantno je da su i AMD i nvidia i Intel otkupili deo njihovih tehnologija.

Jedino je pitanje može li nvidia da napravi čip koji bi radio isto što je radio i Crusoe a po potrošnji,količini silicijuma i performansama bio jednak bar amd-u? (a da pri tome ne bankrotira). Da, to bi značilo još najmanje jedan standard ležišta za procesore ali bi dobili još jednog cpu konkurenta što je svakako dobra stvar.
[ combuster @ 07.01.2011. 21:10 ] @
Citat:

Jedino je pitanje može li nvidia da napravi čip koji bi radio isto što je radio i Crusoe a po potrošnji,količini silicijuma i performansama bio jednak bar amd-u?


Pa cim najavljuju ulazak na sve segmente trzista, oni su poprilicno samouvereni u svoju novu platformu. Mada dizanje hype-a danas radi svako, i sa razlogom i bez. Pa kud pukne da pukne :)

I da, dobili bi jos jednog igraca na CPU sceni, a ako prsnu - dobicemo jednog manje na GPU sto nikako nije dobra stvar.
[ mmix @ 07.01.2011. 21:41 ] @
Ne bih ja tako olako eliminisao ARM iz desktop arene, niti bih tako olako povlacio paralele sa PowerPC fijaskom. Jedno je napadati Intela 80ih i 90ih sa gole poljane a drugo iz oklopne tvrdjave zvane mobility u koju sam intel pokusava da prodre za sada prilicno bezuspesno. Pitaje je sta sve ARM moze ako se malo navuce na steroide, a to za sada ne vidim da neko pokusava da odgonetne. Svi se se navarili na taj greenhouse crap i mobility. Kako bi izgledao ARM da se nabaci quadcore i digne klok na rang high end desktopa 3Ghz+? Koliko bi trosio? Koliko bi bio brz?

Isto tako cela prica oko native zavisnosti od x86 seta je malo preuvelicana u danasnje doba. Gro poslovnih aplikacija danas se ne distribuira u native x86 ili x64 formatu, apstrakcija je uradila svoje, danas imas java bytocode i CLR IL. Sa mog stanovista, Windows 8 na ARMu sa dobrim JITom i GCom (a oni vec postoje za ARM, samo da se dopeglaju) koji bi sigurno dosao uz Windows 8 sve moje aplikacije koje sam radio u poslednjih n godina ce proraditi bez ikakve modifikacije. Ne zabroavi i da ti windows 8 ARM donosi i ceo Windows API na ARMu, dakle i native aplikacije bi se mahom resavale rebuildom. Prica o ekosistemu sa xyz miliona postojecih aplikacija jednostravno ne pije vodu, Windows Vista pa potom Windows 7 su upucali sve i svet se nije srusio, ono sto je aktuelno bilo je upgraded, ono sto nije vise odrzavano palo je u zaborav. Siguran sam da svako od nas zna bar 5 ako ne i vise aplikacija koje smo nekad koristili a koji su potonuli u proslost jer je doslo neso bolje, brze, integrisanije, itd.
[ combuster @ 07.01.2011. 23:28 ] @
Pa ono sto mene najvise interesuje je price-performance ratio u desktop/hpc ARM izvedbi.
[ bigvlada @ 08.01.2011. 09:38 ] @
Citat:
Jedno je napadati Intela 80ih i 90ih sa gole poljane

Gole poljane? Motorolina 88000 risc familija, amd-ov am29000, Intergraph clipper, Hp apollo, sun sparc,dec alpha. Bila je divizija proizvođača risc radnih stanica sa debelim iskustvom (dec je 1984 imao risc procesor na 20 mipsa) koji su hteli na desktop (za neke je to bilo pitanje opstanka). Ubila ih je hardverska nekompatibilnost sa x86 arhitekturom. Topljeni P60/66 izrađen u 5-mikronskoj tehnologiji je bio bolje rešenje.

Citat:
Pitanje je sta sve ARM moze ako se malo navuce na steroide, a to za sada ne vidim da neko pokusava da odgonetne.

I Acorn se to pitao u periodu od 1992 pa sve do 1998 kada su ga rasturili dok su se oni verovatno i dalje pitali zasto se Acorn risc pc ne prodaje bolje. ARM takav kakav je jednom već propao na desktopu (zamisli, nije mogao da izvršava aplikacije iz x86 ekosistema).

Citat:
Kako bi izgledao ARM da se nabaci quadcore i digne klok na rang high end desktopa 3Ghz+? Koliko bi trosio? Koliko bi bio brz?

Koliko je Intelu i AMD-u trebalo vremena da nauče da prave gigahercne multijezgarne procesore? Decenije. Nešto što je u osnovi pravljeno za Archimedesa i mobilne telefone ne može tek tako da se prebaci na 64bita i da mu se samo tako dodaju jezgra.

Citat:
Siguran sam da svako od nas zna bar 5 ako ne i vise aplikacija koje smo nekad koristili a koji su potonuli u proslost jer je doslo neso bolje, brze, integrisanije, itd.

pa, ne koristim vise qemm

Citat:
ono sto je aktuelno bilo je upgraded, ono sto nije vise odrzavano palo je u zaborav

Heh, da, svi su prešli na nov softver ili unapredili stari. Pa NASA je do nedavno koristila 8086 u mission control kompjuterima, zemaljske stanice koje su primale podatke sa atlasa su koristile amige 500/2000.

Citat:
Windows Vista pa potom Windows 7 su upucali sve i svet se nije srusio,

Koliki procenat vista/sedmica su instalacije na novim mašinama? Koliki procenat aplikacija je prešao na 64 bita?

Citat:
Prica o ekosistemu sa xyz miliona postojecih aplikacija jednostravno ne pije vodu

Da, zato se oni nesrećnici u wine projektu trude da što veći deo aplikacija iz nepostojećeg ekosistema nateraju da rade na linuksu.

Citat:
Ne zabroavi i da ti windows 8 ARM donosi i ceo Windows API na ARMu, dakle i native aplikacije bi se mahom resavale rebuildom.

Lepo. Dakle ako proizvođači budu hteli da im windows 8 aplikacija radi i na arm-u moći će to da izvedu uz manje muke nego do sada. To ne znači da će to svi uraditi.

Citat:
Gro poslovnih aplikacija

A šta ćemo sa neposlovnim aplikacijama? Radi li Crysis na tom armu? Da čekamo da napišu novi koji će da radi? Nenagradno pitanje: Koliki broj kompanija će pored verzija za konzole i pc objaviti i posebnu verziju igre za arm?

Ta priča šta će mi potpuna kompatibilnost sa starijim mašinama je jedan od razloga koji su sahranili Amigu i Atari.

Citat:
u native x86 ili x64 formatu, apstrakcija je uradila svoje, danas imas java bytocode i CLR IL

važno je da se izvršava, ko šiša performanse. Više mi se sviđa pristup koji je primenjen kod Krusoa, koji je imao virtuelnu mašinu na nivou procesora. Kruso je mogao da istovremeno izvršava x86 i java kod (krajnji cilj im je bio paralelno izvršavanje x86 i power pc koda). Prikazali su i čisto softverski upgrade Kruso i Efficeon procesora. Pošto nvidia ima nešto od njihovih patenata iskreno se nadam da je ovo put kojim su krenuli.
[ geniuxx @ 08.01.2011. 11:03 ] @
64-bitni ARM je nezvanično u najavi.
Što se tiče performansi, evo primera šta i kako radi 32-bitni ARM na Linuxu:



U pitanju je Beagleboard, razvojna ploča sa TI OMAP ARM kontrolerom. Cena te ploče u USA je $125, a u DE €103.26.
I da, MS je najavio da će Win8 raditi na ARM-u: http://mail2speed.net/lt/t_go...._id--E-222905305--A-vID--E-530.

A x86 je odavno zreo za penziju.
[ [email protected] @ 08.01.2011. 15:58 ] @
FreeBSD/i386 ima trenutno ~ 20.000 programa/biblioteka/whatever u ports stablu.
Pa sad vi zamislite koliko ih ima dostupnih za Windows.
[ mmix @ 08.01.2011. 18:16 ] @
Uh, kad mi tako iscepkate poruku na hiljadu froncli

1. Da, gola poljana. Te igrace nemoj ni da pominjes, da su se oni pitali ko sto srecom nisu desktopi bi i danas bili privilegija bogatih sa radnim stanicama od $10,000 i proprietary memorijskim prosirenjima od $1000 za 32Mb. Nafurani dinosaurusi i proizvodjaci enaiaca, bas mi ih je pa zao sto nisu uspeli da uguse desktop x86 revoluciju. Zna se kako je x86 platforma pobedila i to nema nikakve veze sa risc vs x86 i superiornosti jednog ili drugog. To sto oni nisu uspeli da kasnije obore Intela jeste prica delom vezana za softver ali su sami posejali seme svoje propasti i to sto su oni imali iskustva sa mainframe masinama ne znaci nista u desktop areni. Situacija danas je potpuno drugacija a igraci nisu u borbi za opstanak vec imaju itekako debela ledja da sprovedu sve u delo i sumarno daleko vise sredstava nego intel da pariraju bilo kakvim mahinacijama intela.
2. Tokom vremena linija izmedju RISC i CISC platforme je postala veoma zamagljena tako da je i prica "ARM tek treba da otkrije multicore" malo preuvelicane. Sadasnji CISC procesori su u najboljem slucaju hibridi, kao sto su donekle i ARM procesori a sva tehnologija je javno dostupna kroz patentni sistem. ARM moze bez problema da uleti u tu pricu, na kraju da zavrsi na sudu oko patentnih licenci i da se nagodi sa Intelom kroz kontra tuzbe za svoje patente.
3. To sto nasa koristi 8086 za telemetriju je potpuni offtopic.
4. Softverska baza je opet ponavljam veoma labav alibi. Nekad je mozda bila vazna, ali danas u doba digitalne distribucije i short-attention-span konzumera vise ne igra nikakvu ulogu ni kuci ni na poslu. Ono gde ja mislim da vi gresite je sto ovo vidite kao bitku izmedju Linux/ARM i Windows/x86 sto je deplasirano. Kad Microsoft izadje sa Windows 8 za ARM uz njega ce ici i nove verzije visual studia i ostalih alata koji su za ARM i bitka ce zapravo biti izmedju Windows/ARM i Windows/x86 a od te bitke mi kao windows konzumeri imacemo samo koristi jer ce Intel morati da prestane sa uvaljivanjem procesora sa cetvorosifrenim cenama. GRO aplikacije ce biti ARM kompatibilne prostim rebildom sa ARM ili ARM64 targetom i radice bez ikakvih problema. Onih koji distribuiraju native code i "iz inata" ne budu hteli da naprave build za ARM ce biti veoma veoma malo, oni kojima je stalo do kupaca lako ce napraviti jos jedan build.
5. Wine projekat meni ionako vise ne znaci nista cak ni za port na Linux a kamoli u ovom scenariju, to je arhaicna tvorevina iz starog doba. Moje non-GUI biblioteke sasvim lepo sljakaju na Linuxu pod Monom. Sve i da nije tako opet je prica deplasirana, Windows ARM ce imati identican API kao Windows x86, nikakav wine ili slicno ti ne treba. PE/COFF format vec podrzava ARM zbog embeddeda, nikakava topla voda se ovde ne izmislja.
6. Kruso je monstruoznost, hardverski emulator koji ne mozes optimizovati ni pod tackom razno, fala bogu pa je odapeo na vreme. Emulacija x86 je greska, nikome nije nista donela dobro pa ni njima. Porediti to sa ILom je po meni bezveze jer IL na Windows ARMu nece raditi kroz emulaciju bilo koje vrste. IL kod ce CLR uz pomoc JIT (Just-in-time compiler) napucati direktno i potpuno optimizovano u ARM instruciton set i izvrsavace se direktno na metalu kao sto sad radi sa embbeded CLRom. Performanse JIT koda jesu manje od performansi dobro optimizovanog C++ native softvera ali za te primene vidi pod #4.
[ bigvlada @ 09.01.2011. 11:17 ] @
Citat:
64-bitni ARM je nezvanično u najavi.


Ako taj arm ne bude bar duplo brži od trenutno najjačeg desktop i7 procesora, ne moraju ni da se trude dalje. Tržište i dalje više ceni kompatibilnost od brzine.A u članku ionako pričaju isključivo o mogućem serverskom procesoru, gde nije toliko bitno koji će os na njemu da trči. Da je lako napraviti konkurentan desktop 64-bitni procesor bilo bi više konkurenata (ranije su Harris i AMD pravili 286 procesore, dok je postojao i buljuk proizvođača koprocesora poput weiteka ili IIt-a). CPU i GPU tržište je maraton i tu ima malo Hajle Gebreselasija koji mogu u kontinuitetu da drže korak.


šta se dešava kada praviš procesor koji se ne osvrće na bilo šta pre njega, pa makar se zvao i Intel smo videli u Itanium epizodi koja je najavom Microsofta da prestaje da podržava dotičnog u windowsu dobila svoj završetak. Intel je imao veće planove za Itanium od servera ali je na kraju ispala čista pobeda za AMD-ov x86-64 koncept.Tržište traži kompatibilnu mašinu. Još primera za ovo je bilo u vidu brata blizanca 486-ice (izašli u slično vreme), RISC 80860 nije uspeo, kao ni Inmosovi T414 i T800 transpjuteri, čak i kada su dodavani kao dodatne kartice standardnom pc-ju.


Citat:
Što se tiče performansi, evo primera šta i kako radi 32-bitni ARM na Linuxu

portovan je linux na arm još krajem devedesetih pa su se zajedno preselili u muzej. To je bila interesantna mašina ali nekompatibilna sa bilo čime normalnim u vreme dok je obitavala na tržištu. Koliko je postojalo aplikacija za Risc OS?


Citat:
A x86 je odavno zreo za penziju.

x86 je zreo za penziju još od pojave 386 procesora. Mene ne interesuje koja će se arhitektura koristiti dokle god mogu da pokrenem svaki program koji mogu da pokrenem na x86 mašini.

Citat:
FreeBSD/i386 ima trenutno ~ 20.000 programa/biblioteka/whatever u ports stablu.

Neka i windows ima samo toliko, bez industrije zabavnog softvera, to nije cifra koja se može ignorisati zarad nove arhitekture. Suviše kompanija je nepoštovanje tog jednostavnog pravila platilo nestankom.


Citat:
Uh, kad mi tako iscepkate poruku na hiljadu froncli

pa tako možeš bolje da se fokusiraš na fabulu radnje

Nasa je uzeta kao primer da su čak i najveće kompanije veoma spore u migraciji na nov hardver i softver. Prva compaqova 386-ica je izašla na tržište 1986 a prvi os koji je mogao u potpunosti da je iskoristi je bio windows 95 (za koga je ona pak bila suviše spora).

Citat:
Nafurani dinosaurusi i proizvodjaci enaiaca

Moj stav je bio da je Intel tu bio kompanija sa najmanje iskustva u dizajniranju brzih risc procesora. Intelu su sa jedne strane pretili AMD i Harris a sa druge strane gorepomenuti. U oba slučaja je presudila x86 kompatibilnost i brzina izvršavanja postojećeg softvera. Odigrali su veoma pametno i osvajali segment po segment tržišta. Mainframe konkurencija nije mogla da se takmiči sa Intelovim proizvodnim kapacitetima i obaranjima cena. Podjednako je impresivno i osvajanje tržišta čipsetova za matične ploče (iako smatram da je potpuna intelova dominacija na tom polju jako loša stvar, kao i odluka da zaštiti ležišta za procesore, sa stanovništa potrošača).

Citat:
Tokom vremena linija izmedju RISC i CISC platforme je postala veoma zamagljena tako da je i prica "ARM tek treba da otkrije multicore" malo preuvelicane.

Ne, rekao sam da nije tako jednostavno nadograditi arhitekturu pravljenu za jednu namenu da radi nešto drugo. ARM-u će trebati više vremena i novca da od svoje arhitekture napravi desktop procesor nego što je trebalo Intelu. Ista situacija bi nastala kada bi Intel krenuo da sakati core arhitekturu kako bi radila na mobilnim telefonima.

Citat:
ARM moze bez problema da uleti u tu pricu, na kraju da zavrsi na sudu oko patentnih licenci i da se nagodi sa Intelom kroz kontra tuzbe za svoje patente.

Ovo se naravno podrazumeva, Intel i AMD redovno razmenjuju licence za procesore da se ne bi desilo da neka aplikacija radi na jednom a ne radi na drugom. Problem će nastati kada neko bude hteo da uleti na desktop s nečim što nema npr. SS2 instrukcije.

Citat:
Softverska baza je opet ponavljam veoma labav alibi. Nekad je mozda bila vazna, ali danas u doba digitalne distribucije i short-attention-span konzumera vise ne igra nikakvu ulogu ni kuci ni na poslu.

Groblje alternativnih OS-eva na čelu sa BeOs-om se sa ovim ne bi složilo. Softverska baza je ono što čini x86 i dalje aktuelnim. Ljudi i dalje u zdravlju i veselju koriste deset godina stari xp (viđao sam i dan danas aktivne win95 mašine) a kada dođe trenutak da sav softver bude windows 8 compliant koristićemo optičke kompjutere. Da kupimo arm kada se pojavi i onda krenemo da razmišljamo da li sve što nam treba radi i na njemu?

Citat:
bitku izmedju Linux/ARM i Windows/x86

ne, ovo je bitka x86 softver (koga ima više nego svih ostalih zajedno)vs svi ostali. Onaj ko bude ponudio najbolje rešenje za upotrebu istog pobeđuje. Za sada je to intel/windows kombinacija. Ko zna, možda za deset godina bude arm/reactos.

Citat:
Intel morati da prestane sa uvaljivanjem procesora sa cetvorosifrenim cenama

Uvek će biti procesora sa četvorocifrenim cenama. Biće i proizvođača koji če prodavati svoju gvožđuriju po četvorocifrenim cenama. Biće čak i kupaca koji će i dalje misliti da su zagrižena jabuka ili mali alien nešto nadrealno dobro.


Citat:
Situacija danas je potpuno drugacija a igraci nisu u borbi za opstanak vec imaju itekako debela ledja da sprovedu sve u delo i sumarno daleko vise sredstava nego intel da pariraju bilo kakvim mahinacijama intela.


Svakako, najbolji period je bio kada je postojao i Cyrix na desktop tržištu.Intel je morao da obrati pažnju na dva konkurenta. ARM-ova veličina (vise sredstava od Intela? profit od četrdesetak miliona funti u 2009?) i nedostatak bilo kakvih proizvodnih kapaciteta mu ne daju previše prostora za greške jer zavisi od kompanija poput Ti-a ili TSMC-a. Svojevremeno je DEC bio neuporedivo jači konkurent Intelu, kako po veličini i resursima tako i po znanju (ali su imali Commodore marketing i suvise kasno su dozvolili Tajvancima da prave PCI matične ploče sa alfom). Šta se dešava kada kompanija koja radi samo dizajn čipova uloži previše novca u loš proizvod nVidia i pokojni ati i te kako znaju (da ne pominjem transmetu i cyrix). Sa druge strane, Intel je mogao da godinama kaska za AMD-om dok ih na kraju nije sačekao iza ćoška sa core arhitekturom.

Citat:
Kruso je monstruoznost, hardverski emulator koji ne mozes optimizovati ni pod tackom razno, fala bogu pa je odapeo na vreme.

Lakše je menjati mikrokod unutar procesora kako bi prihvatio različite arhitekture nego pisati novu verziju operativnog sistema i pratećeg softvera za svaku novu arhitekturu procesora (biraš dal'ćeš novi poseban build za svaku novu arhitekturu ili 3u1 aplikacije; JIT mora da bira između brzine i kvaliteta gde redovno strada kvalitet ). Ako se ikada bude napravio open source procesor, to će biti na takav ili sličan način.

Citat:
Emulacija x86 je greska, nikome nije nista donela dobro pa ni njima

Pozdravlja te AMD-ovo odeljenje za desktop procesore uz puno želja za dobro zdravlje

Svaki Intelov desktop procesor je imao manje ili veće bagove koji su se lakše i jeftinije mogli popraviti softverski nego zamenom čipa. Efficeon je dobio podršku za SS3 instrukcije prostom zamenom mikrokoda. Problem sa Krusoom je bio potpuna koncentracija na smanjenje potrošnje i temperature, zanemarujući performanse. To što ih je Intel ocrnio postigavši isti rezultat obaranjem frekevencije nije bitno, koristili su sve što su imali da izbace konkurenta sa tržišta.
Summa sumamrum, Kruso je bio fina ideja koja nije imala najsrećniju implementaciju.

Gorenavedeni članak pominje istu opasnost za serverski arm, tj. da nije bitno da li taj arm troši 30% manje struje ili je 10 stepeni hladniji ako ti trebaju tri komada da postigneš ono što možeš sa dva Opterona.
[ geniuxx @ 09.01.2011. 13:44 ] @
I dinosaurusi su izumrli zbog kompatibilnosti sa prošlošću...
Citat:
Mene ne interesuje koja će se arhitektura koristiti dokle god mogu da pokrenem svaki program koji mogu da pokrenem na x86 mašini.

Ako Linux već radi na ARM-u, znači i praktično sav SW koji je pisan za njega; ako je Win8 za ARM u najavi - a pratiće ga i bitni proizvođači SW-a, kakva te još kompatibilnost muči?
Na kraju krajeva, niko doživotno ne koristi jednu verziju nekog programa - pre ili kasnije radiš upgrade i eto ti prilike da to uradiš sa SW i HW istovremeno.
[ bigvlada @ 10.01.2011. 07:52 ] @
Citat:
I dinosaurusi su izumrli zbog kompatibilnosti sa prošlošću...

dinosaurusi su bili kompatibilni samo sami sa sobom, što nije bio problem jer su svi imali samo jedan takav računar u kompaniji.

Citat:
Ako Linux već radi na ARM-u, znači i praktično sav SW koji je pisan za njega

Ako se ponovo kompajlira. To traži vreme i ljudske resurse (a na drugim platformama i novac).

Citat:
Win8 za ARM u najavi - a pratiće ga i bitni proizvođači SW-a, kakva te još kompatibilnost muči?

Samo podatak da će win8 ići i u 32 bitnoj varijanti (ili podatak da je photoshop za mac i dalje 32 bitan) bi trebalo da ti kaže nešto o brzini "praćenja" softverske industrije. Matori dos su sahranjivali do 1995, a tek windows xp je prekinuo sa novim 16 bitnim softverom na desktopu. A ti očekuješ da munjevito podrže nov procesor. Zašto bi?

Citat:
Na kraju krajeva, niko doživotno ne koristi jednu verziju nekog programa - pre ili kasnije radiš upgrade i eto ti prilike da to uradiš sa SW i HW istovremeno.

Nije ista priča kada imaš jedan računar ili kada imaš kompaniju gde i te kako moraš da vodiš računa o troškovima tranzicije. Ljudi su prelazili sa win 3.1 na xp. Ako prelazak na novi os i procesor u jednoj varijanti podrazumeva i preradu svega dodatnog što su koristili a u drugoj samo zamenu mašina i os-a izbor je jednostavan. Recimo da ljudi imaju licenciran photoshop 7 u nekoj maloj marketinškoj agenciji koji im je više nego dovoljan. Zamenili su mašine, stavili win 8 i sada treba da sacekaju par godina da adobe napise fotoshop za arm i pljunu još par hiljada evra za nove verzije. Da, taj scenario će se desiti. Ako neko u zdravlju i veselju koristi word 2003 kako ćeš mu objasniti da mora da kupi novi da bi mogao da i dalje piše pisma u wordu na novoj mašini? Da koriste gimp i open office? Zamisli, ima ljudi kojima se ti programi ne sviđaju.

2012 (ako tada izađe win8) imaćeš (možda) novi desktop procesor koji će biti podržan određenom količinom matičnih ploča i koji će moći da vozi samo operativni sistem. Podrška novoj platformi nije samo kompajliraj i baci među plebs. Neki preteraju u portovanju pa bankrotiraju (wordperfect koji je radio na svemu što je imalo bar 16bita ali ih je sahranio kilav prelazak sa dos-a na windows).

Jedini, ali zaista jedini način da arm bude upotrebljiv sa (novim) softverom je da ms odluči da aplikacija mora da radi i na arm-u ako želi windows 8 logo. To su radili ranije sa win 95 i nt-om (ako ste hteli 95 nalepnicu, program je morao da radi i na nt-u), a to će raditi ponovo samo ako nvidijin procesor bude čudo neviđeno u odnosu na intel i amd (I'm not holding my breath).
[ kkedacic @ 10.01.2011. 09:34 ] @
Citat:
bigvlada: Samo podatak da će win8 ići i u 32 bitnoj varijanti (ili podatak da je photoshop za mac i dalje 32 bitan) bi trebalo da ti kaže nešto o brzini "praćenja" softverske industrije.


Treba naglasiti komercijalne softwarske industrije, kod open sourcea to nije problem, tako da je jedan nacin spasavanja od toga da se ne podrzavaju gluposti stare 20+ godina upravo open source. Sto je smijesno jer u ove prve spadaju jedne od najbogatijih korporacija na svijetu. Dobro bar cu kad ostarim nativno moci igrati igre iz mladosti na windowsu 39
[ combuster @ 10.01.2011. 18:30 ] @
http://www.fudzilla.com/proces...21499-tegra-2-has-yield-issues

U super. Vec vidim buducnost. ARM x2, ARM x3, ARM x4, sve zavisi koliko je core-ova prezivelo :) Jos u kombinaciji sa nVIDIA GPU-ovima - joj, 336 CUDA cores, 384 CUDA cores, pa onda kombinacije... K'o da ovi Tajvanci seku vafer sa satarom jbt...
[ calimero @ 11.01.2011. 22:55 ] @
Citat:
Neće, sem ako x86 kompatibilna arhitektura ne bude implementirana hardverski.

Već sam pominjao to na temi o linuksu, poslednji napad na windows/intel standard je bio pokušaj sa os/2 i power pc procesorima. Power PC nije mogao da ponudi brzinu emulacije x86 softvera koji bi bio jednak brzini pentiuma iako je bio brži čip. Ni Alfa (koja je tada bila zver od procesora) nije prošla ništa bolje, jer je hardverski emulirala samo 286. Kako je prošao PC sa windowsom i mips r4000 procesorom?

koja je poenta x86?
- da tera Windows.

nema Windowsa, nema ni x86. (ili: kakav OS, takav i CPU! )

btw dimkovicu gde je onaj super ultra mega naslednik Atoma od pre 3 godine koji je trebao da stavi tacku na ARM?
[ geniuxx @ 11.01.2011. 23:45 ] @
@bigvlada:
Niko nije rekao niti očekuje da će prelazak sa x86 na ARM (ili bilo koji drugi procesor) da se obavi preko noći. Trajaće to više godina, naravno. So what? I SW i HW upgrade te čekaju, kad-tad.

Citat:
combuster: U super. Vec vidim buducnost. ARM x2, ARM x3, ARM x4, sve zavisi koliko je core-ova prezivelo

Misliš ovako nešto:



Sa http://www.arm.com/products/processors/cortex-a/cortex-a9.php .
[ combuster @ 12.01.2011. 00:56 ] @
Ne, mislim na ovako nesto :)



Kakav im je yield %, imacemo Cortex A10 X2 (gde su dva ispravna a dva neispravna disable-ovana core-a). Steta da se baci ;-) nVIDIA je vec iskusna tu, posto im je za Fermi bio jednocifren yield mesec dana pred release... :)

/edit:

Ma i ja ken*am. Ako im je yield los nista im nece pomoci, nisam zagledao unutrasnjost Tegre 2 ali sam sad nasao block diagram i ne pise im se dobro. Ako se nesto nije menjalo od pocetka prosle godine, Tegra 2 tera dve single core Cortex 9-tke + unutar jednog die-a IGP, dva procesora za decoding/encoding, audio procesor...

Ako je yield los - they are screwed, odatle ce tesko moci nesto da se povadi... I opet mi nista nije jasno jer TSMC ne radi u 40nm od juce...

[Ovu poruku je menjao combuster dana 12.01.2011. u 02:07 GMT+1]
[ bigvlada @ 12.01.2011. 07:57 ] @
Citat:
Treba naglasiti komercijalne softwarske industrije, kod open sourcea to nije problem,

Koliki deo softverske industrije je komercijala a koliki deo open source? Koliki deo windows aplikacija je komercijalan a koliki deo open source?

Citat:
tako da je jedan nacin spasavanja od toga da se ne podrzavaju gluposti stare 20+ godina upravo open source.

Glavni razlog dugovečnosti pc standarda je kompatibilnost. Svi koji nisu podržavali "gluposti stare 20 godina"
već su sa svakom novom implementacijom procesora ili softvera otkrivali toplu vodu su se preselili u vitrine.

Citat:
Niko nije rekao niti očekuje da će prelazak sa x86 na ARM (ili bilo koji drugi procesor) da se obavi preko noći.

Ti pretpostavljaš da će nvidijn arm (pretpostavimo bez x86 kompatibilnosti) biti toliko bolji (i biti adekvatno podržan od strane hardverske i softverske industrije da će se takav prelazak uopšte desiti) a da će intel i amd sedeti skrštenih ruku. Teško. Očekivati da jedna mala kompanija, sa nesigurnim finansijama i bez iskustva u izradi desktop procesora napravi nešto što će zameniti bazu od preko milijardu aktivnih mašina je čist SF (volim ja SF ali princip ja protiv ostatka sveta uspeva samo u igrama )


Citat:
So what? I SW i HW upgrade te čekaju, kad-tad.

Naravno, ali u jednom slučaju sam biraš kada ćeš i koliko unaprediti hardver, os i aplikativni softver dok te u drugom slučaju procesor prisiljava da menjaš sve odjednom (i to pod uslovom da možeš da zameniš sve). Gde ti tu vidiš neku prednost arma? Zašto bi se neko odlučio da kupi baš to? Alternativa radi alternative? Ako mi baš dođe da budem alternativan, uvek mogu da nabavim neku amiga os4 kompatibilnu ploču, os i da se igram sa tim.

OD 1981 (8088 PC sa pc dos 1.0) do 2011 (intelova i amd-ova četiri i više jezgarna čuda sa sedmicom) dos/windows (sa komercijalnim softverom) i x86 mašine su standard za personalne računare, sve ostalo (bolje ili gore) je alternativa.
Priče o tome šta treba, šta ne treba, kako bi moglo ili ne bi moglo su samo priče. U proteklih 30 godina tržište je nebrojeno puta dokazalo da je najbitnija stavka uspeha kompatibilnost. Zar je to toliko teško prihvatiti?
[ mmix @ 12.01.2011. 08:28 ] @
Ta prica odavno vise ne vazi. Mene sad ceka prelaz sa core2 paltforme i mroacu da menjam sve, i procesor i plocu i memoriju. Bez obzira na to dal cu preci na Naheelem ili SandyBridge. Cak i unutar iste serije pstoje razliciti socketi.

I nista nije zakocuanu u kamenu prijatelju. Narocito ne kopmpatibilnost. Jos jednom ti kazem, drugacija je kompatibilnost kad moras da radis port aplikacjije a potpuno druga prica kad moras samo da uradis rebuild sa novim targetom. Zar je toliko tesko prihvatiti da je rebuild jednostavna operacija? :)
[ Nedeljko @ 12.01.2011. 12:22 ] @
Citat:
mmix: Zar je toliko tesko prihvatiti da je rebuild jednostavna operacija? :)


Nekima izgleda da jeste. Štaviše, bajtkodovi će da prorade čak i bez rebilda.

Ma, daj, sad će da propadne platforma zato što na njoj ne radi Lotus 123 za DOS, a rade Excel i Calc. Znam da je originalni HP-ov drajver za Laserjet 1100 brljavio sa bitmapiranim fontovima (bili su ugrađeni u PDF dokument), ali se prodavao, jer 99% korisnika ne koristi bitmapirane fontove. Ko da je bitna kompatibilnost sa svih 100% programa napisanih do tad. Pokri ti potrebe 99% ljudi i uspeće platforma.
[ geniuxx @ 12.01.2011. 13:38 ] @
Vlado, jedan primer u vezi HW kompatibilnosti: ISA grafička ne ide u noviji PCI slot; PCI grafička ne ide u noviji AGP slot; AGP kartica ne ide u noviji PCI-E slot; ali, kao što znaš, nijedna od tih "novijih" tehnologija zbog toga nije propala.
Što se tiče SW kompatibilnosti - da li baš svi stariji programi rade na Win7? Da li baš svi programi koji su u Lin radili na kernelu 2.1.x rade i na kernelu 2.6.x?
Gledaj, ti koristiš Win; napišeš tekst u Wordu iz MS Office-a, i onda taj .doc(x) pošalješ npr. Combuster-u - koji, iako koristi Linux, taj doc(x) bez problema može da otvori u Writer-u OpenOffice-a, bez obzira što Windows i Linux nisu kompatibilni OS... E, to je kompatibilnost koja mora da postoji, između dokumenata, a bez obzira na OS i HW na kome on radi (desktop, tablet, mobile...), a to je, složićeš se, SW, a ne HW problem.
IMHO, x86 arhitektura (kakva je danas) je zakrpina zakrpa na zakrpi zakrpine zakrpe ... koliko još ima prostora za razvoj/ubrzanje/proširenje? Ja lično jedva čekam da se x86 upokoji...
[ combuster @ 12.01.2011. 13:44 ] @
Citat:

koliko još ima prostora za razvoj/ubrzanje/proširenje?


Dokle god se proizvodni proces bude smanjivao - eto dotle. A slozices se, optimizacija software-a za rad na multiprocesorskim sistemima je SW deo posla :)

Svi pricate o x86 kao da je to ne znam ti ni ja sta, ne ide on nigde uskoro, makar jos jednu deceniju.
[ calimero @ 12.01.2011. 16:10 ] @
Citat:
Glavni razlog dugovečnosti pc standarda je kompatibilnost. Svi koji nisu podržavali "gluposti stare 20 godina"
već su sa svakom novom implementacijom procesora ili softvera otkrivali toplu vodu su se preselili u vitrine.

iOS anyone?

i sam M$ mora da juri i zuri i ponudi nesto slicno za buducnost... samo da ne okasni previse

Citat:
Ma, daj, sad će da propadne platforma zato što na njoj ne radi Lotus 123 za DOS

bolje da smisle multitouch verziju istog za svoj buduci multitouch-interface/ARM Windows 8

[Ovu poruku je menjao calimero dana 12.01.2011. u 23:39 GMT+1]
[ combuster @ 13.01.2011. 16:19 ] @
Citat:
Call Tegra for infotainment

Nvidia’s Tegra chips have managed to find their way to a somewhat unlikely customer, California-based car maker Tesla Motors.

Tesla’s new Model S, the company’s first sedan, will feature an infotainment system based on Nvidia’s SoC. The system will feature a 17-inch touchscreen in the center console and it will incorporate infotainment, navigation. It appears that a secondary 12.3-inch screen will serve as an-all digital instrument cluster and it will deliver vehicle info. The smug will love it.

Nikola Tesla would have probably been proud to see his name on such a geeky car, but we are guessing Jeremy Clarkson will hate it for a number of reasons.
It’s also worth noting that Nvidia struck a deal with Audi to use Nvidia GPUs and other chips in Audi’s next generation MMI system.


http://www.fudzilla.com/graphics/item/21544-tesla-motors’-new-sedan-to-feature-nvidia-chips

freakin' infotainment... when I drive - I don't infotain myself...
[ Ivan Dimkovic @ 13.01.2011. 19:13 ] @
Mojne tako, to mi je biznis ;-)

Btw, NVidia je koristila Cinemo Media Engine za in-vehicle multimedia demonstratore na standu (Tegra 2) ;-)

Ako sve bude islo kako treba - svi ce da koriste taj engine he he he...
[ mmix @ 13.01.2011. 19:22 ] @
Hehe, bas htedoh da kazem "nemoj Dimkovic da te cuje"

Pricanje mobilnim za vreme voznje je big no-no, ali gledanje filmova je cool
[ combuster @ 13.01.2011. 19:23 ] @
Ahahahaha :D

Ma sta ja mislio o koriscenju gadget-a tokom voznje (ukljucujuci i menjanje radio stanica, jednom sam se opekao zamalo tako) - drago mi je da si usao u taj deal - nadam se da ce proci super.
[ bigvlada @ 16.01.2011. 09:56 ] @
Citat:
Mene sad ceka prelaz sa core2 paltforme i mroacu da menjam sve, i procesor i plocu i memoriju

Pa ja rekoh da je druga priča za individualnog korisnika a druga za firme. Ja sam mašinu menjao pre godinu i po i u startu
sam išao na 8GB i što brži procesor (naivno uverenje da će jača mašina sporije stariti). Ako ne mislim da se igram (a
programe koje koristim za posao rade i na 500mhz mašini) trajaće bar još četiri godine. Verovatno će me tada na promenu naterati nešto vezano za muziku ili video.

Citat:
Zar je toliko tesko prihvatiti da je rebuild jednostavna operacija?

Citat:
Ko da je bitna kompatibilnost sa svih 100% programa napisanih do tad. Pokri ti potrebe 99% ljudi i uspeće platforma.


Nisam siguran da će svi skočiti da rade prepeve jer se pojavio novi procesor (pogledaj temu o h264 i vp8 kodecima ). Trebaće im debeo razlog za tako nešto. Tog debelog razloga još nema na vidiku.

Citat:
Vlado, jedan primer u vezi HW kompatibilnosti: ISA grafička ne ide u noviji PCI slot; PCI grafička ne ide u noviji AGP slot;
AGP kartica ne ide u noviji PCI-E slot; ali, kao što znaš, nijedna od tih "novijih" tehnologija zbog toga nije propala.


Heh, ali ono što nisi rekao je da su ( za razliku od IBM-a i njegovog PS/2 pokušaja sa mikrokanalom) PCI slotovi (i pre njih VLB) postepeno potiskivali ISA (kada je prestao da se ugrađuje?) i mogao si da koristiš sve što si imao od kartica bar 7-8 godina. I pci-e je postepeno zamenjivao pci, nisi morao da baciš svoje pci kartice. Jednostavan pattern: ako hoćeš nešto da zameniš, moraš da omogućiš da korisnik izvrši promenu kada on hoće a ne kada je uslovljen nekim parčetom hardvera ili softvera.(postoji izuzetak u vidu cpu slotova: zato sam rekao da je zaključavanje ležišta za procesore i silovanje tržišta sa stalnom zamenom istih jako loše).

Citat:
Što se tiče SW kompatibilnosti - da li baš svi stariji programi rade na Win7? Da li baš svi programi koji su u Lin radili na
kernelu 2.1.x rade i na kernelu 2.6.x?


Nije mi se desilo da naletim na stvar koju nisam mogao da pokrenem pod sedmicom, pa makar morao da koristim i dosbox sa nekim frontendom ili vmware. Sa druge strane, na budućoj osmici pod armom sam osuđen na svakodnevnu molitvu kompanijama da urade jednostavan rebuild svojih programa. Šta ako odluče da im se to ne isplati? (recimo baš gorepomenuti dosbox i vmware) Da čekam da neko napiše alternativu? Zašto bih to radio? Zašto bih morao da čekam?

Citat:
Gledaj, ti koristiš Win; napišeš tekst u Wordu iz MS Office-a, i onda taj .doc(x) pošalješ npr. Combuster-u - koji, iako koristi Linux, taj doc(x) bez problema može da otvori u Writer-u OpenOffice-a, bez obzira što Windows i Linux nisu
kompatibilni OS... E, to je kompatibilnost koja mora da postoji, između dokumenata, a bez obzira na OS i HW na kome on radi (desktop, tablet, mobile...), a to je, složićeš se, SW, a ne HW problem.

Taj fin princip čitanja formata postoji dosta dugo. Međutim nije ti dobra analogija. Izgledalo bi ovako, neko objavi recimo nov tekst procesor, koji ima nov standard za dokumente i ne podržava nijedan drugi format. Ne možeš ni da kopiraš nešto u njega. Od tebe se očekuje da sve dokumente koje imaš prekucaš u njemu i zatim nastaviš da koristiš samo njegov standard dokumenata. Ako taj standard koriste i drugi lepo, ali to njima nije bitno.

Citat:
IMHO, x86 arhitektura (kakva je danas) je zakrpina zakrpa na zakrpi zakrpine zakrpe ... koliko još ima prostora za
razvoj/ubrzanje/proširenje? Ja lično jedva čekam da se x86 upokoji..

Indiferentan sam prema tome šta se nalazi u kanti dokle god mogu da na novoj kanti koristim sve što sam mogao i na staroj.

Citat:
iOS anyone?

i sam M$ mora da juri i zuri i ponudi nesto slicno za buducnost... samo da ne okasni previse

Kakve veze imaju mobilni telefoni sa desktopom? (that's a scary thought, desktop mašina (ili laptop) sa ios-om ili androidom (mislim da postoji neki laptop sa time) gde se email proverava na fejsbuku a radi u office-u u nekom cloudu). Kada i ako to postane standard, povući ću se na neko pusto ostrvo sa terabajtima pdf knjiga i arhivom dos igara.
[ calimero @ 18.01.2011. 12:11 ] @
Citat:
Kada i ako to postane standard, povući ću se na neko pusto ostrvo sa terabajtima pdf knjiga i arhivom dos igara.

Počni polako da se pakuješ
[ Ivan Dimkovic @ 18.01.2011. 12:21 ] @
Broj PC racunara prodatih u 2010: 352.4 miliona, procena 409 miliona u 2011

Cisto da stavimo neke stvari u perspektivu... jeste, PC-jevi su dosadni i nisu zanimljivi IT novinarskoj bazi iz Bay Area, ali se na njima zavrsava posao ukljucujuci i pisanje tih clanaka (oh the irony ;-), a svaka godina ima svoje igracke ;-)

Kada na igrackama budes mogao da radis nesto vise od konzumacije materijala sa produktivnoscu uporedivom sa PC-jem (ili Mac-branded PC-jem) onda mozemo da pricamo o necemu, do tada - to su igracke za ubijanje vremena, i kao takve imaju svoje mesto, ali ne isto kao i PC.
[ Impaler @ 18.01.2011. 12:29 ] @
i josh bi ja dadao osim igracke za konzumaciju. to su instrumenti za prikupljanje osobnih podataka., i slanje istih u oblak :-)
na temelju kojih nastaju specijalizirane reklame, spam i slicno.
[ bigvlada @ 07.02.2011. 08:08 ] @
Malo zakasnelo, ali interesantna analiza sa anandtech-a:
http://www.anandtech.com/show/...re-money-fewer-problems-no-x86

The most notable bit here is that the chipset license agreement will now formally define that NVIDIA does not gain rights to DMI/QPI, which the agreement defines as being Intel processors with an on-chip/on-die memory controller. So while the company can continue to produce C2D chipsets, they will not be able to produce a Nehalem or Sandy Bridge chipset.

NVIDIA also does not get an x86 license. x86 is among an umbrella group of what’s being called “Intel proprietary products” which NVIDIA is not getting access to. Intel’s flash memory holdings and other chipset holdings are also a part of this. Interestingly the agreement also classifies an “Intel Architecture Emulator” as being a proprietary product. At first glance this would seem to disallow NVIDIA from making an x86 emulator for any of their products, be it their GPU holdings or the newly announced Project Denver ARM CPU. Being officially prohibited from emulating x86 could be a huge deal for Denver down the road depending on where NVIDIA goes with it.

Meni je ovaj bold ravan samoubistvu. nVidia izgleda hoće da napadne Intel direktno, na mobilnom i server tržistu pri tom se odričući mogućnosti da bilo koja postojeća x86 aplikacija radi na arm-u. Jako me zanima kojim metodama misle da privole kompanije da podrže denver.

I komentari su interesantni:

At second glance the agreement would also seem to disallow it:

1.8. “Intel Architecture Emulator” shall mean software, firmware, or hardware that, through emulation, simulation or any other process, allows a computer or other device that does not contain an Intel Compatible Processor, or a processor that is not an Intel Compatible Processor, to execute binary code that is capable of being executed on an Intel Compatible Processor.

1.12. “Intel Compatible Processor” shall mean any Processor that (a) can perform substantially the same functions as an Intel Processor by compatibly executing or otherwise processing (i) a substantial portion of the instruction set of an Intel Processor or (ii) object code versions of applications or other software targeted to run on an Intel Processor, in order to achieve substantially the same result as an Intel Processor; or (b) is substantially compatible with an Intel Processor Bus.

An interesting constraint, but IMHO likely to be at worst a mild speed bump. In 4-5 years we'll know better: maybe Nvidia will hit that constraint (IMHO doubtful as they'll have plenty of new workloads/apps); or the current trajectory will make it irrelevant (ok, we can't run your legacy x86 apps--who cares cuz we got plenty of other new and more important ones that people want).

In short, that constraint appears to be Intel looking to the past and attempting to protect their legacy turf, while Nvidia looks forward and their lawyers yawn and say "yeah, whatever, talk to you in six years."

i ovaj:

With retrospect, I could see the mobile-ARM market as lucrative and still booming, and the opposite of the desktop-market. Seems to me that nVidia is wagering everything, that their GPGPU + ARM architecture would beat Intel's SoC solution in terms of power-usage and parallel computation throughput.

But vol7ron brings up a good point, that the PC-users (and gamers) really only know of x86. And it doesn't matter if there's a better architecture/SoC out there, because it doesn't run Starcraft/LabView/Fishbowl. Even with a library-blessing from Microsoft, an ARM+GPGPU system still might not be licensed to actually run what software people are locked to.

Lord knows the developers are either slow to port across architectures (sans Apple). And nVidia is betting that somebody will take up the call for their ARM+GPGPU powerhouse. Microsoft might do it, but I've seen a lot of promising things Microsoft might do, that get axed. Apple might do it, but they've already been burned by straying from hardware too different than the norm. Linux/Android will definitely do it, but my enthusiasm for Linux distros depend on how well it runs Wine.

Jedno pitanje mi se mota po glavi, da li ovo znači da bi Intel tužio Wine ekipu ako portuju wine na neki arm linux distro? Znamo šta Apple radi po pitanju portovanja svog os-a na ne apple hardver.


[ mmix @ 07.02.2011. 08:44 ] @
Nije isto, Wine nije emulacija Intel arhitekture (linux vec radi na istoj) vec je emulacija (zapravo middleware layer) Windows APIa. Tako da eventualno moze MS da ih tuzi, al kad nije za ovih 17 godina ne verujem ni da ce sada.
[ bigvlada @ 08.02.2011. 09:46 ] @
hmm, u pravu si, nisu svojevremeno tuženi ni autori pc ditta 1.0 (2.0 je hardverski emulator) za Atari ST (možda su i performanse od 0,2 SI kumovale tome) mada, moguće zbog toga što ih nisu smatrali za pretnju. Većina emulatora za kućne mašine su bili hardverske prirode, bilo sa 8086/80286 bilo sa nec-ovim v20/30/40 (razvijen reverznim inženjeringom što je danas mnogo teže, duže traje i više košta).

IBM je radio sličnu stvar na velikim mašinama, pusti japance da ih iskloniraju i onda kada sledeće godine ima manji profit od očekivanog, tuži ih i namlati grdne pare (ne sećam se, mislim da su tako potkačili Hitači za neke stotine miliona dolara pre dvadesetak godina).

Današnja situacija mi deluje drugačije, ako su se toliko potrudili da u ovom poravnanju nvidiju potpuno uklone sa x86 tržišta, da će nekome dozvoliti da na mala vrata obezbedi emulator.

Interesantna je i teza da danas ne možeš da dizajniraš procesor a da se ne ogrešiš o nečije patente. Intel i TI su razmenjivali patente još polovinom sedamdesetih, a bila je i neka maratonska Intel-DEC parnica oko procesora.

Izgleda da je nvidia htela samo pravo da sama dizajnira cpu kakav želi, ne obazirući se na x86 svet. Oni se klade da će potući Intel na mobilnom tržištu po pitanju performansi a na serverskom po pitanju cene. Pri tom nvidia nema pravo na grešku dok Intel može sebi da dozvoli oko 4,2 milijarde u kaznama/nagodbama sa AMD-om, nvidiom, usa i eu administracijom. Ključno je pitanje može li denver biti toliko bolji od x86 procesora da uzrokuje lavinu migracija softvera?William Hill im ne bi dao više od 1:200 u narednih pet godina.

[ combuster @ 16.02.2011. 12:11 ] @
http://www.anandtech.com/show/...o-smartphonestablets-this-year

Opa, jace od C2D na papiru :) I Intel govorka kako ce ubiti ARM sa Medfield-om u performansama dok ce mu potrosnja biti na nivou ARM-a na sta se u drugom taboru smeju :)
[ bigvlada @ 17.02.2011. 09:16 ] @
Može li mi neko objasniti čemu služe četvorojezgarni procesori na mobilnim telefonima?
[ Nedeljko @ 17.02.2011. 09:23 ] @
Da vrte četiri niti istovremeno. Time se postiže paralelizam koji ubrzava rad aplikacije.
[ bigvlada @ 17.02.2011. 09:36 ] @
Ovde definitivno fale smajliji za ironiju i sarkazam.

Kojoj aplikaciji treba 4 jezgra? Farmvilu?

btw. izgleda da nvidia bar na papiru pokušava da stigne intel već u prvom petogodišnjem planu.
[ bigvlada @ 17.02.2011. 09:53 ] @
heh, komentari na gorepostovani članak


It's interesting that nVidia's Coremark slide uses a recent GCC 4.4.1 build on their Tegras but uses a much older GCC 3.4.4 build on the Core 2 Duo. I can't help but think nVidia is trying to find a bad Core 2 Duo score in order to make their own CPU look more impressive.

------------------------------------------------------------------------------------------------------------------
Did anyone look at the fine print in the chart with the Coremark benchmark?

Not only do they use more aggressive compiler flags for their products than for the T7200, they also use a much more recent version of gcc. At the very least, they are comparing apples and oranges. Actually, I'm more inclined to call it cheating...

------------------------------------------------------------------------------------------------------------------
As for the performance metrics demonstrated... The 'gaming' is most likely due to the improved graphics, which is unquestionable NVIDIA's strength. The "Coremark 1.0" results meanwhile are yet more amusing. If that Kal-el score is indicative of final frequency performance, then I'd expect it to still be running at 1GHz because Coremark is an unrealistic benchmark that scales linearly with number of cores. It's also basically just an integer benchmark (more information is available on their site.) aka, that benchmark implies zero per-core performance increase for Kal-el over Tegra 2.
------------------------------------------------------------------------------------------------------------------

Very cool chip, lots of great technology. But it will not be successful in the market.
a 1080p high profile decode onto a tablet's SXGA display can easily jump into the 1.2GB/s range. if you drive it over HDMI to a TV and then run a small game or even a nice 3D game on the tablet's main screen, you can easily get into the 1.7 to 2GB/s range.

why is this important? a 533Mhz lpddr2 channel has a max theoretical bandwidth of 4.3GB/s. Sounds like enough right? well, as you increase frequency of ddr, your _actual_ bandwidth lowers due to latency issues. in addition, across workloads, the actual bandwidth you can get from any DDR interface is between 40 to 60% of the theoretical max.

So that means the single channel will get between 2.5GBs (60%) down to 1.72 (40%). Trust me, ask anyone who designs SOCs, they will confirm the 40 to 60% bandwidth #.
So the part will be restricted to use cases that current single core/single channel chips can do.

So this huge chip with 4 cores, 1440p capable, probably 150MT/s 3D, has an Achilles heel the size of Manhattan. Don't believe what Nvidia is saying (that dual channel isn't required). They know its required but for some reason couldn't get it into this chip.

Ništa novo, rade isto što i svi drugi, postoje laži, prljave laži i benchmark testovi

hmm, koliko puta se desilo da kompanija prerano najavi naslednika i tako ubije prodaju postojećeg proizvoda? Recimo da je sve što govore istina i da će u tim vremenskim intervalima izdavati procesore naznačenih specifikacija i razumne cene. Zašto bi neko kupovao prvi model ako zna da će za šest meseci moći da nabavi dva, tri, pet puta moćniji (to što neće umeti da tu snagu iskoristi je druga priča)?
[ Nedeljko @ 17.02.2011. 10:01 ] @
Citat:
bigvlada: Ovde definitivno fale smajliji za ironiju i sarkazam.

Kojoj aplikaciji treba 4 jezgra? Farmvilu?

btw. izgleda da nvidia bar na papiru pokušava da stigne intel već u prvom petogodišnjem planu.


Ajmo sad, kome za lične potrebe treva više od 640KB RAM-a.
[ Nedeljko @ 17.02.2011. 10:02 ] @
Evo kojoj aplikaciji trebaju četiri jezgra: promena veličine slike, a da to na nešto liči posle uveličanja.
[ combuster @ 17.02.2011. 11:09 ] @
Da, stvarno ne vidim razlog zbog koga je benchmark kompajliran sa gcc 3.4.4 na C2D osim varanja :) Dobro, cesto se dogadja da gcc novije verzije ima nekoliko i regresija u domenu performansi u odnosu na stariju samo sto ja ne mogu da budem siguran kakav je stvarno odnos dok sam ne isprobam sa nekoliko verzija gcc-a. :)

Citat:
Nedeljko: Ajmo sad, kome za lične potrebe treva više od 640KB RAM-a.


Treba consumerima, ih pa covece kako ce da se klince sa igricama - PSP samo sto moze mnogo vise:

Citat:

On the GPU side, Kal-El implements a larger/faster version of the ULP GeForce GPU used in Tegra 2. It's still not a unified shader architecture, but NVIDIA has upped the core count from 8 to 12. Note that in Tegra 2 the 8 cores refer to 4 vertex shaders and 4 pixel shaders. It's not clear how the 12 will be divided in Kal-El but it may not be an equal scaling to 6+6.


I to je samo pocetak.
[ mmix @ 17.02.2011. 11:14 ] @
Pa ne mora uopste da bude neka specijalna primena, moze i u najosnovnijoj koju ce svi koristiti, browsing

Thread 0 - UI handling
Thread 1 - I/O, render
Thread 2 - media decoding

Cetvrti core u rezervi za OS, background, etc.
[ Ivan Dimkovic @ 17.02.2011. 14:03 ] @
Citat:

It's interesting that nVidia's Coremark slide uses a recent GCC 4.4.1 build on their Tegras but uses a much older GCC 3.4.4 build on the Core 2 Duo


Hehe, mi matoriji se jako dobro secamo 90-tih i ratova izmedju Intela i Motorole - jos su tada koristili jos grdje fore, recimo verzija za konkurenta kompajlirana sa nekim uvrnutim uravnanjem (aligment) koje totalno upucava performanse - i tako, kao "sta hocete, ukljucili smo -O2 (O3 jos nije izmisljen tada ;-).... sve OK" :-)

Mislim, ko jos veruje vendor testovima zaboga...

Sto se 4 jezgra tice - uopste me ne cudi to sto se ide na to, kada ce mainstream mobilni (Android i W7P) koristiti .NJAVE - svakakog skrndelja od sporog softvera ce tu biti... pa mora malo da se ubrza.

Eno Anandtech komentar neki za Android Linpack - performanse native koda su nekih 10x brze jer jadni Dalvik ne ume da generise propisan NEON kod izgleda za matematiku... tuga i cemer.

Ali bez brige - stizu 2 GHz 4-core procesori koji ce vrteti vas mobilni Java i .NET kod kao Pentium II :-)
[ Nedeljko @ 17.02.2011. 14:50 ] @
Meni te opcije kompajliranja uopšte nisu jasne. Ako nekoga zanima zašto, može da pogleda ovde.
[ Ivan Dimkovic @ 17.02.2011. 14:54 ] @
Ocigledno je GCC bagovit tu sa -O3 opcijom.

MSVC i Intel C++ kompajleri nece dirati IEEE754 kompatibilnost osim ako eksplicitno ne navedes da hoces da imas nebezbednu matematiku.

Doduse, Intel kompajler hoce da zezne matematiku i bez toga ponekad - pogotovu kada se radi o velikom i kompleksnom kodu i nasviravanju maksimalnih optimizacija (mada, i dalje bez krsenja floating point formata)... zato ga treba koristiti sa paznjom.

Nema nista lepseg od toga kada ti Intel C++ generise lose rezutate, pa onda moras da zasuces rukave i juris po kodu gde je doslo do problema (pricam iz licnog iskustva iz nekih davno proslih vremena gde sam morao da radim tezak developerski rad za lebac, tj. dok nisam presao na Outlook i Powerpoint... sad nek se drugi zahebavaju sa FPU formatima ;-)
[ Tyler Durden @ 17.02.2011. 14:58 ] @
Citat:
dok nisam presao na Outlook i Powerpoint


Damn suits! :)
[ Ivan Dimkovic @ 17.02.2011. 15:03 ] @
Doduse, sad moram da gledam idiotski "updating cached headers" skuc na Outlooku svaki dan...

Ne znam sta je vise frustrirajuce - da li to ili jurenje ICC gresaka u FPU aritmetici u 3 AM :-)
[ srdjee @ 17.02.2011. 15:17 ] @
Citat:
Ivan Dimkovic

Ali bez brige - stizu 2 GHz 4-core procesori koji ce vrteti vas mobilni Java i .NET kod kao Pentium II


Sta 2 GHz, 3 GHz bre

Citat:
Among the high-end chips to be made at 28nm node the head of TSMC mentions a multi-core ARM-based chip clocked at 3GHz.


i malo brzi od PII

Citat:
On the Coremark 1.0 benchmark, Kal-El scored more than twice as high as the dual-core Tegra 2, and even topped the Intel Core 2 Duo T7200 laptop CPU.
[ bigvlada @ 18.02.2011. 07:47 ] @
Citat:
Ajmo sad, kome za lične potrebe treva više od 640KB RAM-a.

http://en.wikipedia.org/wiki/Wirth's_law

btw. tip je i pored tog kiksa u predviđanju budućnosti dogurao do 50 milijardi dolara.

Citat:
Evo kojoj aplikaciji trebaju četiri jezgra: promena veličine slike, a da to na nešto liči posle uveličanja.

Da, da bi uvećao sliku dijagonale četiri inča na sliku dijagonale šest inča na mobilnom telefonu ti treba četvorojezgarni procesor, 3D grafička kartica i kamion ram-a.

flashback, 1989, prodavac IT opreme: za obradu teksta vam treba minimum 386 na 33 Mhz sa 4MB ram-a i VGA monitorom u boji.

Jel' ti radiš u prodaji?

Citat:
Pa ne mora uopste da bude neka specijalna primena, moze i u najosnovnijoj koju ce svi koristiti, browsing

o ovome bi se dalo raspravljati, mada, čitao sam neki članak koji je upoređivao atom i P4 i nije bilo jasnog pobednika.

Citat:
Sto se 4 jezgra tice - uopste me ne cudi to sto se ide na to, kada ce mainstream mobilni (Android i W7P) koristiti .NJAVE

ovo je jedini istinit odgovor - 4 jezgra i 3D grafika su neophodni za hd pornjavu. Ništa strašno, i VHS se probio zahvaljujući debbie does dallas.
[ Nedeljko @ 18.02.2011. 09:10 ] @
Citat:
bigvlada: btw. tip je i pored tog kiksa u predviđanju budućnosti dogurao do 50 milijardi dolara.


Uopšte nije bitan taj tip koji inače tvrdi da to nikada nije rekao, nego da su mu prilepili. Bitno je da su potrebe neograničene. To što se nekome nekada činilo da je 640K ihahaj, nije sprečilo istoriju da napiči gigabajte, pa da i oni budu tesni.

Citat:
bigvlada: Da, da bi uvećao sliku dijagonale četiri inča na sliku dijagonale šest inča na mobilnom telefonu ti treba četvorojezgarni procesor, 3D grafička kartica i kamion ram-a.

flashback, 1989, prodavac IT opreme: za obradu teksta vam treba minimum 386 na 33 Mhz sa 4MB ram-a i VGA monitorom u boji.

Jel' ti radiš u prodaji?


Ne radi se o uvećanju slike za 50%, već o zumiranju detalja, koje ne radi glatko, ako uopšte znaš o čemu pričam. Dakle, ne radi se o tome da se dobije nešto ovako



već ovako

[ Ivan Dimkovic @ 18.02.2011. 15:50 ] @
Err...

To zumiranje ce se svakako raditi na GPU-u (ako je sistem/OS dizajner imao malo mozga u glavi...) tj. koristice se teksturni procesor koji je DIZAJNIRAN za proces skaliranja i za to trosi najmanju kolicinu energije jer ima samo kola potrebna za to, a ne CPU koji je totalno neoptimizovan za takvo procesiranje... SIMD instrukcije pomazu ali su daleko manje efikasne od dedicated-hardvera.

Problem tih 4-jezgarnih telefona je prost - telefoni se koriste, u najboljem slucaju, kao pregledaci YouTube-a, mailova, Facebooka - eventualno za po neku igricu (gde je GPU daleko bitniji od CPU-a) - dakle, njima tolika snaga uopste nije potrebna, bar kada su danasnje aplikacije u pitanju.

Naravno, kada se u to ubaci .NET ili .Java skrndelj softver, posto danas svako moze da skraba "The APPS" u nekim RAD alatima (o web skriptama i da ne pricam) - onda to ima smisla, jer skrndelj kod na 4-jezgra je manji skrndelj... to je vec razuman use-case.

Mislim razuman sa stanovista ulaganja u vece CPU snage, ne sa nekih drugih aspekata... ali buducnost sveta je i ovako i onako u skript jezicima i polu-amaterskom kodu, tako da ce nam trebati zaista vrlo brzi procesori da izvrsavaju sve to neoptimizovano djubre.
[ Dejan Lozanovic @ 18.02.2011. 19:43 ] @
GOOD - FAST - CHEAP , izaberi dva :)

Nismo vise u internet eri, presli smo na mobile eru, kad su razmene podataka, narodski receno jos vise se ubrzao proces izbacivanja novih stvari. A gde sve stvari hoce da budu jeftine, jasno ti je sta strada.
[ Nedeljko @ 18.02.2011. 21:43 ] @
Citat:
Ivan Dimkovic: Err...

To zumiranje ce se svakako raditi na GPU-u (ako je sistem/OS dizajner imao malo mozga u glavi...) tj. koristice se teksturni procesor koji je DIZAJNIRAN za proces skaliranja i za to trosi najmanju kolicinu energije jer ima samo kola potrebna za to, a ne CPU koji je totalno neoptimizovan za takvo procesiranje... SIMD instrukcije pomazu ali su daleko manje efikasne od dedicated-hardvera.


Znaš li na primer da za to zumiranje postoji više algoritama, koji ne daju iste rezultate? Šta ako neko smisli nov algoritam? Da li korisnik treba da čeka da se na tržištu pojavi nov uređaj sa novim teksturnim procesorom ili će jednostavno da instalira softver sa tim novim algoritmom?

Recimo, program SmilaEnlarger koristi napredne algoritme čiji je autor ista osoba koja je napisala program.
[ Sale_123 @ 18.02.2011. 22:21 ] @
Citat:
Ivan Dimkovic
Mislim razuman sa stanovista ulaganja u vece CPU snage, ne sa nekih drugih aspekata... ali buducnost sveta je i ovako i onako u skript jezicima i polu-amaterskom kodu, tako da ce nam trebati zaista vrlo brzi procesori da izvrsavaju sve to neoptimizovano djubre.


Mislis da procesori nece biti postedjeni toga trenda ;)
[ Nedeljko @ 18.02.2011. 23:27 ] @
Citat:
Ivan Dimkovic: Problem tih 4-jezgarnih telefona je prost - telefoni se koriste, u najboljem slucaju, kao pregledaci YouTube-a, mailova, Facebooka - eventualno za po neku igricu (gde je GPU daleko bitniji od CPU-a) - dakle, njima tolika snaga uopste nije potrebna, bar kada su danasnje aplikacije u pitanju.


Ovo je razmišljanje poput "640 KB će svakome biti dovoljno". Problem je u tome što se telefoni odavno ne koriste samo za telefoniranje. Današnje aplikacije su takve kakve jesu upravo zbog hardverskih ograničenja. Kada hardver bude jači, praviće se aplikacije sa novim mogućnostima.
[ Ivan Dimkovic @ 19.02.2011. 19:24 ] @
Citat:
Nedeljko
Znaš li na primer da za to zumiranje postoji više algoritama, koji ne daju iste rezultate? Šta ako neko smisli nov algoritam? Da li korisnik treba da čeka da se na tržištu pojavi nov uređaj sa novim teksturnim procesorom ili će jednostavno da instalira softver sa tim novim algoritmom?


Znam ja podosta o algoritmima za skaliranje ;-)

Naravno da se na telefonima nece koristiti nista drugo nego ono sto je u GPU-u zato sto bilo kakav pixel-pushing sa CPU-om ima da totalno urnise mobilnost (trajanje baterije).

Kompleksni algoritmi za skaliranje (sve vise od bicubic ili lanczos resampling-a) donose drastican skok u algoritamskoj kompleksnosti, i potpuno su nepodesni za implementaciju na mobilnim ARM-ovima za svhre real-time zumiranja i surfanja webom. Tu ti ni 4 jezgra nece pomoci.

Da ne pricamo da je dobitak u kvalitetu prosecnom korisniku mobilnih telefona nebitan.

Pricamo o web browserima i mobilnim galerijama, cisto da stavimo stvari u perspektivu - a ne o profesionalnim scaler-ima za prikaz na 60" ekranima. Prosecan Facebooker nece biti bas preterano u stanju da ceni bilo sta vise od priprostog bicubic resamplinga cak i da nema kompromisa u trajanju baterije - a kada se ti kompromisi uracunaju... svi ti algoritmi onda nemaju nikakve sanse na tom trzistu.

Citat:

Ovo je razmišljanje poput "640 KB će svakome biti dovoljno". Problem je u tome što se telefoni odavno ne koriste samo za telefoniranje. Današnje aplikacije su takve kakve jesu upravo zbog hardverskih ograničenja. Kada hardver bude jači, praviće se aplikacije sa novim mogućnostima.


Zivi bili pa videli ;-)
[ maksvel @ 20.02.2011. 10:46 ] @
A šta će to još da uguraju u mobilni? ..A da ima smisla koristiti na ipak malom ekranu i bez "normalnog" interfejsa?
Tableti postaju sve popularniji, možda kod njih bude većeg "budženja", koliko to potrošnja struje dozvoli.
[ Ivan Dimkovic @ 20.02.2011. 10:57 ] @
Pa uzmi moderni PC u obzir.

Moderni PC je i dalje prilicno brzi od tih ARM tabli, pa i tamo CPU u >95% vremena zvrji u idle modu ;-)

Sve graficke stvari su odavno offloadovane na GPU (od samog GUI-ja koji je danas Direct3D/OpenGL) pa sve do algoritama za efekte i procesiranje slika.

Pazi kad na nekom quad-core Core i7 procesoru nema nikakvog smisla gurati nekakve CPU scalere (osim za vrlo specificne upotrebe - profesionalnog tipa, tipa obrada slika i video editing) kada je GPU scaling de-facto sasvim OK, a PC obicno ide na monitore >20 inca, dakle tu bi tek to skaliranje imalo daleko vise realne upotrebe.

Ono, imam ja dobar scaler - moj risiver ima HQV Reon VX image procesor koji ima per-pixel motion-adaptive algoritme i zdere toliko energije da mu treba masivni kuler samo za skaliranje i koji bi pojeo bateriju mobilnog telefona u roku od par desetina minuta max :-) Ali to je aplikacija za plasma TV, a ne za mobilnu tablu.

Gaming i Augmented Reality ce na mobilnim/tabletima mozda doneti skok u potrebnim performansama, ali i tu ce opet to na kraju biti prebaceno na custom silikon - jer je tako jednostavno efikasnije. Bas kao sto su vec prebacili graficke stvari na GPU da ne bi utirali bateriju.

Eno vam desktop PC-ja, kao sto rekoh, vec skoro 5 godina ne postoji realna potreba za jacim CPU-om (jaci od Core 2 generacije) za >95% korisnika - pogotovu ne za Facebook/YouTube/Twitter generaciju. Zahtevne stvari su ili striktno profesionalnog tipa ili su igrice u pitanju, gde je GPU daleko bitniji - mada i tu polako dolazimo do zasicenja jer su autori igrica skontali da im je trziste konzola daleko bitnije, pa ce malo ko da napravi PC-specific engine.

U cemu se sastoji PC desktop rad vec skoro 10 godina?

- Pustanju HD filmova --> yawn, kartice od 20 EUR imaju kompletan HD engine, pa i procesor klase Atoma ne trosi vise od 10-20%
- Surfanju --> Ista stvar, vec vise godina se ne micemo u kompleksnosti, jedino je budjavog JS/PhP koda vise ali i CPU od pre 5 godina se sasvim lepo snalazi sa tim
- Office/e-mail --> ista stvar kao i surf, nikakav skok u zahtevima evo vec 5 godina
- Gaming --> Eto jednog trzista gde se trazi skok performansi, ali ne CPU-a - ali pogledajte koliko dugo ce trajati PS3 i XBox ;-)

Hteli mi to ili ne, end-user IT softverska industrija se prilicno usporila sto se rasta zahteva tice i samo neka polja i dalje napreduju, mada masa tog napredovanja jeste prelazak sa PC na mobilni form-faktor a ne nesto unikatno novo i zahtevnije (mobilne aplikacije su i dalje smesno malo kompleksne u odnosu na PC)

Ono, i ja bih voleo da se ponovo desavaju kvantni skokovi kao 80-tih i 90-tih, tipa >99.9% tacno prepoznavanje govora, >99.9% tacno prepoznavanje teksta, commonsense-reasoning, brain-computer interface itd... ali sve te stvari prvo zahtevaju velike proboje na akademskom/istrazivackom nivou (ironicno, dosta njih je vezano za "hard" AI probleme, koji su vec epski komplikovani i izmicu resenju evo vec preko 50 godina) - jaci desktop CPU-ovi tu nista ne pomazu za sad.
[ Nedeljko @ 20.02.2011. 11:01 ] @
Živi bili, pa videli!

Ja telefon koristim za telefoniranje, SMS poruke i kao imenik, sat i budilnik. Sve ostale funkcije koje moj telefon ima me ne interesuju. Međutim, u njih se trpa sve i svašta.
[ Ivan Dimkovic @ 20.02.2011. 11:09 ] @
Sta podrazumevas u "sve i svasta" ?

Vecina mobilnih aplikacija se mogu svesti na nekoliko "strana" GUI-ja i glue koda koji reaguje na te GUI kontrole, nesto I/O procesa i koriscenja eventualno "Web 2.0" 3rd-party servisa i asseta. Dodati jos neko crtanje i to je to. Nista sto bi zahtevalo PC-like snagu.

Imas neke aplikacije koje zahtevaju signal processing, tipa mlatimudiju, gaming i sl... ali kao sto i sam znas, signal-processing se gotovo po pravilu offloaduje na GPU/DSP. Za multimediju ce ti sve ici na hw. codece i post-procesore (EQ i sl...) a za gaming ce ti sve ici na 3D koji je danas po pravilu imlpementiran kroz programbilne shader-e, dakle ne CPU.

Augmented reality tu mozda nesto promeni - ali dok budes trepnuo, bitni algoritmi za to ce biti prebaceni na custom silikon kako ne bi urnisali bateriju.

Evo ti prost test - dakle, danasnji jak PC ima CPU koji trosi oko 30-40W (laptop verzije). Hajde da kazemo da tu 20% odlazi na ne-efikasnost Intel arhitekture u odnosu na ARM (sto je vrlo nategnuto) - i imamo dakle 20-30W. Ako mobilni CPU-ovi nastave da napreduju ovim tempom, pretpostavljam da ce takvu snagu dostici za jedno 5 godina i unutar 1-2W granice, mada to je prilicno optimisticka procena jer se konacno ocekuju veci problemi u smanjivanju procesa kada budu stigli do ~16 nm.

Reci mi, sta imas na tom PC-ju, sto ti zahteva >60% CPU-a zelis da vidis na mobilnom ili na tabletu?

Ja, iskreno, ne vidim nista...

Photoshop na tabletu/mobilnom ne bih koristio (form-faktor je besmislen za taj posao)... Niti Premiere/After Effects (isto)... Niti AutoCAD (isto)... Niti Matlab (zamisli da pises i testiras kod ;-)

Imas ti nesto?
[ Nedeljko @ 20.02.2011. 11:12 ] @
Citat:
Ivan Dimkovic: Eno vam desktop PC-ja, kao sto rekoh, vec skoro 5 godina ne postoji realna potreba za jacim CPU-om (jaci od Core 2 generacije) za >95% korisnika - pogotovu ne za Facebook/YouTube/Twitter generaciju. Zahtevne stvari su ili striktno profesionalnog tipa ili su igrice u pitanju, gde je GPU daleko bitniji - mada i tu polako dolazimo do zasicenja jer su autori igrica skontali da im je trziste konzola daleko bitnije, pa ce malo ko da napravi PC-specific engine.


Hahaha! Potrebe itekako postoje, ali ne i mogućnost da se tako nešto napravi sa ovom tehnologijom po pristupačno ceni. Pa, pogledaj zahteve video igara. Ne traže one samo jake grafičke kartice, nego jako sve. Neće nove igre da rade na Pentium II procesorima uz mnogo RAM-a i jaku grafičku karticu. Neuronske mreže se takože neefikasno implementiraju, jer procesor proračunava neurone sekvencijalno, što ogranićava broj neurona itd. Zatm ide prepoznavanje pokreta itd.
[ Nedeljko @ 20.02.2011. 11:15 ] @
Citat:
Ivan Dimkovic: Reci mi, sta imas na tom PC-ju, sto ti zahteva >60% CPU-a zelis da vidis na mobilnom ili na tabletu?


Kao što rekoh, ja ne želim ništa. Samo da telefoniram. Ali to ne znači da se svet okreće oko mene i mojih potreba.
[ Ivan Dimkovic @ 20.02.2011. 11:22 ] @
Pa igrice vec 4-5 godina nisu CPU blokirane, o tome ti pricam...

- Tvoj matori Q6600 iz 2006 ce sasvim dobro terati i najmodernije igrice sa jakom grafickom - to je 90-tih bilo nezamislivo. Nema dalje sa idejom IT industrije da ce svake godine moci da podignu prag i bukvalno eliminisu stari hardver, fizika se prebacila na GPU (PhysX) - pogledaj konzole, PS3 i Xbox360 imaju trzisni rok trajanja veci od 5 godina!!! Sta mislis zasto? Zbog zasicenja. 90-tih si bukvalno svake godine imao kvantni skok u zahtevima softvera i mogucnostima hardvera. Danas toga nema na end-user polju.

- Neuronske mreze? Pa CPU ARM i Intel arhitekture je prilicno los nacin, sve i da imas 32 jezgra (sto neces imati na mobilnom u sledecih 5 godina) - ako si smislio nesto jako dobro sto zahteva neku zamrsenu neuronsku mrezu, ti ces to napraviti kao FPGA, a onda ces to pretopiti u custom ASIC... Em je dusu dalo za masivni paralelizam, em trosi manje energije na kraju od CPU koda..

- Prepoznavanje pokreta? Ista stvar - signal processing algoritmi koji se na kraju offloaduju na custom silikon, ako ih trcis na CPU-u ima da ti istope bateriju iz odmah...

Skoro sve aplikacije koje zahtevaju jak CPU i gde je CPU optimalno resenje su jednostavno nekompatibilne sa zahtevima mobilne industrije (max 1-2W i to 2W samo u peak-ovima)...

Ne postoji murov "zakon" za baterije. Zakucan si sa 1-2W budzetom na duze vreme.

[ maksvel @ 20.02.2011. 11:36 ] @
Citat:
Kao što rekoh, ja ne želim ništa. Samo da telefoniram. Ali to ne znači da se svet okreće oko mene i mojih potreba.

Svejedno, cenim da će mnoge stvari ipak da se razdvoje nadalje, te da će telefon ipak ostati na primarnim funkcijama. Tj, guraće još štošta na fon, ali će ljudi sve više uzimati posebne uređaje. Iliti - potrebe će postojati, ali se neće toliko realizovati kroz jedinstven uređaj.
Evo GPS - ok je na telefonu, možeš da ga iskoristiš katkad. Ali nije baš praktično da ga montiraš svaki čas u auto, a da ga koristiš i za ostalo. A GPS-uređaj može da se nađe sa male pare. Ne kažem, sigurno ima nekih modela koji su zgodniji za to, ali ipak...
Ili surf - može da posluži, ako je wap-sajt i uz zoom i šta-ja-znam, ali je tablet mnogo praktičniji. A imaš OK tableta za ~200 jura.
Ili čitanje e-knjiga - imaš pdf reader i sl. na fonu, ali jedino na 5-6 inča može nešto da se uradi, a dedicated-uređaji pojeftinili samo tako i e-ink je čitljivilji za klasu, ne?

Reklamiraju neki hd fon beše sa win 7, kao može da se koristi i za igranje XBox igara. Sve je to zanimljivo onako na prvu loptu, ali je u suštini deplasirano. Sad ću da izraubujem touch-screen na fonu od 500+ jura tek tako za PES ili već šta se igra na MS-ovoj konzoli.

Itd.
I naravno
Citat:
Zakucan si sa 1-2W budzetom na duze vreme.

[ mmix @ 20.02.2011. 11:58 ] @
off: Ne mozes da igras xbox igrice na njemu vec samo da pristupis svom xbox nalogu i da kupis igrice za wp7
[ Ivan Dimkovic @ 20.02.2011. 12:09 ] @
Pa naravno.

Mobilni CPU-ovi ce dostici Xbox 360 hardver tek eventualno za 5+ godina, i to uz veliki optimizam - posto je sabiti to u 1-2W prilicno izazovan posao.

Pa i taj Xbox 360 hardver - pricamo o hardveru generacije ~2004!!!

Ej bre, generacija dve hiljade CETVRTA - to je bilo pre 7 godina, a jos nema naslednika ni na pomolu. Smatra se da ce XBox 360 imati lifecycle od 2015. Od pocetka prodaje do kraja to mu izadje 10 godina. Kao sto je poznato, prodaja XBox-ova ne jenjava i nema nekih pritisaka na povecanje snage hardvera tu.

Nema boljeg dokaza od toga koliko je CPU/GPU snaga naduvana stvar danas.

Razlog zasto se industrija sada fokusirala na mobilne form faktore je zato sto tu vide mnogo vecu mogucnost za rast (#1 - veci TAM, #2 - tehnoloski ima vise prostora za rast, #3 - niko nije apsolutno dominantan igrac kao Intel na PC desktop trzistu = mesta za vise igraca). Ja licno smatram da ce i tu doci do realnog (upotrebnog) plafona vrlo brzo - zapravo daleko brze nego na PC-ju, jer je mobilni form-faktor daleko vise limitirajuci, sto zbog baterije a sto zbog same velicine.

Nesto mi se cini da ce negde bas na 4 jezgra udariti realni CPU zid (zid = adekvatna snaga za upotrebu), mozda jos koju generaciju za GPU i to je to... Onda ce stvari ici kao po inerciji na PC-ju - desktop hardver se razvija ne zbog vecih potreba end-user aplikacija (koje ne postoje) vec zbog toga sto se hardver menja svake 2 godine.

Onda ce vam mobilni CPU/GPU cucati u idle rezimu 99% vremena - bas kao sto to danas rade na PC-ju ;-)

Ali to nece znaciti kraj R&D-a... samo usporenje. Ljudi ce traziti novi hardver svake godine-dve, i bice uvek red da im se proda nesto sto na papiru nudi "vise".

To ne znaci da nece biti nekih drugih stvari koje ce nastaviti da rastu - tipa kvalitet kamera, LCD ekrana i sl...
[ maksvel @ 20.02.2011. 12:20 ] @
Citat:
Ne mozes da igras xbox igrice na njemu vec samo da pristupis svom xbox nalogu i da kupis igrice za wp7

Ja sam skontao tog lika što je prezentovao (beše kod nas pre) da kao možeš da bukvalno koristiš fon kao gamepad za xbox, ono ako baš prigusti. (pitanje života i smrti! )
Možda to može i drugi fon uz neku aplikaciju, pa preko blututa, nije to ni bitno, poslužilo je kao zgodna ilustracija fona kao swiss-knife-super-duper-gadgeta.
[ mmix @ 20.02.2011. 12:39 ] @
Da, ali sad tu ulazi u pricu konzumerizacija. Zasto ljudi kupuju xbox360? Marketing, neznanje i fiskalna slabost, mocna kombinacija konzumerizma. Govoriti zbog konzumerizma da je CPU/GPU naduvan koncept je malo off jer ako hcoes da igras kako bog zapoveda onda imas PC sa puno CPU/GPUa cycles :) Nije to za svakog i ne moze to svako da priusti ali moze da se povuce paralela, problem sa mobile faktorom je sto je on 100% zrtva konzumerizma jer je uredjaj monolitan (ne mozes zameniti GPU ili CPU na telefonu) i prave se samo modeli koji ce se prodavati neukom average Joe-u sa trenutno poluplitkim dzepom. Jedini nacin da ostali ucare nesto na tome je da se average Joe ubedi da mu treba vise "necega" da bi finansirao razvoj :)


(obavezno gledati fullscreen na 1080)
[ Ivan Dimkovic @ 20.02.2011. 12:57 ] @
Ja se uopste ne bih slozio sa tim.

Ljudi kupuju konzole zato sto su LAKSE za upotrebu. Vecina ovog sveta nisu PC geekovi, vec ljudi koji samo zele da provedu svoje slobodno vreme uzivajuci u igricama a ne cimajuci se sa kojekakvim installerma, patchovima, apgrejdima DirectX-a, i konstantnom zamenom hardvera na PC trzistu i problemima koji uz to idu.

Tu konzole UBIJAJU PC - urnisu ga... Ubacis disk, par komandi na kontroleru i IGRAS... Nema nikakvih problema i igrica UVEK radi perfektno.

Ekonomija nema puno veze sa tim - iz prostog razloga sto smo od 2005 do danas imali i ciklus vrlo jake ekonomije kao i slabe, a konzole su polako ali sigurno preuzimale deo kolaca...

Dalje, QA konzolnih igrica je daleko jaci nego na PC-ju... Da li si video konzolne igrice koje trzaju i imaju rapidnu varijaciju u FPS-u? Ja ne... i iskreno meni je daleko vise bitno da mi igrica trci konstantnih 50-60 FPS nego da se u nekim delovima sroza na <10 FPS uz izgovor da je "jaka grafika" - who cares, to ubija dozivljaj daleko vise nego geek fetisizam tipa rezolucija tekstura i kolicina programbilnih shadera... te stvari ne zanimaju prosecnog konzumenta danas, jer i 2005 generacija hardvera nudi sasvim lep ugodjaj koji nije previse razlicit od najnovijeg PC hardvera.

Da ne pricamo o tome da su neki drugi aspekti gaminga postali daleko bitniji - kao recimo online gameplay.

[ Nedeljko @ 20.02.2011. 13:18 ] @
@mmix

Ne znam šta si hteo sa onim snimkom. Sudeći po njemu, animacija je na sve tri platforme brza kao mrtav konj. Ono je bruka za komercijalnu igru. Treba da oćoraviš od dva sata igranja.
[ mmix @ 20.02.2011. 16:07 ] @
Gledaj detalje frejmova Nedeljko, animacija je u realnosti brza samo je tesko nasnimiti animaciju visoke rezolucije u realtime. Peonta je da je xbox za dve dimenzije iza PCa po kvalitetu


@Ivan, pa sta sam ja reko sem "i NEZNANJE". U redu je biti pglu i kupiti xbox zato sto ne znas da koristis bolje ali onda to proglasiti za odlicno je u najmanju ruku "desavanje naroda". NIje odlicno, nije ni dobro, nije ni kvalitetno, nije ni podnosljivo, samo je jeftino i prosto. Simple things amuse simple minds, kod mene DS2 trci u "fulu" na 1080p 60 fps bez problema. Samo sto to kosta (a i mora da se instalira, yikes)

[ djtr @ 20.02.2011. 16:15 ] @
Citat:
Ljudi kupuju konzole zato sto su LAKSE za upotrebu. Vecina ovog sveta nisu PC geekovi, vec ljudi koji samo zele da provedu svoje slobodno vreme uzivajuci u igricama a ne cimajuci se sa kojekakvim installerma, patchovima, apgrejdima DirectX-a, i konstantnom zamenom hardvera na PC trzistu i problemima koji uz to idu.

Tu konzole UBIJAJU PC - urnisu ga... Ubacis disk, par komandi na kontroleru i IGRAS... Nema nikakvih problema i igrica UVEK radi perfektno.


Nema razloga da igranje na PC ne bude isto toliko udobno kao na konzolama.
E sad mozemo da se bavimo time zasto nije tako ali na proizvodjacima igrica/GPU je da objasne prednosti igranja na PC u odnosu na konzole.
U svakom slucaju integracija CPU+GPU je jasan znak sta se sprema desktop trzistu. Sarenilo, efekti i jos efekata. Zar aero nije dosadan. Moze da bude kao compiz, zar ne.
Ponovo ce biti neka situacija "nov dozivljaj desktop-a" i sl.
[ Ivan Dimkovic @ 20.02.2011. 16:18 ] @
Ne znam da li ti promice, ali poenta igrica je da budu zabavne sa dopadljivom grafikom... Tehno fetish obicno privlaci specijalnu grupu ljudi, i nema nista lose u tome - ali to nije razlog zasto igrice postoje.

Ljudi su u masama i siroko kupovali jace i brze, sve dok je "jace i brze" davalo vidljive rezultate koji su cinili DRASTICNU razliku koju svako moze da vidi. Pravi 3D akceleratori sa hardverskim geometrijskim procesorom su bili takav kvantni skok, posle njih hardverski T&L takodje, posle njih programbilni shaderi... E onda je u jednom momentu to prestalo da biva toliko bitno.

Kljucni termin: "Law of diminishing returns" - jednostavno, grafika je postala dovoljno dopadljiva na tom XBox 360 nivou i ljudi vise nece skakati kao ludi samo da bi mogli da diskutuju o broju trouglova ili hebenoj teselaciji. Nisu dovoljno bitne, jednostavno... dobitak u kvalitetu slike nije nesto sto ce dovoljan broj ljudi motivisati da bacaju pare. Zbog toga je MSFT i postavio tako dug lifecycle za Xbox 360.

Imam ja GTX 580 na gajbi... znas koliko mi je euforije donela u odnosu na ATI 5850?

Odgovor: nula.

Moze da trci Crysis... yawn. Igrao sam neke stvari na XBox 360 i PS3 koje su mi bile zanimljivije... i nesto se ne secam da sam imao vremena da brojim trouglove.

Citat:
djtr
U svakom slucaju integracija CPU+GPU je jasan znak sta se sprema desktop trzistu. Sarenilo, efekti i jos efekata. Zar aero nije dosadan. Moze da bude kao compiz, zar ne.


Pa za sarenilo i efekte a-la Compiz kao i bilo sta drugo po pitanju 3D kompozicije ti je dovoljan graficki hardver koji postoji danas na svakoj masini.

Bilo koji, pa cak i budjava Intel integrusa na novijim Core 2 procesorima (GMA4500 style) je vise nego dovoljno jaka da ti odradi sve sto zamisljas da uradis sa prozorima.

Ta primena je drasticno manje kompleksna od bilo koje moderne igrice.

Citat:

Nema razloga da igranje na PC ne bude isto toliko udobno kao na konzolama.
E sad mozemo da se bavimo time zasto nije tako ali na proizvodjacima igrica/GPU je da objasne prednosti igranja na PC u odnosu na konzole.


Kako bi moglo da bude != kako jeste.

QA PC igara je ocajan, i moras da cekas na drugi-treci update da se ispeglaju problemi.

Jos veci problem je sto ne postoji standardizovana konfiguracija i imas dobre sanse da ti igrica ne radi kako treba, vec posle godinu dana nove stvari ima da ti seckaju.

Zasto bi neko bio zrtva tih budalastina? Kupis konzolu i uvek uzivas u kvalitetno odradjenim igricama, a ne da te zavlaci PC industrija i mami pare za novi pixel-pusher svakih godinu dana.
[ mmix @ 20.02.2011. 16:41 ] @
Ma da, zasto bi bio zrtva auto industrije i kupovao novi SLC kad 123-ka vuce pouzdano i moze i na ugalj da radi? Razumem ja vrlo dobro law of diminishing returns (koji btw i moze da se primeni ovde samo zato sto je utrcala konzola u pricu i ucinila dalji razvoj PC GPUa manje primamljivim) i sve je to ok, vecini ljudi ne treba ni SLC ni PC gaming, ali je veliki korak izmedju 123e i konzola i kvaliteta i veliki korak izmedju teletabis igrica koje se danas prave za sredinu belove krive i zanimljivosti igrica sa PC od ranije (ako pricamo o ranije, igrice su pre konzola bile mnogo zanimljivije iako su graficki bile ocajne). I iskreno mi smeta kad neko napravi konzolnu igru i onda pusti krdzav port na PC i onda kuka kako mu ne ide PC sales. Zasto bi ja posle investicije u opremu platio igricu koja izgrleda isto kao na krdzavom xboxu? I onda ako sede na fransizi i upropascuju je iterativno debilnijim i simplifikovanijim izdanjiuma. PC je mozda niche gaming market ali nije market debila.

Jbg, zato cela ova prica sucks za nas sa vecim ocekivanjima. Kad kupis slupi SLC ipak dobijes kompletan proizvod, kad kupis $500 graficku ceka te razocaranje izazvano krsevitim content izdanjima.
[ djtr @ 20.02.2011. 16:42 ] @
Citat:
Pa za sarenilo i efekte a-la Compiz kao i bilo sta drugo po pitanju 3D kompozicije ti je dovoljan graficki hardver koji postoji danas na svakoj masini.

Bilo koji, pa cak i budjava Intel integrusa na novijim Core 2 procesorima (GMA4500 style) je vise nego dovoljno jaka da ti odradi sve sto zamisljas da uradis sa prozorima.

Ta primena je drasticno manje kompleksna od bilo koje moderne igrice.


Tacno je ali nije upakovano kako treba. Desktop kucista su velika, glomazna ista vec godinama unazad. Ceka se nova revolucija desktop-a. Nova slim kucista ili nesto u apple fazonu nesto sto ce biti dovoljno sexy da progura citava industrija. Eksterni uredjaji ce verovatno koristi neki usbX ili light peak(intel u ovom fazonu i zamislja desktop). Integracija ce biti znatno veca a sve to tako upakovano nudice se uz novi win ili sta god koji ce imati "vidno" superiornije graficke efekte. Uz ogromnu sinhronizaciju sa note/netbookom, smart phonom, televizorom... a sto da ne i nekim drugim kucnim aparatima :)
[ Ivan Dimkovic @ 20.02.2011. 16:50 ] @
Citat:
mmix: Ma da, zasto bi bio zrtva auto industrije i kupovao novi SLC kad 123-ka vuce pouzdano i moze i na ugalj da radi?


Vrlo prosto - dacu ti nekoliko razloga:

a) Auto se trosi - posle odredjenog vremena, treba ti drugi jer odrzavanje pocinje da ti stari cini neisplativim
b) Auto je cesto statusni simbol i kupuje se ne uvek racionalno, pixel-pusher sa DX11-ticom nije vecini ljudi (razumem, ima i onih kojima jeste, oni su i glavni market ;-)

Citat:

Razumem ja vrlo dobro law of diminishing returns (koji btw i moze da se primeni ovde samo zato sto je utrcala konzola u pricu i ucinila dalji razvoj PC GPUa manje primamljivim) i sve je to ok, vecini ljudi ne treba ni SLC ni PC gaming, ali je veliki korak izmedju 123e i konzola i kvaliteta i veliki korak izmedju teletabis igrica koje se danas prave za sredinu belove krive i zanimljivosti igrica sa PC od ranije (ako pricamo o ranije, igrice su pre konzola bile mnogo zanimljivije iako su graficki bile ocajne). I iskreno mi smeta kad neko napravi konzolnu igru i onda pusti krdzav port na PC i onda kuka kako mu ne ide PC sales. Zasto bi ja posle investicije u opremu platio igricu koja izgrleda isto kao na krdzavom xboxu? I onda ako sede na fransizi i upropascuju je iterativno debilnijim i simplifikovanijim izdanjiuma. PC je mozda niche gaming market ali nije market debila.


Sta mislis zasto ima sve vise "krdzavih portova" za PC?

Zato sto vise nije toliko bitan market. As simple as that.

A nije zato sto? Zato sto su moderne konzole dovoljno dobre vecini ljudi. A dovoljno su dobre bas zato sto je gaming grafika stigla do magicnog momenta iznad koga nema drasticnih poboljsanja koje cine veliku promenu u gaming ugodjaju = Joe nece da potrci do svoje PC prodavnice da baci deo plajke na novi GPU.

Tako kaze trziste, i tako ce biti.

Kad neko bude napravio hadrverski raytracer sa nekim photon mapperom i kad to bude moglo da se iskoristi za igrice - prilicno sam siguran da nece biti potreban veliki marketing da ljudi vide razliku i daju svoje tesko zaradjene pare na to ;-)

A do tada, poboljsanje u lepljenju tekstura i trcanje nekih shardera na njima... mislim da postaje vec malko kiselo ;-)
[ bigvlada @ 20.02.2011. 16:57 ] @
ja moram da priznam da nisam objektivan. Iako ne programiram dobrih petnaestak godina, počeo sam na neproširenom zx81 gde je bio važan svaki bajt. Zato i dan danas kada vidim neki krš poput adobe readera okrene mi se želudac.

Ivan je većinu stvari već objasnio, a ja cu dati samo još jednu paralelu sa desktop svetom: sa pojavom većeg broja sporih windows aplikacija početkom devedesetih, industrija je shvatila da je jeftinije praviti namenske windows grafičke akceleratore sa 0,5 - 4MB ram-a nego ubrzavati cpu. Zato mi je i ovo insistiranje na 4 jezgra na mobilnom telefonu u najmanju ruku loš način za ubrzavanje aplikacija.

Elem back to the subject, vidim da se niko nije osvrnuo na nvidijin ritam od šest meseci između generacija koji mi je malo preterano optimističan, plus što nisu objavili kako misle da zaštite prodaju jedne generacije u situaciji kada tržište iščekuje sledeću.

Mislim da nisu ni približno obavili pripreme kao što su to onomad uradili IBM, Apple i Motorola. IBM je išao čak dotle da se odrekao prava da sam proizvodi pentium i naslednike mu (jedina kompanija koja je toliko velika da ne može da propadne i pored tolikih katastrofalnih grešaka).

Nadam se da nije problem kačiti ceo članak, i časopis i izdavač su pokojni već duže vreme.





Jedna jedina stvar im nije išla u prilog, brzina emulacije x86 softvera, i to ih je ukopalo. Ovde nema kohabitacije, ili su obe arhitekture međusobno kompatibilne ili jedna ide u muzej.
[ Nedeljko @ 20.02.2011. 20:26 ] @
Citat:
Ivan Dimkovic: Ne znam da li ti promice, ali poenta igrica je da budu zabavne sa dopadljivom grafikom... Tehno fetish obicno privlaci specijalnu grupu ljudi, i nema nista lose u tome - ali to nije razlog zasto igrice postoje.

Ljudi su u masama i siroko kupovali jace i brze, sve dok je "jace i brze" davalo vidljive rezultate koji su cinili DRASTICNU razliku koju svako moze da vidi. Pravi 3D akceleratori sa hardverskim geometrijskim procesorom su bili takav kvantni skok, posle njih hardverski T&L takodje, posle njih programbilni shaderi... E onda je u jednom momentu to prestalo da biva toliko bitno.

Kljucni termin: "Law of diminishing returns" - jednostavno, grafika je postala dovoljno dopadljiva na tom XBox 360 nivou i ljudi vise nece skakati kao ludi samo da bi mogli da diskutuju o broju trouglova ili hebenoj teselaciji. Nisu dovoljno bitne, jednostavno... dobitak u kvalitetu slike nije nesto sto ce dovoljan broj ljudi motivisati da bacaju pare. Zbog toga je MSFT i postavio tako dug lifecycle za Xbox 360.

Imam ja GTX 580 na gajbi... znas koliko mi je euforije donela u odnosu na ATI 5850?

Odgovor: nula.

Moze da trci Crysis... yawn. Igrao sam neke stvari na XBox 360 i PS3 koje su mi bile zanimljivije... i nesto se ne secam da sam imao vremena da brojim trouglove.


Imam drugara ljubitelja igara. Ni on nema vremena da broji trouglove. Međutim, ako mu igra koja ga zanima ne radi u fulu sa svim efektima bez seckanja, odmah radi nadgradnju.
[ combuster @ 20.02.2011. 22:42 ] @
Jes' i ja se zabavio malo sa igrama ovih dana i stvarno se vrlo brzo zasitio. Ono cega ne mogu da se zasitim je sirove cpu snage koju ima ovaj sandy. Nisam ja neko ko ne moze da saceka malo duze da se nesto odradi ali 7x dobitak u brzini poredeci sa mojim C2D Mobile je zastrasujuca. Pre dva meseca sam jurio bug u webkitgtk-u i trebao da backportujem neki patch i stvarno je smor cekati sat i po vremena da odradi compile samo da bi na kraju video da mi nedostaje po neka funkcija a zatim poceo opet (ne od pocetka naravno ali sam se u nekim trenutcima toliko pogubio da sam morao da krenem iznova, mnogo promena u API-ju a kod gabaritan damn it). No fun at all...

Sad, hah, vezite se slecemo a mozda i necemo :D

I tako, mogu oni da prave sta god hoce sa ARM-om na tim tabletima i cudima - dok god ne bude imao ovakve performance po ovoj ceni - aj' zdravo... I naravno da ne bih razmisljao o ARM-u na desktop-u u narednih pola decenije - deceniju minimum.

A ovaj GTX460 cu da promenim al' kad bi se zezali, tu je kao razbibriga u trenutcima dokolice, ionako 90% vremena teram HD2000 na SB-u koji je zivotinja za matori X3100. A da ja kupujem nove grafulje zbog budjavo optimizovanih igara koje su se prerano pojavile na trzistu - a-a. Ovo cudo ce da mi zavrsava posao u naredne 4 godine minimum, taman da vidim dokle ce da stigne ARM ;-)
[ calimero @ 25.02.2011. 08:36 ] @
Citat:
hmm, u pravu si, nisu svojevremeno tuženi ni autori pc ditta 1.0 (2.0 je hardverski emulator) za Atari ST (možda su i performanse od 0,2 SI kumovale tome) mada, moguće zbog toga što ih nisu smatrali za pretnju. Većina emulatora za kućne mašine su bili hardverske prirode, bilo sa 8086/80286 bilo sa nec-ovim v20/30/40 (razvijen reverznim inženjeringom što je danas mnogo teže, duže traje i više košta).

pa ni Apple nije tuzio ShapeShifter na Amigi - u jednom trenutku je najbrzi Apple bila Amiga 4000 sa 68060 i ShapeShifterom
kao sto je i Atari ST sa Aladinom bio brzi od originalnog Mac-a

Citat:
Ovde definitivno fale smajliji za ironiju i sarkazam.
Kojoj aplikaciji treba 4 jezgra? Farmvilu?


onim aplikacijama koje nisu samo za konzumiranje sadrzaja (kako dimkovic voli da pojednostavi pojam tableta)

npr. http://www.youtube.com/watch?v=RiR-ml91Dhw (augmented reality) (evo sad vidim da i dimkovic pominje isto to na 4. strani... btw necu ni da te pitam sta bi sa onim intelovim mobilnim CPUu koji si spominjao 2007. da ce da sahrani ARM jer vidim da sad pises: "Hajde da kazemo da tu 20% odlazi na ne-efikasnost Intel arhitekture u odnosu na ARM" )

Citat:
Pa za sarenilo i efekte a-la Compiz kao i bilo sta drugo po pitanju 3D kompozicije ti je dovoljan graficki hardver koji postoji danas na svakoj masini.

na Mac OS Xu je bio dovoljan i GeForce II sa 16MB iz 2002. za kompozitni desktop na GPU...

elem, kad smo vec kod Applea... cela prica oko AppStorea i forsiranja da se koristi samo dokumentovana Cocoa mi lici na pripremu terena za maksimalno jednostavnu tranziciju sa jedne ISA na drugu.
Jeste da je Apple radio to vec dva puta za 30 godina ali je uvek imao neki translacioni layer, ovako bi bilo mnogo lakse prebaciti celu biblioteku Mac softwarea na novu arhitekturu...
[ bigvlada @ 28.03.2011. 16:14 ] @
NVIDIA Project Denver is a 64-bit ARM Processor Architecture
3/8/2011 by: Theo Valich - Get more from this author


nVidia's Co-founder and CEO recently hosted a dinner for selected press where he discussed the company past, present and future, revealing interesting bits about the future architectures as well. The dinner was covered on several publications, but we took note of one sentence published on VentureBeat:


"To take the ARM processor, partner with them to develop a next-generation 64-bit processor to extend it so that all of computing can have the benefits of that instruction set architecture. It is backward-compatible with today’s ARM processors."

This was a clear confirmation what our sources were saying about Project Denver: that nVidia is bringing a 64-bit instruction set to the ARM CPU architecture. According to our sources, in order to fully develop a new high-performing CPU architecture, you need to dedicate roughly between 1.1-1.8 billion dollars. The figure comes from companies that actually develop CPU architectures, thus they have previous experience. The cost of Project Denver could be much higher, as nVidia doesn't have previous experience in building a CPU architecture. The company however, has a lot of experience in building a complex GPU architecture, which are now (arguably) more complex than any other computer chip on the planet. GPUs in fact, cover first (nVidia GF100/GF110), second (AMD 6900 "Cayman") and third place (AMD 5800 "Cypress"). Intel's ultra high-end CPU, Itanium "Tukwila" CPU comes in fourth place, with only 50 million transistors more than fifth-placed nVidia's GF110/114, used in mainstream cards such as GeForce GTX 460 and 560 Titanium.

According to Jen-Hsun, nVidia is "working on a CPU internally for about three and half years or so. It takes about five years to build any full custom CPU. And Project Denver has a few hundred engineers working on it for this period of time and our strategy with Project Denver was to extend the reach of ARM beyond the mobile, the handheld computing space."

Thus, we don't expect Project Denver to appear before late 2012 or early 2013 - in line with Maxwell GPU architecture, which is expected to integrate Project Denver architecture and become the first shipping GPU which could boot an operating system. It would not be the first GPU to boot an operating system, though. According to several PR representatives, the company already managed to boot an special build of Linux using Fermi GPU, but resources for that were abandoned as it proved too much of a hassle. Kepler of Maxwell for a public demonstration? Our money is on Maxwell…

Two major reasons why nVidia wanted to develop the processor - with or without Microsoft's dedication to base Windows 8 on ARM architecture - were Tesla and console business. Tesla is a growing business unit still gives a lot of revenue to either Intel or AMD, whomever ends up being selected for CPUs that feed the Tesla GPGPU array (1 CPU feeds 4 GPGPUs). Pairing Tegra 3/4 with Kepler-based Tesla is a start, and Maxwell/Project Denver should be a viable business solution, abandoning the need for an x86 CPU in order to feed the parallel GPGPU arrays.

As far as console business is concerned, Jen-Hsun confirmed that the company is working on an next-generation console. Chances are, the only chips inside the unnamed console should come from Santa Clara. Sony or Microsoft? We'll leave that guessing game to others.
http://www.brightsideofnews.co...rm-processor-architecture.aspx

Gde nestade desktop? Ispada da ciljaju samo na tržišta servera i konzola.
[ combuster @ 28.03.2011. 17:20 ] @
Verovatno ce u pocetku sve to biti skupo poprilicno - ocekujem da sidju na desktop trziste ubrzo posle inicijalnog release-a (ne vidim razlog zasto ne bi).
[ bigvlada @ 29.03.2011. 09:28 ] @
Ne znam, meni je i dalje teško da zamislim neku masovnu prodaju pc računara sa matičnim pločama na kojima je denver. Sa druge strane, Apple mi deluje kao neko ko je dovoljno lud da sve svoje hardverske proizvode bazira na derivatima arm-a.


Elem, više detalja
(note: na linku su linkovi ka člancima o pojedinim delovima procesora kao i navodna sličica jezgra)

nVidia Reveals 64-bit "Project Denver" CPU Silicon Die!?
3/9/2011 by: Theo Valich - Get more from this author


During his introduction speech at Financial Analyst Day 2011, Jen-Hsun Huang revealed an interesting slide to the semiconductor analysts - silicon die of nVidia's first CPU. Without further a due, picture below shows what nVidia presented as Project Denver 64-bit CPU core:

As expected, no die size or manufacturing process were disclosed - given that there is are a lot of features subject to change - thus take this slide with a grain of salt. In order to help you understand the information shown on diagram, we're including links to sites that explain the functionality of particular units:
Fetch
Decode
Scheduler
ALU (Arithmetic Logic Unit)
FPU (Floating Point Unit)
Load/Store Logic
MMU (Memory Management Unit)
L1 Instruction Cache
L1 Data Cache
L2 Cache Logic Instruction/Fetch

The largest block on the die belongs to L1 Data Cache, while there is also L1 Instruction cache. While it is too early to discuss the actual features of this CPU core, we're really intrigued by some of the statements about the Project Denver core - mostly ranging in the field of attaching four Project Denver cores on a high-bandwidth interface such as existing GPU memory controller.

In theory, Project Denver cores inside the Maxwell GPU die should enjoy access to 2+TB/s of internal bandwidth and potentially beyond currently possible 320GB/s of external memory bandwidth (using 512-bit interface and high-speed GDDR5 memory). If nVidia delivers this architecture as planned, we might see quite a change in the market - given that neither CPUs from AMD or Intel don't have as high system bandwidth as contemporary graphics cards.

Given that Project Denver exists in silicon form, proper execution and launch should bury any doubts whether or not nVidia can make a CPU- which are still present with some semiconductor analysts who also claimed that AMD is going to die, AMD is not going to buy ATI, and that Intel will blow everyone out of the water with Larrabee and of course - that nVidia cannot make a CPU. These theories often forget that Intel is a largest company of companies mentioned and sometimes projects end in blind alley (WiMAX, Larrabee), AMD did the logical thing and acquired ATI and that was a good move - judging by initial Fusion APUs and of lastly - nVidia showing that they can execute as well.

Another big questions is whether or not they can effectively support an CPU ecosystem? That's another ballgame entirely, since we heard that even with 3D Vision, GeForce and Tegra, as there are many partners that are not satisfied with the level of commitment given by the company. The true measure of success for any product lies in what support can be given to the ecosystem. In that way, Project Denver has to shine not just on the hardware side.

All in all, things are heating up and nothing is better for consumer than the holy word of consumerism: competition.
http://www.brightsideofnews.co...ct-denver-cpu-silicon-die.aspx
[ bigvlada @ 31.05.2011. 16:46 ] @


Nvidia Project Denver May Feature x86 Hardware Emulation
Tuesday, May 24th, 2011 | Hardware


In the 2013-2014 timeframe, Nvidia is set to launch its highly anticipated Nvidia Project Denver CPU and a recent report comes to claim that this processor will feature specialized x86 emulation hardware, to better compete with its Intel and AMD rivals.

The emulation will be done via a hardware layer that will include some special instructions, just as China has done with Loongson processors.According to Donanim Haber, this hardware layer should be able to emulate x86 instructions with just a 15 to 20 percent speed penalty, which is far better that the 30% overhead achieved by the Chinese MIPS processor.

This technology was presumably developed by the Transmeta engineers who joined the company back in 2009.

Nvidia has designed Nvidia Project Denver so that the CPU can be easily embedded inside a much larger pool of GPU vector hardware and it will feature two of four ARM processing cores.

These are based on a 64-bit architecture and an early die shot of the chip revealed that it would feature a massive amount of L1 cache, which will most probably be much larger than the L2 cache size.

The chip also features a high-bandwidth interface which allows Nvidia project denver to link it to a GPU memory controller.

While nothing is certain at this point, since Nvidia Project Denver is expected to launch at about the same time as Nvidia’s Maxwell GPU architecture, the two could be inter-linked to form a high-performance computing solution (with 2TB/s of internal bandwidth and 320GB/s of external memory bandwidth).

Nvidia Project Denver is designed to support future products ranging from personal computers and servers to workstations and supercomputers.

As mentioned previously, the chip is expected to launch sometime in 2013 or 2014, but Nvidia didn’t commit to any release dates.

Nvidia Project Denver May Feature x86 Hardware Emulation.

http://ontechnow.com/hardware/...re-x86-hardware-emulation.html

Izgleda da više nisu gadljivi na x86 softver. Ova boldovana rečenica me jako podseća na power pc scenario.

Citat:
Sa druge strane, Apple mi deluje kao neko ko je dovoljno lud da sve svoje hardverske proizvode bazira na derivatima arm-a.


I ispostavilo se da nisam bio u pravu, odličan članak na temu zašto će se Apple držati x86 sveta.
http://realworldtech.com/page....icleID=RWT050911220752&p=1

Sam procesor ne čini kompletan sistem, a interesantna mi je ova Intelova Thunderbolt tehnologija, jel' neko imao prilike da to ošacuje uživo? Da li će se nvidia naći u situaciji da prodaje čip koji neće imati podršku ostatka industrije kojom dominiraju konkurenti?
[ calimero @ 05.06.2011. 04:11 ] @
Citat:
I ispostavilo se da nisam bio u pravu, odličan članak na temu zašto će se Apple držati x86 sveta.
http://realworldtech.com/page....icleID=RWT050911220752&p=1


iako volim da citam realworldtech.com ovaj tekst o ARMu je pun rupa.

1. "The first is a more unified software ecosystem, where iOS and OS X can eventually be merged together." ovo se moze desiti i sada. nema potrebe da u svim Apple uredjajima bude isti CPU da bi se spojili iOS i Mac OS X ali ovo se nece desiti jer ce Mac OS X ostati za high end aplikacije (tipa: PhotoShop, xCode, FinalCut, Logic, Cinema 4D... da bi sve ove aplikacije funkcionisale bar podjednako efikasno uz pomoc toucha kao sto danas funkcionisu pomocu tastature i misa bice potrebno vise godina tako da one zasigurno ostaju na Mac OS Xu i samim tim nema govori o potpunom spajanju iOSa i Mac OS Xa)

2. " The second is tighter control over their hardware and greater integration." - ovo je po meni najvalidniji razlog zasto bi Apple forsirao non-PC CPU - da sto je moguce vise oteza kopiranje svoje platforme.

Ovo je u direktnoj vezi sa onim sto prodaje njihove uredjaje: razlicitost! (u totalna pozitivnom svetlu) na ovaj nacin bi se samo jos vise odvojili od konkurencije po inovativnosti i funkcionalnosti i podgli na jos visi nivo svoju razlicitost ako ukljuce i hardware u celu pricu - vise nece biti dovoljno da neko iskopira samo softwerski funkcionalnost njihovih proizvoda (citaj Android kopirao iOS filozofiju rada) vec ce u celu pricu morati da ukljuci i custom hardware.

3. usteda u ceni CPUa je najverovatnije zanemarljiva u poredjenju sa prethodnim razlogom.

4. ostatak teksta je ok ali se postavlja pitanje:

vec danas Apple prodaje vise iOS uredjaja nego Mac OS X. Ovaj trend ce se u buducnosti samo nastaviti i jednostavno potraznja za Mac OS X uredjajima (x86) ce opadati u korist iOS uredjaja (ARM).

5. nema nikakvg smisla terati korisnike da koriste Logic ili Cinema 4D na 10x slabije procesoru tako da se prvenstveno iz ovog razloga nece preci na ARM u Mac OS X uredjajima.

Logic-u i Cinema 4D ce trebati godine da na tabletima (touch) uredjajima dostignu istu funkcinalnost kao verzije za desktop OS gde se koristi mis, tastatura... i Mac OS C
[ bigvlada @ 05.06.2011. 08:27 ] @
Citat:
iako volim da citam realworldtech.com ovaj tekst o ARMu je pun rupa.

Mislim da jako lepo oslikava koje bi eventualne razloge Apple imao da pređe na arm kao i zašto ti razlozi nisu potreban i dovoljan uslov da se to i desi. Ukratko, prelazak sa x86 na arm je prelazak sa konja na magarca.

Citat:
da bi sve ove aplikacije funkcionisale bar podjednako efikasno uz pomoc toucha kao sto danas funkcionisu pomocu tastature i misa bice potrebno vise godina

Ovo se neće desiti. Kucanje po ravnoj površini duže od par minuta je ubistvo kakva god da je podloga. Upravljanje glasom (koje najavljuju već više decenija) ne može svuda i uvek da se koristi.

Citat:
Ovo je u direktnoj vezi sa onim sto prodaje njihove uredjaje: razlicitost!

Različitost po svaku cenu i bez obzira na žrtve. Ne hvala.

Citat:
na ovaj nacin bi se samo jos vise odvojili od konkurencije po inovativnosti i funkcionalnosti i podgli na jos visi nivo svoju razlicitost

To insistiranje na različitom CPU-u od ostatka industrije ih je već jednom umalo koštalo glave. Da ne pričam da CPU ne čini ceo sistem.

Citat:
usteda u ceni CPUa je najverovatnije zanemarljiva u poredjenju sa prethodnim razlogom.

Za njih, ne i za korisnike.Eventualni arm laptop ne bi bio jeftiniji od x86 laptopa, bez obzira na performanse. Samo ta situacija kada jedna firma određuje šta njenim korisnicima treba se nikada ne završi lepo. Čak ni IBM u vremenima kada je držao preko 70% desktop proizvodnje nije mogao sam sve da razvija a pogotovo ne brže od konkurencije.

Citat:
vec danas Apple prodaje vise iOS uredjaja nego Mac OS X. Ovaj trend ce se u buducnosti samo nastaviti i jednostavno potraznja za Mac OS X uredjajima (x86) ce opadati u korist iOS uredjaja (ARM)

Ta tablet budućnost (evo sada su najavili i iCloud) lepo deluje na papiru ali ne funkcioniše u praksi. Ta opsesija kompanija da imaju potpunu kontrolu nad korisnicima i koju u najnovijem pokušaju zovu tablet i cloud umesto glupi terminal i centralni server nikako ne mirišu korisnici kojima kompjuter služi kao sredstvo za rad. Zašto bi tražnja za OS X opala? Postoji kvalitetnije rešenje od desktopa?

Citat:
Logic-u i Cinema 4D ce trebati godine da na tabletima (touch) uredjajima dostignu istu funkcinalnost kao verzije za desktop OS gde se koristi mis, tastatura... i Mac OS C


Zašto bi bilo ko sa dva grama mozga koristio Autocad ili nešto slično na tacni za gledanje youtube spotova umesto na 24" monitoru? Lakše se programira i piše nego na laptopu? Ne daj bože da srećni korisnik poželi da unapredi to sokoćalo.
[ calimero @ 07.06.2011. 02:21 ] @
za content kreatore ostaje Mac OS X. za sve ostale korisnike: iOS (ili neki drugi tablet OS cim ga naprave).

Mac OS X sigurno ostaje na x86 (ili nekom drugom highend procesoru) - iOS ostaje na ARMu.

a komentari tipa: "Ne daj bože da srećni korisnik poželi da unapredi to sokoćalo." su takooo... Bil Gejtovski ti kao da nikada nisi imao Atari


Apple worth more than Microsoft and Intel combined

http://www.theregister.co.uk/2...osoft_and_intel_in_market_cap/
[ bigvlada @ 09.06.2011. 10:13 ] @
Citat:
za content kreatore ostaje Mac OS X

U prevodu, svi kojima je računar alatka za obavljanje posla.

Citat:
za sve ostale korisnike: iOS (ili neki drugi tablet OS cim ga naprave)

Pošto su tacne neupotrebljive za bilo šta ozbiljno, hajde da vidimo kako se porede sa postojećim uređajima u zabavnom segmentu:

gledanje video materijala

tacna vs televizor 0:1
tacna vs monitor 0:1
tacna vs laptop/notebook/netbook 0:1
tacna vs mobilni telefon 1:0
tacna vs džepna konzola 1:0

čitanje

tacna vs monitor 0:1
tacna vs laptop/notebook/netbook 0:1
tacna vs ebook reader 0:1

fotografisanje:

tacna vs fotoaparat 0:1
tacna vs mobilni telefon 0:1

slušanje muzike

tacna vs mp3 player 0:1
tacna vs radio 0:1
tacna vs stub 0:1
tacna vs walkman 0:1

igranje:

tacna vs konzola 0:1
tacna vs desktop 0:1
tacna vs džepna konzola 0:1
tacna vs mobilni telefon 0:1
tacna vs riziko 0:1

Tableti neće pomoći većoj rasprostranjenosti arm-a. Klasa uređaja koja je potpuno nepotrebna a gura se jer proizvođači misle da svakih par godina moraju da predstave novu klasu uređaja. Od mobilnih mašina smo imali prenosnike, pa laptopove, notebookove, subnotebookove i sad netbookove. O raznim varijantama personal organizera neću ni da govorim.

Citat:
Ne daj bože da srećni korisnik poželi da unapredi to sokoćalo." su takooo... Bil Gejtovski ti kao da nikada nisi imao Atari

Nisam. Moj poslednji kompjuter koji nije imao boju je bio zx 81. A i on je mogao da se proširuje. Posle iskustva sa njim (a i spektrumom) nije mi padalo na pamet da nabavljam nešto gde mi proširenja zauzmu sto i po a kablovi još pola stola. Ili crno beli računar od par hiljada dolara gde ti treba macola i let lampa da bi mu dodao pola mega memorije. Na to koji je koncept bolji jasno ukazuje činjenica da je današnji mek (ostali su pokojni) ispolirana kanta (za razliku od ove moje trenutne neispolirane) koji tera drugi os.

Citat:
Apple worth more than Microsoft and Intel combined

Ovaj, kakve ovo veze ima sa temom? Najveći deo tog profita je nastao prodajom muzičkih plejera i mobilnih telefona. Kakve to veze ima sa desktop os-evima i procesorima?
[ bojan_bozovic @ 09.06.2011. 12:05 ] @
@Ivan

Citat:
Ja se uopste ne bih slozio sa tim.

Ljudi kupuju konzole zato sto su LAKSE za upotrebu. Vecina ovog sveta nisu PC geekovi, vec ljudi koji samo zele da provedu svoje slobodno vreme uzivajuci u igricama a ne cimajuci se sa kojekakvim installerma, patchovima, apgrejdima DirectX-a, i konstantnom zamenom hardvera na PC trzistu i problemima koji uz to idu.

Tu konzole UBIJAJU PC - urnisu ga... Ubacis disk, par komandi na kontroleru i IGRAS... Nema nikakvih problema i igrica UVEK radi perfektno.

Ekonomija nema puno veze sa tim - iz prostog razloga sto smo od 2005 do danas imali i ciklus vrlo jake ekonomije kao i slabe, a konzole su polako ali sigurno preuzimale deo kolaca...

Dalje, QA konzolnih igrica je daleko jaci nego na PC-ju... Da li si video konzolne igrice koje trzaju i imaju rapidnu varijaciju u FPS-u? Ja ne... i iskreno meni je daleko vise bitno da mi igrica trci konstantnih 50-60 FPS nego da se u nekim delovima sroza na <10 FPS uz izgovor da je "jaka grafika" - who cares, to ubija dozivljaj daleko vise nego geek fetisizam tipa rezolucija tekstura i kolicina programbilnih shadera... te stvari ne zanimaju prosecnog konzumenta danas, jer i 2005 generacija hardvera nudi sasvim lep ugodjaj koji nije previse razlicit od najnovijeg PC hardvera.

Da ne pricamo o tome da su neki drugi aspekti gaminga postali daleko bitniji - kao recimo online gameplay.


Nisu konzole bitno lakše za upotrebu, kad uz tu konzolu masa igrača ima i PC da tera WoW ili neku drugu MMO. Radi se o drugoj stvari, developeri forsiraju konzole iz drugih razloga.

1. Ako je konzola iz 2004. za nju je potrebna grafika iz 2004. ne iz 2011. što umnogome smanjuje troškove oko dizajna tekstura i modela. Manji posao!
2. Na konzolama je piraterija teža, mada i za PC postoje rešenja kao Steam.
3. Igre na konzolama su daleko jednostavnije od igara na PC-ju, i daleko ih je lakše napraviti. Hoćeš FPS? Kupiš engine, skriptuješ ga malo, napraviš modele , testure i nivoe, i kad je gotovo ide na test i QA. Već je sav posao završio onaj klo je napisao engine. MMORPG? Ajoj. Treba ti tim za klijent, tim za server i nekoliko godina rada, plus content i QA, naravno, i opet može da se desi da igru ne napraviš, jer odoše troškovi u nebesa, a deadline je tako blizu... Ne možeš da uporediš nijednu igru za konzolu sa MMO za PC...
4. Igrica uvek radi perfektno, da, ali je to igrica iz 2004.

Dalje, ugodjaj na konzolama je ugodjaj iz 2004. Nije uopšte ono što je 2011. Što ljudi ne mare, to je zato što ne znaju i kupuju te nikakve konzole. Konzole će da urnišu PC znaš kad? Nikad. nemaš jednu valjanu MMO ne konzolama, i tek će sledeća generacija konzola to možda da ispravi, probao je nešto Sony Online Entertainment, i naravno, ništa nije napravio. Ajd da vidim da konzola izrenda običan WoW kad je sto-dvesta ljudi na jednom mestu, kako je obično u WoW na prometnim mestima, naravno u 1080p. Problem broj dva za konzolnu MMO, kako koristiti chat ako nemaš tastaturu, a ekonomija, i gathering/crafting su važne stavke u većini MMO? Dalje MMO je kompleksnija igra od obične FPS. Nekad ni desetak tastera nije dovoljno za igranje. Kako da se to uopšte igra na joypadu?

Ljudi kupuju konzole zbog igara pisanih specijalno za njih, kojih nema za PC, ne zato što je bolje, ili znatno lakše za upotrebu.

Medjutim, radi se o tome da se ljudima prodaje bofl, ne samo kad su igre u pitanju, već sve. Kvalitet više nije na ceni. Pogledaj video u 720p odnosno 1080p. To je 2011. i konzola to ne može.



I pogledaj Carbon u 1080p (Eve Online).



@Calimero

Odgledaj video i reci kako da na tom iPadu igraš MMORPG kao Eve Online? A na OSX može BTW.

Još da dodam nešto, MMORPG plaćaš 15$ ili 15e mesečno za neograničeno igranje, koje teško može da dosadi. Na konzoli plaćaš jednu plitku sportsku igru ili FPS 50-60 $, da je igraš nedelju dana, nego ajde, nemamo mi PC igrači pojma.

Sad nešto vezano za temu, ARM je veliki korak unazad. Ima svoje specifično tržište embedded uredjaja koje godinama drži zbog svoje male potrošnje, ali kako bi se snašao sa nekom ovakvom MMORPG? I mene ovo podseća na stari PowerPC.

[Ovu poruku je menjao bojan_bozovic dana 09.06.2011. u 14:36 GMT+1]
[ [email protected] @ 09.06.2011. 12:53 ] @
Ja imam Atari STe. Ima ACSI port i ROM port + SIMM slotove za upgrejd memorije. Cigla nema nista od toga.
[ bigvlada @ 29.07.2011. 06:44 ] @
1st Silicon with NVIDIA Project Denver is an 8-Core ARM, 256 CUDA Core APU?
7/18/2011 by: Theo Valich - Get more from this author


According to information we heard from multiple sources, NVIDIA recently started to open out and disclose design targets for their first "CPU" i.e. SoC codenamed "Project Denver". As always, take this rumors with a grain of salt.

The information we have at hand is that Project Denver CPU core is looking to be very much aligned with T40, i.e. "Tegra 4" i.e. Wayne. According to internal schedule, Wayne silicon is going to be taped out in the next couple of weeks, with developers getting their hands on prototype silicon in December 2011.Wayne silicon is consisted out of four ARM cores (NVIDIA is not disclosing the core type, teasing that it might be either A15 or PD) and up to 64 GPU cores.

During the same month (December 2011), NVIDIA plans to tape out the first silicon based on Project Denver, which combines up to 8-core custom NVIDIA-ARM 64-bit CPU with a GeForce 600-class GPU. The company had a lot of issues in development of a CPU and the general consensus is that NVIDIA is take a conservative approach with a single 28nm PD CPU design and the 28nm Fermi-based design, i.e. the rumored Fermi-refresh in the form of notebook and lower-end desktop GeForce 600 Series cards (remember "GeForce 300"?). The interesting bit that we heard is that Project Denver is geared towards "full PhysX support", whatever that might be.

According to another source close to the subject, target for GPU part of the silicon is "at least 256 CUDA cores" which would put the product on pair with AMD's Trinity APU which will pair a Bulldozer-Enhanced CPU core with "Northern Islands" VLIW4 architecture and will be the key APU for AMD in 2012. Compute power-wise, NVIDIA doesn't want to clock it to heavens' high, but rather to squeeze each IPC (Instruction Per Clock) as possible. Still, it is realistic to expect 2.0-2.5GHz for CPU and similar clock for the GPU part, with memory controller and the rest of the silicon working at a lower rate to keep everything well fed.

Unlike AMD's APU design, where CPU and GPU parts connect to the memory controller at the speed of DDR3 memory, Project Denver is looking for a more direct communication between CPU and GPU cores, i.e. relying on the best GPU design can offer: high-bandwidth connection. NVIDIA is not taking the conventional route with L1, L2 and L3 cache design, since the GPUs have 1TB/s+ connections to its cache memory, similar approach is rumored for Denver core design as well. Just like in the GPUs, memory controller takes the larger portion of the die and connects CUDA cores with CPU cores and CPU will have priority access to the bandwidth needed.

However, NVIDIA needs only 10-20% of the total bandwidth available for the CPU portion, keeping the GPU well fed with system memory.

The design for the motherboards for notebooks, desktops and servers is also under way, with PCIe 3.0 being touted as the main connectivity feature, alongside USB 3.0 and SATA 6Gbps. According to the information given, nV is going to attack all remaining fronts - light notebooks will be covered by lower-scaled Tegra 3 and 4 (smartphone/tablet/netbook/t'n'l notebooks), more powerful silicon will be used for lighter-use notebooks and desktops, while the server play is probably the most interesting strategy.

From one side, within one generation of PD CPU designs, NV wants to enter the blade market and offer a powerful GPU, but from another, the company wants to get rid of the demands for Intel or AMD x86 cores in their Tesla business (one Tesla GPGPU requires one x86 CPU - Xeon or Opteron for "feeding"). Removing X86 from that equation will significantly boost the profit outlook, just like AMD and Intel are enjoying charging an arm and a leg for the same silicon used in their desktop/notebook computers.

http://www.brightsideofnews.co...e-arm2c-256-cuda-core-apu.aspx

hmm, ovi ipak misle da napadnu kompletan spektar x86 mašina. Da ne ponavljam šta mislim o njihovim izgledima na uspeh, ostaje samo da vidimo šta će predstaviti za dve godine.
[ mmix @ 29.07.2011. 06:56 ] @
Told you so
[ bigvlada @ 09.11.2012. 16:24 ] @
Nvidia: Project Denver is ARMv8-based, is ''going great''
by Cyril Kowaliski — 9:35 AM on November 9, 2012


Late yesterday, Nvidia CEO Jen-Hsun Huang got on the phone to talk to stockholders and journalists about the company's latest quarterly results. During the Q&A session, Huang revealed that Project Denver, the company's upcoming desktop processor, will be a custom chip based on the 64-bit ARMv8 architecture—and work on it is "going great." Here's the transcript, courtesy of Seeking Alpha:
Well, Project Denver is a 64-bit processor. And it's a full-custom v8 64-bit processor with some exciting secret sauce. And we haven't revealed much about it. There are no 64 bits processors shipping today, as you know. And v8 was just announced. The next 64-bit was just announced. And so, I guess, the only thing I could tell you is Denver is going great.

ARM announced its own ARMv8-based cores, the Cortex-A50 series, late last month, and it expects the first chips based on them to be out in 2014. Licensees include AMD, which plans to use them for upcoming Opteron server chips, and Samsung, which could very well have ARMv8-based server silicon in the pipeline, too.

We've known about Project Denver since Nvidia announced it at CES 2011, but the company has kept surprisingly quiet about it. In an interview with VentureBeat in March 2011, however, Nvidia's Huang said the chip was about three-and-a-half years through its five-year design cycle. If everything is going according to schedule, then Project Denver might now be complete—and perhaps we could see it released before Cortex-A50-based offerings.

Meanwhile, Microsoft is working with ARM to add support for the ARMv8 architecture to Windows. The existing ARM-compatible version of Windows, Windows RT, supports only current 32-bit ARM processors. There's no indication of exactly when 64-bit support will be implemented, though. Given Project Denver's desktop aspirations, Windows support seems like it's going to be paramount. (Thanks to X-bit labs for the heads up.)

http://techreport.com/news/238...-is-armv8-based-is-going-great

Čekaju Win RT-64.
[ bigvlada @ 19.03.2013. 21:06 ] @
Prvo tromesečje 2013 dođe i skoro prođe, a od Denvera ni traga. Sada ispada da treba da ga očekujemo 2015.

Nvidia CEO unveils next two gens of Tegra, dubbed Logan, Parker

Jen-Hsun Huang says the company's mobile chip will show 100-times improvement from the first generation to the fifth.
by Shara Tibken | March 19, 2013 10:50 AM PDT


Nvidia discussed its Tegra roadmap during its developers' conference.
(Credit: Screenshot by Shara Tibken/CNET)

Nvidia CEO Jen-Hsun Huang today talked up the chipmaker's next two generations of mobile chip, saying the Tegra chip line will show a 100-times improvement in strength from the first chip to the fifth. he current Tegra chip, Tegra 4, hit the market earlier this year. The next generation, coming later this year, is code-named Logan, while the fifth generation of Tegra is code-named Parker, Huang said at the company's GPU developers' conference. Logan will incorporate Nvidia's Kepler GPU, which currently is dominating the discrete graphics market. It also will include CUDA, Nvidia's programming model for GPUs that allows users to do many tasks at once. Parker, meanwhile, will be Nvidia's first processor from its Project Denver push. That includes full 64-bit capabilities, making it more attractive for use as the brains in one's computer or in a server or supercomputer. Nvidia first started talking about Project Denver during the Consumer Electronics Show in 2011, but it hadn't provided many updates since that time.

http://news.cnet.com/8301-1035...-of-tegra-dubbed-logan-parker/
[ bojan_bozovic @ 21.03.2013. 05:40 ] @
Kad se je pojavio Duke Nukem Forever, valjda će i to. Živi bili pa videli!

Jedino x86 kompatibilnost može pomoći. Naime, glupo je govoriti o x86 (tj. x64) procesorima, kada AMD i Intel jedino zajedničko što imaju je instrukcijski set (inače se potpuno razlikuju). Neka nVidia može biti treća, ma šta koristili kao osnovu, ali jesu li sposobni za tako nešto?
[ bigvlada @ 16.12.2013. 07:34 ] @
Nvidia’s 64-bit Tegra 6 might power the first 64-bit Android devices in 2014
By Ryan Whitwam on October 11, 2013 at 10:11

Apple was accused of employing a marketing gimmick recently when it announced a new 64-bit processing core for the A7 ARM chip, which powers the new iPhone 5S. The benefits of moving to 64-bit processing on mobile devices aren’t yet clear, but that hasn’t stopped other ARM chip makers from lining up to mention their own 64-bit plans. Nvidia announced several years ago that it had licensed ARMv8 technology to build its own custom 64-bit core, and the time draws near when that endeavor will come to fruition. Tegra could finally be ahead of the pack.

All of Nvidia’s current and past ARM chips have used CPU designs licensed directly from ARM Holdings, which are then paired with Nvidia’s custom ultra low-power GeForce GPU. Together these components make up the Tegra system-on-a-chip (SoC). Tegra 4 uses the fastest ARM-designed cores currently available — the Cortex-A15 — but even with these top-of-the-line cores Nvidia is at a disadvantage thanks to custom mobile CPUs.

Snapdragon SoC

Apple and Qualcomm both design their own CPU cores based on the ARM instruction set, which they pay a pretty penny to license. Apple stepped it up to the ARMv8 set with the Cyclone CPU core in the A7, while Qualcomm is still focusing on ARMv7 with the Krait 400 core (but it is expected to announce an ARMv8-based core soon). It’s a lot of work to design a CPU core rather than just license one directly from ARM, but 64-bit is only the most recent example of how a custom core can help a company iterate and add new features. For example, Qualcomm’s custom chips can dynamically change clock speed on each core based on system load. Nvidia had to jury rig an extra companion core in Tegra to handle low-power tasks.

It’s believed that Nvidia started work on ARMv8 back in late 2010 or early 2011. If true, the company could possibly have samples of the so-called “Project Denver” 64-bit processing core ready in early 2014 as part of the Parker SoC. This is actually two generations past current ARM chips. Tegra 5 (code named Logan) is expected to hit devices in early 2014, based again on the Cortex-A15. Parker is supposed to be Tegra 6, but Nvidia could be in a position to move quickly toward this SoC and cut Tegra 5′s run a bit short. Although, Parker was slated for a 2015 release the last time Nvidia spoke about it.


No one can deny that Tegra 4 is a much more competitive chip than the Tegra 3 was last year, but Qualcomm’s custom Krait cores and quick design iteration have allowed it to nearly take over the Android device ecosystem. There are only a handful of devices announced with Tegra 4 chips, and one of them is Nvidia’s own Shield console. Meanwhile Snapdragon 600 and 800 power almost every high-end smartphone and tablet from 2013.

Over the last few years, Nvidia has no doubt poured many millions of dollars into Project Denver and the Parker SoC. Qualcomm is surely working toward a 64-bit chip down the road, but the company has been tight-lipped about future plans. The last thing Nvidia wants is for the market leader to beat it to ARMv8 with 64-bit. Whether or not 64-bit has real utility on mobile devices running 32-bit software, getting this right could set up Tegra for undeniable success, a distinction that has so far eluded it.

http://www.extremetech.com/com...64-bit-android-devices-in-2014

Intel i AMD grizu nokte, Denver stiže sledeće godine.
[ Ivan Dimkovic @ 16.12.2013. 09:17 ] @
Hm, NVIDIA ce imati zagarantovan "niche" market (koji za njih nije "niche") u vidu CUDA kutija.

Dodavanje ARM-a i unificirana memorija ce drasticno pojednostaviti CUDA kod, tako da samo sa tog stanovista za NVIDIA-u ima smisla da prckaju sa 64-bitnim ARM-om.

Kao neka zamena za Intel servere - za to ce prvo morati malo da skoce, pa da kazu hop. Postoje neke druge stvari koje su tu u igri, kao sto je recimo gustina procesora sa malom latencijom izmedju njih. Sa Ivy Bridge EX-om koji izlazi za mesec-dva, nije nikakav problem strpati i do 140 jezgara (280 thread-ova) glueless.

Naravno, ti prvi ARM-ovi sigurno nece da konkurisu Xeon EX liniji, ali cak i najmanji E3 Xeon-i (ili ovi novi Atom-bazirani) su i dalje prilicno jaka platforma sa odlicnim performansama po vatu i odlicnim I/O mogucnostima - ARM tu jos nije ni usao u igru, tu su otprilike kao Intel i mobilno trziste 2006-te pre izbacivanja Atoma... drugim recima, upadaju azdaji na teren, to nece biti walk in the park :)
[ Ivan Dimkovic @ 19.12.2013. 23:22 ] @
http://www.theregister.co.uk/2013/12/19/calxeda_shutdown/

Citat:

ARM server upstart Calxeda bites the dust just before Christmas

Updated ARM server startup Calxeda has shut down in a shock blow to dreamers of data centers ruled by the low-power processors.

The plucky company, founded in 2008, had banked $90m in funding during its lifetime, and carried the torch for taking ARM-compatible system-on-chips into servers. But in the past 30 minutes, news broke that it was "restructuring" with an intellectual property fire sale looking likely.

It was due to bring out a range of 64-bit ARM processors next year, and reported good success with its 32-bit ECX chips, including a presence in shipped Hewlett-Packard kit.

Despite a healthy amount of cash and much goodwill in the industry – Facebook's head of hardware supply Frank Frankovsky just joined the board of the company – the upstart is entering a period of restructuring that we've heard from multiple reliable sources is equivalent to a shutdown.


Pih, nije im ni "head of hardware supply" iz Facebooka pomogao.
[ bojan_bozovic @ 20.12.2013. 17:40 ] @
Možda ARM zaista nema šta da traži trenutno na tržištu servera, ali bi tržište jako profitiralo od konkurencije ARM i x86 arhitektura (naravno, pod uslovom da ARM odradi posao kako treba). To je, inače, sasvim moguće, u vreme kad je Sun Microsystems još postojao, bili su konkurentni T serijom UltraSPARC procesora za servere.
[ Ivan Dimkovic @ 20.12.2013. 18:39 ] @
ARM trenutno nema sta da trazi na trzistu servera, sto ovo gore i pokazuje.

To ne znaci da ARM ne moze da postane konkurentna platforma - i to bi svakako bilo dobro za trziste.

Ali da bi se to desilo, neko ce morati da poradi na tome da:

a) ARM implementacije koriste standardne interkonekt-e (PCIe)
b) ARM implementacije koriste standardni firmware (npr. UEFI)
c) ARM implementacije imaju konkurentne CPU/FPU performanse
d) ARM implementacije imaju konkurentne I/O performanse

Na mobilnim telefonima nije nikakav problem sto svaki ARM SoC ima svoju arhitekturu za komunikaciju sa periferijama, potpuno razlicit firmware bez ikakvog standarda za inicijalizaciju platforme itd.. - posto telefone niko ne unapredjuje/konfigurise, niti postoji neka specijalna potreba za bilo cim od custom kernel drajvera koje SoC vendori izbace za Linux.

Ali to na serverskom trzistu, jednostavno, nema sanse da prodje - mnogi su probali, pa se nisu lepo proveli.
[ bigvlada @ 16.08.2014. 10:33 ] @
Karte su konačno na stolu.

Nvidia details 64-bit Denver Tegra K1, claims Haswell-class performance for first 64-bit Android chip
By Sebastian Anthony on August 12, 2014 at 7:38


Nvidia has finally taken the wraps off its 64-bit Denver CPU core — and, well, let’s just say that the 64-bit Android race just got a lot more interesting. The Denver CPU will be available later this year in the Tegra K1 SoC, where you’ll get two Denver cores and a 192-core Kepler GPU. Nvidia says this will be the first 64-bit ARM chip for Android, and that it “completely outpaces” other ARM SoCs (including Apple’s monstrous A7 Cyclone). The Denver CPU is so beastly that it even beats out some PC-class chips (the low-end Haswell Celeron), while consuming much less power. The secret behind this performance boost is a novel technology called Dynamic Code Optimization.

First, let’s run through the Denver/K1 hardware specs. Denver is a 7-way superscalar in-order CPU core (it can execute seven instructions per clock cycle, which is a lot). Each core has 128KB of L1 instruction cache and 64KB of L1 data cache (both very large compared to the usual 32KB/32KB for a 32-bit ARM chip). In the 64-bit Tegra K1, there will be two Denver CPU cores sharing 2MB of L2 cache. The Denver CPU is expected to ship at 2.5GHz, which is rather fast. The Denver Tegra K1 will be pin-compatible with the current Cortex-A15 Tegra K1, making it easier for hardware makers to embrace the new chip when it arrives later this year.

Denver cores are very large, and there won’t be a quad-core variant (at least not in the short term). While the lack of a quad-core part might make for an uphill marketing battle — people still love their higher core counts — in reality a dual-core CPU should be more than capable of handling most workloads (most apps and games are still bottlenecked by single-threaded performance).

Dynamic Code Optimization

Nvidia says Denver is explicitly designed to have “the highest single-core CPU throughput” — and while its 7-way superscalar design definitely accounts for a lot of that performance, the other trick up its sleeve is Dynamic Code Optimization.

Back in January we speculated that Nvidia might try something like Transmeta’s x86 emulation. As it turns out, Nvidia did try something rather weird and funky with the Denver core — but it has very little to do with x86. While Denver is an in-order chip, most modern CPU cores use out-of-order execution (OoOE) — where code is executed whenever it’s ready, rather than in the exact order laid out by the programmer — to increase the number of instructions executed per cycle. This works well, but it requires a significant chunk of silicon to actually perform the OoOE magic — and that silicon takes up die space and power. Instead, Denver uses Dynamic Code Optimization, which stores the most regularly executed code in a special 128MB main-memory Optimization Cache. This way, instead of having to fetch and decode instructions and data multiple times, the pre-digested and ready-to-go code can be run directly from the Optimization Cache. It’s a similar approach to how hybrid hard drives or SSD accelerators work.

While the actual process of storing code in the cache requires some additional processing power, Nvidia says the long-term performance gains are huge. In the case of Android tablets, where you probably only run a handful of apps, you could be running almost entirely from this optimized cache — in which case, the performance gains will be really quite significant.
In theory…

On paper, and in Nvidia’s internal benchmarks, the 64-bit Denver CPU core sounds rather exciting. The CPU handily beats every other ARM CPU on the market by some margin, and even does pretty well against the dual-core Celeron 2955U (Haswell). The 192-core Kepler GPU will probably be the fastest GPU on the market by some margin, too.

Perhaps most excitingly, though, the Denver Tegra K1 also looks like it will kick ass in reality, too. It’s important to note that the 64-bit Tegra K1 is the SoC of choice for Google’s upcoming Android L. Android L, which is due out towards the end of the year, is being developed specifically for the 64-bit Tegra K1 — and all signs point to the Nexus 9 tablet, which is probably an Android L launch device, having Nvidia’s 64-bit chip inside, too.

In the meantime, we’re still waiting to see what Qualcomm has planned for its ARMv8 64-bit CPU core. Apple caught everyone off guard when it was first to market with its custom-designed ARMv8 Cyclone CPU — and now Nvidia is proudly touting that it’ll be the first to market with a 64-bit Android CPU. It will be interesting to watch Qualcomm play catch-up when its 64-bit chip is finally ready to go (probably in 2015).

http://www.extremetech.com/com...-for-first-64-bit-android-chip

Dijagrami su na linku. Od opšte ofanzive na x86 knjiga spade na android tablete. Primetite da su najave spale sa 8 na 2 jezgra. Sa upokojavanjem Windows-a RT, nećemo čak moći ni da imamo situacije ekvivalentne onim gde Alfa sa Win NT-om ne može da učita Fotošop jer dotični radi samo sa 386 mašinama a ostale aplikacije se po brzini utrkuju sa 286-icama.
[ Ivan Dimkovic @ 17.08.2014. 09:31 ] @
Haswell performanse... za Android tablete? Wtf :)

Intel za koju nedelju izbacuje >pravi< Haswell, tj. EP Xeon-e :-) Sa 18 jezgara i 145W TDP-om (8W TDP po >vrlo brzom< jezgru) cenim da je prilicno brzi od onih Y "mobilnih" Haswell gov*nca, sa kojima se NVIDIA "Denver" verovatno poredi :-)))

Sa 4S Haswell EP-ovima ce biti moguce napakovati 72 Xeon jezgra u jedan server - svako ko ima dodira sa tom industrijom zna da je kljucna stvar >density< a ne pojedinacni CPU TDP (koji je, pritom, daleko manja stavka od ostalih troskova koji idu).

Sa druge strane, ARM u CUDA GPU-ovima je daleko opasnija stvar, sa tim dodatkom mogu komotno da eliminisu Intel Xeon-e koji trenutno standardno "drive-uju" Tesla / Quadro GPU-ove za HPC aplikacije i zamene ih nekim daleko jeftinijim CPU-om koji ima brz PCIe. Takodje se eliminse i gomila x86 koda zato sto ce taj ARM moci da "prihvati" serijske task-ove za koje CUDA jezgra nisu dobra, sve u svemu ta NVIDIA-ina strategija je prilicno dobra i moze ostetiti Intel puno na HPC polju.

Sa druge strane, Intel je obavezan da stavlja standardni PCIe u svoje procesore do 2015-te godine (anti-trust). Posle toga, all bets are off, ne bi me cudilo da u Xeon EP "tock-u" posle Skylake-a izbace standardni PCIe (ostavi neki pateticni PCIe 2.0 na I/O hubu, useless za NVIDIA-ine GPUove) i furaju svoj Xeon Phi za HPC task-ove pa cemo ponovo imati ko-procesore.

Cenim da ce HPC trziste biti jako zanimljivo u sledecih par godina. Obicni serveri, nisam bas siguran, nesto mi se cini da cemo i za 5 godina i dalje imati Intel crne kutije po server room-ovima :-)
[ tdusko @ 17.08.2014. 13:55 ] @
Vidim da se dosta potencira ovo "64-bit". Koliki se benefit u realnosti od toga uopste moze ocekivati? Citao sam skoro blog post nekog lika koji je objasnjavao zasto se ne moze (problem je inzenjerske prirode) ocekivati rast RAM memorije u mobile urdjajima istom dinamikom kao u PC svetu koji je ucinio da se 64 bita moze potpuno utilizovati.
[ bigvlada @ 17.08.2014. 16:55 ] @
Citat:
Ivan Dimkovic:
Haswell performanse... za Android tablete? Wtf :)

Intel za koju nedelju izbacuje >pravi< Haswell, tj. EP Xeon-e :-) Sa 18 jezgara i 145W TDP-om (8W TDP po >vrlo brzom< jezgru) cenim da je prilicno brzi od onih Y "mobilnih" Haswell gov*nca, sa kojima se NVIDIA "Denver" verovatno poredi :-)))

Sa druge strane, ARM u CUDA GPU-ovima je daleko opasnija stvar, sa tim dodatkom mogu komotno da eliminisu Intel Xeon-e koji trenutno standardno "drive-uju" Tesla / Quadro GPU-ove za HPC aplikacije i zamene ih nekim daleko jeftinijim CPU-om koji ima brz PCIe. Takodje se eliminse i gomila x86 koda zato sto ce taj ARM moci da "prihvati" serijske task-ove za koje CUDA jezgra nisu dobra, sve u svemu ta NVIDIA-ina strategija je prilicno dobra i moze ostetiti Intel puno na HPC polju.

Cenim da ce HPC trziste biti jako zanimljivo u sledecih par godina. Obicni serveri, nisam bas siguran, nesto mi se cini da cemo i za 5 godina i dalje imati Intel crne kutije po server room-ovima :-)


Neće bar ne što se tiče Nvidia-e. Ovo mi je promaklo.

Nvidia abandons 64-bit Denver chip for servers

Nvidia has cancelled plans to develop a 64-bit CPU processor for servers, three years after it said it would build such a chip.

“That’s not something we’re doing today,” said Ian Buck, vice president of accelerated computing at Nvidia.

The company is instead focusing its latest 64-bit Tegra chips on mobile and embedded devices, Buck said.

Nvidia in 2011 announced a 64-bit ARM-based chip called Project Denver, which would also go into mobile devices, PCs and servers. The company said it was looking to pair Tegra chips with GPUs in servers, but those plans haven’t seen the light of day. The latest Tegra K1 chip, which includes a 64-bit CPU and will ship later this year, is for smartphones, tablets, cars and other products.

The company has said the mobile K1 chips could make it to microservers, but the company won’t develop a specialized server CPU. The company’s exit leaves a field of only four ARM server chip makers: Advanced Micro Devices, AppliedMicro, Broadcom and Cavium.

Nvidia, known for its graphics cards, is instead focusing on building Tesla high-performance GPUs for ARM servers.

“We should continue to focus on building great GPUs for them,” Buck said.

Interest in ARM servers is growing for web hosting and cloud computing, and also as a low-power alternative to the dominant x86 servers. But there is also skepticism around ARM servers, which are still largely being tested. The platform software stack has not matured yet, and ARM server pioneer Calxeda shut down late last year following lack of funds, raising questions about the viability of such products.

AMD is betting its future in servers on ARM chips, while AppliedMicro is taking a cautious approach, saying its first few chips will help the company gauge interest in ARM servers.

Only a handful of 32-bit ARM servers are available today from vendors like Boston Ltd. and Mitac. The first 64-bit ARM servers from Cirrascale and E4 Engineering will ship later this year, with servers running AppliedMicro’s 64-bit processors and Nvidia’s Tesla graphics cards. The companies did not provide pricing information.

Servers with Nvidia’s Tegra chips have been developed in the past. Barcelona Supercomputing Center in Spain built supercomputers based on Tegra 2 and 3 to test the energy efficiency of ARM chips. However, that effort was supplanted by a supercomputer running ARM-based Exynos smartphone chips from Samsung.

http://www.pcworld.com/article...t-denver-chip-for-servers.html

Tacna CPU.