Na DigiTimes so včeraj objavili zapis intervjuja s Huangom Jen-hsunom, ki so ga opravili pred kratkim. Huang Jen-hsun je namreč sedanji predsednik Nvidie in njen CEO. Tokrat so se pogovarjali predvsem o Nvidiinih načrtih za prihodnost, zadevajoč tako Xbox trg, kot tudi trg osebnih računanikov. Predsednik je izkazal velik optimizem, saj pričakuje dobre rezultate Nvidie na vseh dosedanjih področjih in celó prodor na nove trge. Klik!
re: >> Vsaj nekaj pozitivnega. Vsaj ni en tistih, ki ga lahko vprašaš "A ste kupili to vašo obleko, al je prišla poleg službe kot standardna priloga?" <<
Na sliki mi res deluje pozitivno. Nč ne bo fantje, zgleda da so pri nVidii že prodal svoje poslovne obleke, na malco pa grejo v sosednji bistro na topel sendvič (:). Mogoče se jih bo po propadu Ati usmilil, pa bojo šli lepo v oddelek za šoferje, kar bi blo še najboš za vse (o grafičnih imajo zgleda tok pojma kot frizerji :)
> Na sliki mi res deluje pozitivno. Nč ne bo fantje, zgleda da so pri nVidii že prodal svoje poslovne obleke, na malco pa grejo v sosednji bistro na topel sendvič (:).
[Zardon] After working for so many years at Nvidia, how do you feel about working for ATI? Have you found the transition in anyway difficult? What are ATI like to work for?
[Richard Huddy] The transition from working at NVIDIA to working at ATI has been quite a surprise to me in a number of ways. The main comment I'd make is that working for ATI now is very much like working for NVIDIA was at the start of my time there. When I joined NVIDIA almost five years ago, as the 94th member of staff the company was shockingly impressive. At that time it was hungry for success, technically ambitious to a degree that astonished all of its competition, and really tremendously focussed on doing what needed to be done.
Nič kaj spodbudno a? Drugače pa je Huang Jen-hsun res zelo cool in se ne le oblači kot navadni uslužbenci, ampak tudi dela v cubicle-u (a la pisarna, samo da ima namesto pravih sten tiste ta niske predelne) kot vsi ostali. Da se ni preveč sprijateljil z uslužbenci, ker šef je tam da komandira ne pa zeza, ker pol se valda tud ostali in pol ti gre firma v k. Bilo bi jih škoda, tako da upam, da se mislijo mal zresniti.
Če so sprejeli še druge izive to ne pomeni, da mora grafični del trpeti, ker dvomim, da isti ljudje delajo na več stvareh hkrati. Pa ni samo GF FX problem, ampak tudi GF3 in delno tudi GF4, ki sta bila bistveno premajhna napredka glede na GF2 MX. Zdaj ko se je pa ATI zbudil so pa lahko dal ven GF FX, samo so se pa zaj. z 0.13 mikroni in naredili še dražjo kartico kot je bila GF4 Ti4600 ob izidu. Res mi ni všeč, da je vsaka nova grafična, ki prede ven dražja od prejšnje. Kdo bo to kupoval po 135k pismo? Pa do kam mislijo it? Sej ena grafična stane več kot čist spodoben nov računalnik.
Res je da je ATI-jev chipset nekam čudežno odsoten, samo mislim, da je bil namenjen prenosnikom in ne navadnim PC-jem, pa itak je tudi nvidi-a z prvim chipsetom isto v temo brcnila, tako da počakajmo na drugo inkarnacijo ATi-jevega chipseta, pa ga lahko primerjamo z nforce II, če želimo bit fer.
Xbox čip, pa je zunaj že od GF4 in nikakor ne more bit izgovor za trenutne težave. Saj ga samo štancajo in prodajajo, pa se mal tožarjo z M$-jem ker se zadeva prodaja z izgubo.
GeForce 3 in GeForce 4 sta povsem solidna čipa, še posebej proti GF 2 MX (pixel, vertex shaderji, LMA,...). Največji problem GeForce-a FX pa je to, da pošteno zamuja, kar bo verjetno povzročilo, da bo eden izmed čipov "enodnevnikov", ki bo hitro nadomeščen z novejšim čipom (think GeForce 2 Ultra). Glede vpliva drugih projektov na grafične projekte: NVIDIA ima ~1200 zaposlenih, ATI jih ima ~2100... In kaj je bilo narobe z NForcem 1?
Saj glih to je bil problem predvsem GF3. Podpiral je neke funkcije, ki jih noben ni rabil, premalo pa je bilo surove hitrosti. GF4 je bil v tem smislu boljši, zato tudi pravim da je bil le delni spodrsljaj, ampak ko je ven prišel si še vedno komot našel špil, ki jo je spravil na kolena. To je pa šit ne! Jaz moje GF2MX ko sem jo dobil nisem mogel spravit do štekanja pa tud na najhujših detajlih pri resoluciji do 1024x768x16. To mi je bilo tako zelo všeč na GF2MX, ne pa neki shaderji, ki jih itak ni bilo nikjer videti. A sem zdaj dovolj jasen?
Sedaj ko sem imel nekaj časa R9500 na R9700 sem končno spet doživel to da so mi delal vsi špili kot je treba in to na 1600x1200x32. To se pri meni nekaj šteje! nvidia pa pretirava (tudi sedaj na GF FX) z učinki, ki so prezapleteni, da bi jih kartica sploh izvajala dovolj hitro in so posledično neuporabni; razen, če mislijo delat kartice s po 4 čipi kot 3D FX[:\]? Sam pol vemo kaj jim sledi.
Ja in kaj je bilo pol po tvoje narobe z Voodoo-ji? Niso podpirali praktično nič pametnega, ampak so bili hitri (ti pa itak "ne rabiš" pixel shaderjev, vertex shaderjev,...)... Nevem zakaj bi si vsi v industriji (ATI, NVIDIA, SIS, 3DLabs,...) prizadeval ven spravit kar čim bolj programabilen čip, če pa tega nihče ne rabi? Hitrost čipa je vezana predvsem stanje v polprevodniški industriji. Ni ustreznih tehnologij in ti ne moreš blazno zvišat hitrosti grafične kartice. Vsi bi radi videli grafične čipe, ki bi tekli na 2GHz z 512 bitnim vodilom, 2GHz DDR pomnilnikom. Pa obstajajo povsem praktične omejitve glede tega, in ATI ter NVIDIA se lahko postavita na glavo, pa tega ne moreta kar obit.
Voodoo-ji (do 2-jke naprej, prej me ni bilo na sceni) so bili pravtako zakon. Vse je laufalo 100 km/h. Saj nimam nič proti napredku. Valda da mora bit tudi izboljšava na področju kvalitete, samo bottom line je, da zadeva ko si jo dal v računalnik ni delal dovolj hitro (oz. je bila premajhen napredek glede napredhodnjico) in to je to. End of story za uporabnika, ki mu je žal denarja za to kar je kupil.