bit-tech.net - Na pred kratkim predstavljenim grafičnem inštitutu, ki ga podpirata Intel in Univerza Saarland, je Justin Rattner, tehnični direktor Intela, pokazal prve slike jedra Larrabee. S slike sodeč dotično jedro sestavlja 32 manjših jeder (posebnost arhitekture Larrabeeja), 32 vektorskih procesnih enot in osem teksturnih kvadrantov. Po besedah bit-techa je še nekaj nedefiniranih predelov, za katere pa Intel ne želi razkriti več informacij. Po kontaktiranju so dejali le, da to ni nujno končna različica jedra Larrabee, ki je trenutno v delu v njihovih laboratorijih, projekt pa je popolnoma zdrav. Žal je načrtovan izid premaknjen naprej, v leto 2010, ko bo izšlo več različic jedra. Sprva so predvidevali izid še letos, a so prav tako ob odprtju inštituta povedali, da to ne bo mogoče. Obenem se zavedajo izziva, ki ga nudita ATi in nVidia, po njihovih besedah sploh ATi s svojimi energetsko varčnimi čipi.
Saj itak gre vse v isto smer, samo z različnih koncev. Tako bo GT300 definitivno bolj Larrabee kot G71, isto za RV870. "Filozofske razlike" ala Larrabee-jeva L1/L2 predpomnilniška hiearhija ali fiksna rasterizacija na GT300 bodo pa seveda ostale.
S3: In techPowerUp's review of the 800/800MHz core/memory version of S3 Graphics Chrome 440 GTX 256 MB video card, its performance is in the range of Radeon 3450 and GeForce 8500 GT.
LOLz
Core i9 10900X, ASUS Prime X299 Edition 30, 32GB 4x8 3600Mhz G.skill, CM H500M,
ASUS ROG Strix RTX 2080 Super, Samsung 970 PRO, UltraSharp UP3017, Win 11 Pro,
Enermax Platimax 1700W | moj oče darko 1960-2016, moj labradorec max 2002-2013
mtosev in zakaj je to LOLz? Sej itak noben ne rab graf nižjega razreda ane. Zakaj jih sploh delajo 20 in eno, če pa lahko vsak enostavno da 500 € in ima najhujšo. Geez...
Charlie talking out of his as as usual... Na B3D so začel pogovarjat, da bi nardil track za take napovedi pol pa delal kljukce al pa križce če so se uresničile ali ne.
mtosev in zakaj je to LOLz? Sej itak noben ne rab graf nižjega razreda ane. Zakaj jih sploh delajo 20 in eno, če pa lahko vsak enostavno da 500 € in ima najhujšo. Geez...
od tega crapa je verjetno HD 3200 hitrejsa. kaj bos z graficno od katere je se IGP hitrejsi. kje je smisel take grafe.
Core i9 10900X, ASUS Prime X299 Edition 30, 32GB 4x8 3600Mhz G.skill, CM H500M,
ASUS ROG Strix RTX 2080 Super, Samsung 970 PRO, UltraSharp UP3017, Win 11 Pro,
Enermax Platimax 1700W | moj oče darko 1960-2016, moj labradorec max 2002-2013
Kako bo počasnejši od 3200, če je v rangu 3450? In če je cena ugodna, nimaš pa IGPja, vidim idealni trg za to grafo. Ni nekaj posebnega, nVidia in ATI imata verjetno boljše driverje, a avtomatično označiti nekaj za crap, če ne stane 500 €, je butasto.
OMFG, nekdo spet pise neumnosti. Chrome ne pozna DX in OpenGl ane?!
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
Res je, ker procesorji in grafične kartice ne sledijo standardom. Tako kot sta popolnoam različna Intel in AMD proc. Še huje kot da bi bil en RISC, drugi pa CISC.
Ljudje še vedno ne razumejo optimizacij... Kot sem že v eni drugi temi rekel: GeForce in Radeoni imajo nekaj ekstra funkcionalnosti, ki sta jo NV in ATI "prešvercala" v DX9 (v obeh primerih so v igri sence). NV podpira PCF (ki je postal standard v DX10) že od GF 3 in ATI podpira fetch4 (ki je postal standard v DX10.1 in je naprej izboljšan v DX11) že od X1800. DX9 igra bo v optimalnem primeru najprej preverila ali ima ustrezno GeForce karto (in izbrala PCF), Radeon karto (in izbrala fetch4) ali nekaj tretjega in vse skup speljala čez vanila D3D9. Če kdo misli, da vsaka igra počenja to se hudo hudo moti! Igra recimo sploh ne dela shadow mapov in oba trika letita skozi okno, ker ju nimaš za kaj uporabit.
Kolk so developerji navdušeni nad takimi optimizacijami pomojem najlepše kaže DX10.1. Večina ATI fanov bo skakalo v luft kolk je Radeon cool in kolk so Radeon-i hitrejši od GeForce-ev, če le developerji ne bi bili tako leni in bi splošno podprli DX10.1 (kar pomeni točno dve spremenjeni vrstici v pogonu igre). Seveda ti dve vrstici nista edina sprememba recimo v Assessin's Creed, ker to ali igra uporablja DX11, DX10.1, DX10 ali DX9 nima veze. Kar nas pripelje do tega, da so pač developerji za AC spremenili več kot dve vrstici. Konkretno DX10.1 omogoča neposreden dostop iz shader-ja do multisample tekstur, v DX10 je treba pa multisample teksturo mal kopirat okrog. In ker AC to uporablja že v DX10 (kopira teksture okrog) bo na DX10.1 hardware-u (Radeon-i 3x00 in 4x00 in zadnji Chromi od S3-ja!) in ob vklopljenem AA nekaj hitrejši (če je seveda uporabljena nepopravljena DX10.1 verzija špila). Nazaj k navdušenju developerjev nad takimi optimizacijami... NV ima v svojih driverjih par funkcij, ki omogočajo uporabljat DX10.1 feature-je na GeForce 8x00+ karticah. Podprto je praktično vse razen že omenjenega fetch 4 ("geather" v DX terminologiji). Koliko DX10.1 iger uporablja ta specialen path? Kar pomeni "preveri ali lahko NV driver naredi D3D10.1 interface, sicer uporabi D3D10.1 interface od MS." Samo Far Cry 2...
mtosev in zakaj je to LOLz? Sej itak noben ne rab graf nižjega razreda ane. Zakaj jih sploh delajo 20 in eno, če pa lahko vsak enostavno da 500 € in ima najhujšo. Geez...
od tega crapa je verjetno HD 3200 hitrejsa. kaj bos z graficno od katere je se IGP hitrejsi. kje je smisel take grafe.
Uporabi no tisti košček svojih možgan, ki se še ni skisal zaradi pretiranega visenja pred ekranom. Koliko ljudi dejansko špila igirce? Koliko ljudi rabi grafično le toliko, da jim prikaže sliko na ekran? Resno razmisli...
Razen ce ni res kasna stara ali poceni plata, tudi to omogoca
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.
Dual screnn čist lepo na IGP dela. Kur**** od proizvajalcev prenosnikov in podobni, naj crap od monitorjev uredijo, da bodo barve saj pribljižno prave.
France Rejects Genocide Accusations Against Israel in Gaza,
To accuse the Jewish state of genocide is to cross a moral threshold
Drgač je pa S3 kolikor je meni znano bolj uporabljen v media/HTPCjih, kjer malo več grafičnih mišič pride prav, preveč ne rabiš, temperatura, energija in predvsem tišina so pa zelo pomembni.
Zakaj bi vzel 28€ nV ali ati če maš pa lahko 25€ s3? Ta poceni verzije nV/ati kartic so ponavadi kakšno generacijo zadaj (toplota, zvok itd), in če ne igraš špilov, nimaš razloga da nebi vzel s3 (razen driverjev...).
ves hardware ima common problems in ce vec ljudi ima enak kos hardwarea oz je bolj razsirjen te lahko kdo pomaga oz izjes kaj je narobe ali dobis kaki nasvet. pri non-standardu pa ne, ker ga ima malo stevilo ljudi oz skoraj noben.
Core i9 10900X, ASUS Prime X299 Edition 30, 32GB 4x8 3600Mhz G.skill, CM H500M,
ASUS ROG Strix RTX 2080 Super, Samsung 970 PRO, UltraSharp UP3017, Win 11 Pro,
Enermax Platimax 1700W | moj oče darko 1960-2016, moj labradorec max 2002-2013
No, moja v podpisu ima res skoraj vse. DVI, HDMI, Display Port, D-Sub. Delata pa 2 digitalna istocasno.
The reason why most of society hates conservatives and
loves liberals is because conservatives hurt you with
the truth and liberals comfort you with lies.