e chi sta parlando di attacchi??
io sto dicendo che nella foto la stanno ALIMENTANDO con un 6pin anzichè con l'8...
e chi sta parlando di attacchi??
io sto dicendo che nella foto la stanno ALIMENTANDO con un 6pin anzichè con l'8...
ops, sorry non avevo capito :D
ottimo lavoro neo
devono stare attenti quelli di ATi, perchè Nvidia vuole far uscire prima del 2009 la nuova seria di VGA, sse questa esce in ritardo potrebbe perdere quell'esclusività che cerca di dare.
già ho letto, gddr5 e magari così non costeranno neanche troppo...
si , ma forse lui parla della probabile gt300
con gddr5 e directx 10.1
costeranno meno magari
ati deve fare attenzione, questo è sicuro.
Nvidia è intenzionanta a farlo uscire nel Q4 2008 a natale probabilmente così con la trediciesima........... :D
Però non ha fatto altro che attuare la 2° parte di strategia di mercato, ovvero dove si punta subito all'affinamento dell'architettura iniziale e alla riduzione dei costi di produzione puntanto tutto sui valori frames assoluti a discapito dei filtri.
RIDURRE I COSTI DI PRODUZIONE DI CHIP E PCB
Eliminando prima il bus a 512bit costosissimo che impiega fra l'altro un controller molto ingombrante all'interno del GT200
sostituendo la banda con la velocità della GDDR 5 però attenzione, perchè forse Nvidia non porterà il bus a 256 ma potrebbe tenere quelle delle vecchie serie 8 da abbinare alle rops per compensare anche la riduzione di ROPS, che avverrà sicuramente. E infine la riduzione del quantitativo di RAM che forse non sapete ma influisce parecchio ( 512Mb di GDDR5 mi dicono che starà oltre 100€ ). E infine il chip verrà prodotto obbligatoriamente con processo produttivo minore ( almeno 55nm che ha già pronto ) dopo però essere stato migliorato ulteriormente sotto il punto di vista architetturale ( non è detto ma di solito è così ).
Han parlato poi di ste DX10.1, quindi dovrebbero starci anche queste.
ASPETTATIVE
Si punta tutto sulla frequenza e la forza massima della GPU a discapito del PCB che sarà più economico e quindi anche meno esosso in termini di dissipazione e consumi.
Probabilemnte punterà più sui valori assoluti di frames e meno sui filtri visto che più indirizzati sui filtri di così non credo proprio possa fare Nvidia se non adottando politiche molto più costose. ATI non ha problemi di questo tipo perchè è la GPU a mangiarsi i filtri non gli altri componenti attorno, e questo potremmo considerarlo un vantaggio.
non so se rimarranno 240 stream o ne aumenteranno, cosa che spero molto, ma c'è da dire che Nvdia non ha ancora dimostrato la forza di questa architetura a causa di frequenze troppo basse, che si fanno rimonatare e sorpassare tranquillamente dai G92 in assenza di filtri o alte risoluzioni. Se dovesse arrivare a frequenze tipo G92 potremmo vedere uno scenario molto diverso.
QUESTA E' SEMPRE STATA LA 2° POLITICA DI NVIDIA, CHE DI SOLITO USCIVA SEMPRE FUORI O COME ALTERNATIVA AD UN PROGETTO CONCORRENZIALMENTE SUPERIORE O COME ESTENSIONE DEL PIANO COMMERCIALE.
Devono riprogettare la VGA in parte se vogliono le DX10.1, comunque nVidia se la vede brutta, entro il 2009 si passerà ai 40nm ed nVidia deve shrinkare da 65nm a 55nm e poi hai 40nm dato il ritardo di TSMC nella produzione dei 40nm.
Credo che molte gtx 200 a 65nm rimarranno sugli scaffali
nVidia ha dormito sugli allori credendo di avere il coltello dalla parte del manico....Architettura e prestazioni del G80 appena uscito erano sicuramente in anticipo sui tempi,il G92 è stata la maturazione di questa architettura...Penso sia ora di cambiare no? vediamo cosa esce a dicembre