Introduzione
Da qui in poi la svolta vera e propria; ATI infatti decide di cambiare totalmente rotta, giungendo alla conclusione che la serie HD 3000 aveva del potenziale non ancora del tutto, e adeguatamente, sfruttato. Ecco perché nasce la serie HD 4000, con l’unico obiettivo di riconfermare ATI come marchio dominante nel settore videoludico.
I primi benchmark hanno reso entusiasti gli utenti e nello stesso tempo reso conscia ATI di aver prodotto una serie di schede particolarmente performante e con prezzi di accesso mai visti prima a parità di qualità. NVIDIA, come sappiamo, ha reagito nel mondo non peggiore possibile ma quasi, sentendosi effettivamente spiazzata e tagliata fuori dalla nuova politica di ATI. La serie infatti concorrente a quella di casa ATI, cioè GeForce GTX 200, ha sì confermato la lunga esperienza maturata da NVIDIA nel corso degli anni in questo settore commerciale, ma ha altresì dimostrato palesemente che la stessa NVIDIA ha accusato il colpo.
Nonostante comunque i benchmark confermassero che si fosse giunti ad un effettivo equilibrio tra le parti, ATI non aveva ancora sfoderato quello che si è rivelato più di un asso nella manica, ovvero quella che sarebbe diventata la sua scheda video top gamma nonché la più potente al mondo (in modo particolare nelle applicazioni che sfruttano la tecnologia CrossFire): la Radeon HD 4870 X2.
Consolidata ormai la propria posizione nel mercato high-end, ATI ha poi solo recentemente confermato la propria posizione di predominio anche per quanto riguarda le altre fasce di mercato. E’ in questo segmento infatti (cioè quello che tecnicamente dovrebbe essere definito “mid-range”) che si va a posizionare la scheda video che analizzeremo in questo articolo: la Radeon HD 4670.
Per quanto riguarda le caratteristiche tecniche, ci sono alcune analogie con la serie HD 3000; in particolare troviamo lo stesso quantitativo di Stream Processors, che è rimasto invariato a 320, mentre è sceso quello dell’interfaccia delle memorie, passato da 256 a 128 bit. A proposito delle memorie, ATI ha deciso di tornare ad utilizzare memorie GDDR3 al posto delle GDDR4 (già abbandonate dopo la serie 3800). Ciò fa quindi registrare un valore di 32 gigabyte di bandwidth (banda memoria) nelle schede HD 4600, contro i 52GB delle schede HD 3800.
Prima di iniziare l’analisi vera e propria del prodotto vorremmo ringraziare Gigabyte per il modello fornitoci, ovvero la Gigabyte Radeon HD 4670 (GV-R467D3-512I).
La Gigabyte Radeon HD 4670 si sviluppa, rispettivamente in linea orizzontale e in linea verticale, in dimensioni di 17 x 14 centimetri, in un PCB di colore blu. Nella parte posteriore troviamo un’uscita DVI, una VGA e una HDMI compatibile con la tecnologia HDCP. Grazie alla presenza di questa porta sarà possibile collegare la HD 4670 a televisori o monitor di ultima generazione, beneficiando della qualità offerta da questo standard (l’Alta Definizione). Inoltre, grazie alla presenza della tecnologia ATI AVIVO, sarà possibile riprodurre firmati in formato Blu-Ray senza dover ricorrere all’utilizzo della CPU per decodificare i video.
Il circuito di alimentazione utilizzato è caratterizzato dall’uso di choke con nucleo in ferrite, che permettono di mantenere più a lungo l’energia, anche alle alte frequenze, in modo tale da ridurre la perdita di energia del nucleo e favorire una maggiore stabilità del sistema.
Particolare Moduli GDDR3
In totale, la scheda è dotata di otto chip memoria, rispettivamente quattro nella parte anteriore e quattro nella parte posteriore. I chip utilizzati fanno parte della famiglia Hynix GDDR3, per un totale di 512MB con interfaccia a 128bit.
Per il test della Radeon HD 4670 abbiamo utilizzato un processore Intel Core 2 Quad Q9300, Scheda Madre Gigabyte EP-45 Extreme con chipset Intel P45, 2GB di Ram Geil DDR2 e hard disk Maxtor SATA da 200GB. Per le schede video ATI sono stati utilizzati gli ultimi driver ATI Catalyst 8.10, mentre per la scheda NVIDIA driver Forceware WHQL 178.24.
Per ogni scheda video testata il sistema è stato prontamente formattato con successiva installazione ex-novo del sistema operativo Windows Vista 32bit (SP1 integrato),e sono stati installati solamente i driver necessari al corretto funzionamento dei vari componenti. Le schede grafiche che abbiamo deciso di usare come termine di confronto, in relazione alla fascia cui appartengono (mid-range, come del resto la HD 4670), sono le seguenti:
- Asus Radeon HD 3870 “OC”: Scheda video con GPU RV670, overcloccata da noi alle frequenze di 860MHz per il Core e 2400Mhz per le memorie; queste ultime sono di tipo GDDR4 (512MB la quantità) con interfaccia a 256bit; Prezzo : circa 95€.
- Asus GeForce 9600 GT: Scheda video con GPU G96, con frequenze di 650MHz per il Core, 1800MHz per le memorie e 1625MHz per i 64 Stream Processors. La memoria on-board è da 512MB GDDR3 con interfaccia a 256bit. Prezzo: circa 90€.
- Gigabyte Radeon HD 4670: Scheda video con GPU RV770 con frequenze di 750MHz per il Core e 2000MHz per le memorie. La memoria on-board è pari a 512MB GDDR3 con interfaccia a 128bit. Prezzo: circa 70€.
- Gigabyte Radeon HD 4670 “OC”: Non è altro che la scheda oggetto della nostra review, solo overcloccata alle frequenze di 830MHz per il Core e 2200MHz per le Memorie.
3DMark Vantage
- Sviluppatore: Futuremark Corporation
- Disponibile dal: 28/04/08
- Versione: 1.0.1
Come scontato, e come qualunque bencher si aspetterebbe, inizieremo la nostra fase di test prestazionali con 3DMark Vantage, il maggior software per testare la potenzialità delle schede video in ambiente Windows Vista (DirectX 10). Vantage è l’ultima versione attualmente disponibile del famoso benchmark. Esso va a stressare ai limiti massimi la GPU e la CPU, in modo tale da coglierne le effettive potenzialità, quindi riporta (a test concluso) un punteggio che va “interpretato” in base ai risultati ottenuti con altre schede grafiche.
Clicca per ingrandire
Il test 3D Mark Vantage è stato eseguito solo con i primi quattro benchmark (escludendo quindi quello della fisica, in modo tale da non avvantaggiare la scheda video NVIDIA, dotata di acceleratore grafico PhysX). Come è possibile vedere dal grafico, la HD 3870 fa registrare il punteggio più alto in entrambi i rispettivi punteggi di GPU e CPU, merito di frequenze di funzionamento più elevate rispetto alle avversarie. Il miglioramento ottenuto overcloccando la HD 4670 si traduce in un guadagno di 500-600 punti, mantenendo la scheda molto stabile e senza particolari problemi di surriscaldamento.
Company of Heroes – Opposing Fronts
- Sviluppatore: Relic Entertainment
- Disponibile dal: 28/09/07
Tutti gli appassionati di RTS (Real-Time Strategy) avranno senz’altro sentito parlare in questi ultimi due anni del riuscitissimo strategico in tempo reale, sviluppato da Relic in esclusiva per piattaforme PC Windows. Company of Heroes è riuscito infatti, senza alcuna precedente base di installazione sul mercato, a spopolare fra gli appassionati di questo particolare e sempre più apprezzato genere videoludico, e si è pure preso da subito un posto nelle varie review di schede grafiche per via del suo robusto motore grafico, l’Essence Engine, di proprietà della stessa Relic. Proprio per questo motivo non poteva mancare nella nostra recensione un suo test, visto anche che l’espansione Opposing Fronts presenta il supporto alle DirectX 10. Il test è stato effettuato col benchmark interno del gioco, che consiste in un filmato in grafica pre-calcolata di un tratto della campagna single-player.
Clicca per ingrandire
Come è possibile vedere dal grafico, tutte le schede ATI fanno registrare ottimi risultati con risoluzioni molto basse, circa 10-15 FPS in più rispetto alla rivale NVIDIA. Con risoluzione di 1600 x 1200 la situazione invece cambia a favore della GeForce 9600 GT, la quale riesce a far registrare una media di 5 FPS in più rispetto a tutte le concorrenti, segno di una migliore ottimizzazione dei driver. La HD 4670 “OC” riesce a far segnare, con risoluzioni di 1280 x 1024, un guadagno medio di 10 FPS in più rispetto alla versione base.
World in Conflict
- Sviluppatore: Massive Entertainment
- Disponibile dal: 21/09/07
- Versione: 1.0
Anch’esso facente parte del genere RTS, World in Conflict è stato da subito al centro dell’attenzione per via delle diverse innovazioni grafiche che portava, appartenendo ad un genere videoludico che mai si era potuto fregiare di effetti visivi quali fumo volumetrico, deformazione della materia e così via. Il tutto è stato possibile grazie all’utilizzo della versione 4 del celebre motore fisico Havok, che permette una simulazione ed una resa delle esplosioni senza precedenti né rivali. Anche WiC sfrutta le DirectX 10, nonostante sia stato sviluppato in DirectX 9. Attivando le DX10 ad ogni modo, si ottengono ulteriori effetti come, ad esempio, quelli particellari. Anche in questo caso il test è stato effettuato col benchmark interno del gioco, molto breve ma che riesce comunque a sfruttare pienamente le risorse hardware.
Clicca per ingrandire
Come è possibile vedere dal grafico le schede ATI risultano molto allineate nei risultati, privilegiando, a determinate risoluzioni, o la HD 3870 o la HD 4670. Strano il risultato della GeForce 9600 GT invece; nonostante abbiamo ripetuto il test più volte, essa ha fatto registrare infatti una media di soli 12 FPS a tutte le risoluzioni.
Call of Duty 4 – Modern Warfare
- Sviluppatore: Infinity Ward
- Disponibile dal: 09/11/07
- Versione: 1.0
Ben poche parole per descriverlo; gioco del 2007 più venduto (ad oggi si contano oltre 10 milioni di copie in tutto il mondo), nonché quarto capitolo di una intramontabile saga di sparatutto bellici, Call of Duty 4 è basato su una tecnologia proprietaria dello sviluppatore Infinity Ward, e sfrutta le DirectX 9. L’assoluta peculiarità di questo gioco sta proprio nella egregia gestione della notevole ed estremamente appagante mole di effetti grafici, che fa sì che non vengano affatto pregiudicate le prestazioni finali, di tutto rispetto anche su sistemi non molto performanti. La sessione di test (ognuna delle quali della durata di circa 90 secondi) è stata registrata giocando direttamente un tratto dell’addestramento iniziale della campagna single-player, monitorato col benchmark interno del programma gratuito Fraps.
Clicca per ingrandire
Come è possibile vedere dal grafico, si ripresenta la situazione già vista nel benchmark di Company of Heroes. In particolare le schede ATI, a risoluzioni minori, fanno registrare valori nettamente superiori alla rivale NVIDIA, mentre alla risoluzione di 1600 x 1200 la situazione cambia a favore della GeForce 9600 GT, che riesce a guadagnare una media di 10 FPS nell’ultimo test.
Crysis Warhead
Sviluppatore: Crytek
Disponibile dal: 19/09/08
Versione: 1.0
Ennesimo sparatutto in prima persona, ed ennesimo gioco a non aver bisogno di presentazioni; Crysis Warhead costituisce una specie di “espansione stand-alone” del famoso Crysis, ovvero l’FPS che ha rivoluzionato questo genere videoludico con una grafica semplicemente da sogno – e infatti chi non possiede un hardware di livello molto alto può solo sognarsela! Ebbene Warhead ripropone lo stesso motore grafico, l’ormai consolidato e (per ora) imbattuto CryEngine2 , apportando però, almeno stando a quanto dichiarato da Crytek, dei miglioramenti (in realtà non troppo percettibili) nella fluidità generale del gioco, ritenuto troppo “pesante” e male ottimizzato nella sua prima uscita. Se dunque il primo Crysis è stato protagonista indiscusso di praticamente tutte le review di schede grafiche fatte a partire da fine 2007, Warhead deve poter costituire, in qualche modo, un benchmark ancor più esaustivo sia per l’hardware di ultima generazione che per quello un po’ più datato.
Per Crysis Warhead abbiamo utilizzato il Crysis Warhead Benchmarking Tool, scaricabile gratuitamente dalla rete. Esso è in grado di eseguire tre bench differenti, rispettivamente in tre diverse mappe di gioco (presenti nella campagna single-player): Avalanche, Frost e Ambush. Tutte e tre sono ottime per testare fino all’ultimo FPS le potenzialità di una scheda video. Scontato ricordarvi che anche in questo caso si tratta di un gioco nativo DirectX 10, sebbene abbiamo deciso, vista la fascia prestazionale cui appartiene la 4670, di eseguire i test solo ed esclusivamente in ambiente DirectX 9 (su Vista è possibile fare ciò unicamente selezionando la relativa modalità di avviamento dell’eseguibile di Warhead cliccandovi col tasto destro del mouse, previa entrata nella cartella di sistema “Giochi”). Infine per ovvi motivi, ed anche per seguire una linea comune caratteristica ormai di tutte le recensioni di schede grafiche, abbiamo optato per il non utilizzo dei filtri anti-aliasing e anisotropico, che mai come in Crysis fanno sentire fin troppo il loro peso sulle prestazioni e sulla fluidità delle immagini.
Clicca per ingrandire
Clicca per ingrandire
Nelle tre mappe che abbiamo analizzato i risultati delle schede video ATI risultano molto allineati, anche se in alcuni test la HD 3870 riesce a superare, senza problemi, la HD 4670. La GeForce 9600 GT risulta invece la migliore delle quattro soluzioni testate.
Far Cry 2
Sviluppatore: Ubisoft Montreal
Disponibile dal: 24/10/08
Versione: 1.00
Come ultimo benchmark non potevamo esimerci dal mettere alla prova lui, l’ultimo nato in casa Ubisoft; Far Cry 2 riprende dal primo capitolo (il celebre Far Cry di Crytek per intenderci) solamente il nome e circa il 2-3 % del motore grafico. Non tutti saprete infatti che, sebbene Far Cry 2 sfrutti un motore grafico nuovo di pacca chiamato Dunia Engine, quest’ultimo sia (appunto però solo per il 2-3 %) costruito sulla solida base del vecchio CryEngine 1.0 sviluppato da Crytek, la cui seconda versione è proprio quella che sta alla base dei due Crysis.
Sviluppati con una dedizione davvero lodevole da parte del team di Ubisoft Montreal (rimasto impegnato con questo progetto almeno dal 2005 fino al 2008), Far Cry 2 e il suo Dunia Engine hanno già avuto modo di rendere entusiasti molti giocatori, anche e soprattutto possessori di schede video targate ATI appunto, per il semplice fatto che, non avendo la resa visiva quasi nulla da invidiare a quella offerta dai vari Crysis, Far Cry 2 riesca comunque a girare in maniera appagante indifferentemente su sistemi Nvidia come su sistemi ATI (nonostante sia stato sviluppato con schede GeForce e ottimizzato per l’uso con queste ultime). E da parte della stessa ATI non manca il supporto a driver grafici e hotfix vari (due quelli rilasciati finora) per aumentare ulteriormente le prestazioni di un gioco che, già di per sé, ne regala tante anche, ribadiamo, con sistemi non più “giovani”.
Un titolo tanto atteso e promettente come Far Cry 2 non poteva non essere dotato in partenza di un comodo e ben congegnato tool di benchmark interno, che però può essere avviato solo seguendo la stessa identica procedura che abbiamo nominato prima per eseguire Crysis Warhead in modalità compatibile DirectX 9; chiaramente in questo caso il menu a tendina che apparirà cliccando col tasto destro del mouse sull’icona del gioco presente nella cartella “Giochi” di Windows Vista, sarà diverso (seppur non di molto) rispetto a quello che appare con Crysis o con altri videogiochi. Anche Far Cry 2, come i vari Crysis e come altri giochi, supporta indistintamente librerie grafiche DirectX 9 e DirectX 10, ma a differenza dello stesso Crysis Warhead (o del primo Crysis), esse sono disponibili direttamente nelle opzioni grafiche interne del gioco.
Il benchmark tool di Far Cry 2 offre in totale quattro differenti tipi di test, rispettivamente tre in puro “stile bench”, e l’ultimo in “stile demo”, nel senso che registra le prestazioni di una sessione di gioco standard in tempo reale giocata dal PC, il che è molto utile per farsi un’idea ben precisa di come girerà il gioco quando lo proveremo in prima persona. Noi abbiamo deciso di effettuare il secondo bench, che dei primi tre è quello dalla durata “media”, dunque il giusto compromesso per ottenere una misurazione certosina quanto basta.
Clicca per ingrandire
Clicca per ingrandire
Come è possibile vedere dai grafici, almeno in DX10 tutte le soluzioni provate risultano allineate, con differenze massime dell’ordine di 1-2 FPS. La situazione in ambiente DX9 cambia a favore della HD 3870, che riesce a staccare le altre proposte anche di 10 FPS.
La scheda fornitaci da Gigabyte si è rilevata un’ottima soluzione per il settore mainstream. Anche a risoluzioni di 1600 x 1200 si può giocare tranquillamente agli ultimi titoli forniti dal mercato videoludico, a patto però di scendere a compromessi nel comparto Dettagli Grafici.
Nonostante la scheda sia dotata di interfaccia delle memorie a 128bit e di frequenze minori rispetto alla HD 3870, riesce ad ottenere risultati allineati, e in alcuni casi migliori. C’è da ricordare comunque che la HD 3870 utilizzata nei nostri test presenta frequenze di funzionamento molto elevate (essendo overcloccata) rispetto al modello base, e dunque le cose potrebbero cambiare in maniera imprevedibile e radicale se si utilizzasse come termine di paragone una HD 3870 “liscia” (cioè a frequenze di fabbrica).
Per quanto riguarda le altre caratteristiche tecniche della Gigabyte Radeon HD 4670, c’è da segnalare un’eccesiva rumorosità della ventola, sia in “idle” che in “full”. Sfortunatamente infatti non è possibile diminuire la velocità di rotazione della ventola né da pannello di controllo ATI Catalyst, né con il software Riva Tuner (utilizzato per overcloccare la scheda). Gigabyte mette comunque a disposizione un software proprietario, presente nel CD di installazione, utile a monitorare le temperature e overcloccare la scheda.
In definitiva quindi un scheda consigliata, e consigliabile, a tutti quegli utenti particolarmente attenti al prezzo di acquisto ma che non vogliono rinunciare a giocare agli ultimi titoli, anche in DirectX 10.