Analisi Tecnica
Era in particolare il periodo in cui la diretta rivale di NVIDIA, ovvero ATI, non navigava esattamente nell’oro e si ritrovava con una serie top gamma (Radeon HD3870) che non impensieriva minimamente la rispettiva controparte (GeForce 8800 Ultra) del colosso californiano. Per spiegarvi la situazione che si era creata in quel periodo con una metafora possiamo dire che in un mercato (medaglia) che è sempre stato diviso tra due potenze (facce della medaglia), comunque la si guardasse, la “medaglia” mostrava sempre una sola faccia (NVIDIA).
L’azienda di Santa Clara in pratica si trovava in un mercato non concorrenziale (non più ormai), per cui finì per ritrovarsi con una scheda video (8800 Ultra) che non avendo rivali e costando decisamente troppo per l’utenza media non costituiva la migliore fonte di entrate.
Nonostante tutto però, la proposta rivale di ATI stava riscuotendo grandissimo successo nella fascia di mercato in cui si era, senza volerlo, andata a collocare (ovvero quella medio-alta). Fu proprio questo il pretesto che fece sì che NVIDIA dal canto suo decidesse di debuttare con quella che poi sarebbe stata la proposta rappresentativa della serie G80 tutta: la GeForce 8800GT. Questa scheda video infatti, riallacciandoci a quanto dicevamo nelle prime righe, fu il definitivo “bastone fra le ruote” di ATI da parte di NVIDIA.
Da lì in poi la 8800GT sarebbe divenuta la nuova frontiera per tutti coloro che si approcciavano al gaming e non volevano scendere a compromessi (fatta una piccola eccezione per il prezzo che, nonostante tutto, continuava ad essere leggermente più alto rispetto alla fascia mid-range di ATI).
A distanza di circa un anno da quei movimenti di mercato, e dopo un palese successo planetario della 8800GT, NVIDIA ha deciso di riproporla “sotto mentite spoglie”, affibbiandole il nome in codice di GeForce 9800GT. Il modello che vi andremo a presentare oggi ci è stato gentilmente fornito da Asus ed è caratterizzato dall’utilizzo del dissipatore Glaciator. Si tratta precisamene della Asus EN9800GT TOP/HTDP/512MD3.
La EN9800GT si sviluppa in linea orizzontale e in linea verticale rispettivamente in dimensioni di 23 x 13 centimetri. Il PCB è un classico di colore blu, sulla cui superficie si fa spazio il dissipatore Glaciator (montato sulla GPU) e un dissipatore di tipo passivo per la circuiteria di alimentazione.
Come riportato anche nella sigla della scheda, la EN9800GT è caratterizzata dalla tecnologia NVIDIA Hybrid Power, sfruttabile però solo se la scheda video viene montata su una scheda madre dotata di chipset nForce e di scheda video IGP (integrata). Infatti l’Hybrid Power (tecnologia che ultimamente sta lasciando posto all’Hybrid SLI) fa sì che la scheda madre utilizzi la scheda grafica su slot PCI Express solo quando vengono avviate applicazioni 3D o comunque applicazioni che richiedo un uso intenso della GPU; in tutte le altre situazioni l’Hybrid Power disabilita la scheda grafica principale a favore di quella integrata, permettendo quindi un relativo risparmio energetico.
Tra le altre caratteristiche spuntano il supporto allo standard PCI Express 2.0, alle API grafiche DirectX 10, a configurazioni SLI e Tri-Way SLI e la presenza di due porte DVI e una TV-Out. In più, come ormai classico per tutte le schede video di ultima generazione, è presente il supporto, garantito da un adattatore nella confezione, alla tecnologia HDMI.
Le memorie RAM, presenti solo nella parte anteriore della scheda, sono disposte in otto chip marchiati Samsung di tipo GDDR3, per un quantitativo complessivo di 512 MB con interfaccia a 256bit. Le memorie sono gli unici componenti ad essere esclusi dall’ottimo sistema di raffreddamento della EN9800GT. Asus, controcorrente rispetto al modello 9800GT reference NVIDIA, ha infatti dotato la scheda dell’ottimo sistema di raffreddamento Glaciator, già visto nella stessa 8800GT dell’azienda taiwanese. Il Glaciator è composto principalmente da un corpo in alluminio di forma ovale, sormontato da una ventola da 80mm termocontrollata.
La circuiteria di alimentazione, come detto anche precedentemente, è sormontata da un dissipatore, anch’esso in alluminio, di tipo passivo. Ciò permette quindi di ottenere un miglioramento generale delle temperature di oltre 7°C (valore dichiarato sulla confezione).
Dal punto di vista delle specifiche tecniche segnaliamo un clock di 600MHz per la GPU, di 1800MHz per le memorie e di 1500MHz per i 112 Stream Processors. Per un corretto funzionamento della scheda è consigliato utilizzare un alimentatore da almeno 400W, visti i circa 105W di consumo dichiarati in Full (a pieno carico).
Per concludere, segnaliamo la presenza di un piccolo altoparlante (buzz) che avverte l’utente in caso ci siano problemi di alimentazione (mancato collegamento del cavo da 6pin e così via).
Per il test della GeForce EN9800GT abbiamo utilizzato un processore Intel Core 2 Quad Q9300, Scheda Madre Gigabyte EP-45 Extreme con chipset Intel P45, 2GB di Ram Geil 800 MHz 4-4-4-12 DDR2 e Hard disk Maxtor SATA da 200GB. Per le schede video ATI sono stati utilizzati gli ultimi driver ATI Catalyst 8.10, mentre per quelle NVIDIA sono stati utilizzati driver Forceware WHQL 178.24.
Le varie versioni della 9800GT attualmente sono disponibili sul mercato con prezzi a partire da 115 Euro. Il modello proposto da Asus in particolare è disponibile con prezzi a partire da 138€, per via del particolare sistema di raffreddamento.
Ogni volta che andremo ad analizzare una nuova scheda video la compareremo con tutte le schede provate fino a quel momento dalla nostra redazione, in modo tale che voi lettori possiate farvi un’idea generale su quale possa essere la scelta vincente in base, ovviamente, al prezzo e alle prestazioni di ciascuna scheda.
Per ogni scheda video testata il sistema è stato prontamente formattato con successiva installazione ex-novo del sistema operativo Windows Vista 32bit (SP1 integrato), e sono stati installati solamente i driver necessari al corretto funzionamento dei vari componenti. Le schede grafiche che abbiamo deciso di usare come termine di confronto, in relazione alla fascia cui appartengono, sono le seguenti:
- Asus Radeon HD 3870 “OC”: Scheda video con GPU RV670, overcloccata da noi alle frequenze di 860MHz per il Core e 2400MHz per le memorie; queste ultime sono di tipo GDDR4 (512MB la quantità) con interfaccia a 256bit; prezzo: circa 95€.
- Asus GeForce EN 9600 GT: Scheda video con GPU G96, con frequenze di 650MHz per il Core, 1800MHz per le memorie e 1625MHz per i 64 Stream Processors. La memoria on-board è da 512MB GDDR3 con interfaccia a 256bit; prezzo: circa 90€.
- Gigabyte Radeon HD 4670: Scheda video con GPU RV770 con frequenze di 750MHz per il Core e 2000MHz per le memorie. La memoria on-board è pari a 512MB GDDR3 con interfaccia a 128bit; prezzo: circa 70€.
- Gigabyte Radeon HD 4670 “OC”: Versione overcloccata del modello sopra, con frequenze di 830MHz per il Core e 2200MHz per le Memorie.
3DMark Vantage
- Sviluppatore: Futuremark Corporation
- Disponibile dal: 28/04/08
- Versione: 1.0.1
Come scontato, e come qualunque bencher si aspetterebbe, inizieremo la nostra fase di test prestazionali con 3DMark Vantage, il maggior software per testare la potenzialità delle schede video in ambiente Windows Vista (DirectX 10). Vantage è l’ultima versione attualmente disponibile del famoso benchmark. Esso va a stressare ai limiti massimi la GPU e la CPU, in modo tale da coglierne le effettive potenzialità, quindi riporta (a test concluso) un punteggio che va “interpretato” in base ai risultati ottenuti con altre schede grafiche.
Il test 3D Mark Vantage è stato eseguito solo con i primi quattro benchmark (escludendo quindi quello della fisica, in modo tale da non avvantaggiare la scheda video NVIDIA, dotata di acceleratore grafico PhysX). Come è possibile vedere dal grafico, la HD3870 e la 9800GT fanno registrare nello “GPU Score” un punteggio simile, staccando di molti punti tutte le altre schede video prese in considerazione. Differente invece il punteggio totale, a netto vantaggio della soluzione NVIDIA.
Company of Heroes – Opposing Fronts
- Sviluppatore: Relic Entertainment
- Disponibile dal: 28/09/07
Tutti gli appassionati di RTS (Real-Time Strategy) avranno senz’altro sentito parlare in questi ultimi due anni del riuscitissimo strategico in tempo reale, sviluppato da Relic in esclusiva per piattaforme PC Windows. Company of Heroes è riuscito infatti, senza alcuna precedente base di installazione sul mercato, a spopolare fra gli appassionati di questo particolare e sempre più apprezzato genere videoludico, e si è pure preso da subito un posto nelle varie review di schede grafiche per via del suo robusto motore grafico, l’Essence Engine, di proprietà della stessa Relic. Proprio per questo motivo non poteva mancare nella nostra recensione un suo test, visto anche che l’espansione Opposing Fronts presenta il supporto alle DirectX 10. Il test è stato effettuato col benchmark interno del gioco, che consiste in un filmato in grafica pre-calcolata di un tratto della campagna single-player.
Come è possibile vedere dal grafico, la proposta NVIDIA GeForce 9800GT, nonostante frequenze di funzionamento minori, riesce a staccare, con qualunque tipo di risoluzione, le schede concorrenti. Il divario risulta molto più tangibile a risoluzioni maggiori, dove l’architettura della scheda e l’ottimizzazione dei driver permettono a NVIDIA di far registrare risultati migliori.
World in Conflict
- Sviluppatore: Massive Entertainment
- Disponibile dal: 21/09/07
- Versione: 1.0
Anch’esso facente parte del genere RTS, World in Conflict è stato da subito al centro dell’attenzione per via delle diverse innovazioni grafiche che portava, appartenendo ad un genere videoludico che mai si era potuto fregiare di effetti visivi quali fumo volumetrico, deformazione della materia e così via. Il tutto è stato possibile grazie all’utilizzo della versione 4 del celebre motore fisico Havok, che permette una simulazione ed una resa delle esplosioni senza precedenti né rivali. Anche WiC sfrutta le DirectX 10, nonostante sia stato sviluppato in DirectX 9. Attivando le DX10 ad ogni modo, si ottengono ulteriori effetti come, ad esempio, quelli particellari. Anche in questo caso il test è stato effettuato col benchmark interno del gioco, molto breve ma che riesce comunque a sfruttare pienamente le risorse hardware.
La situazione cambia leggermente, seppur a favore della scheda 9800GT, con World in Conflict. In tutti i test da noi eseguiti, la scheda NVIDIA riesce ad ottenere risultati migliori, seppur di una manciata di FPS, con ogni risoluzione. La situazione cambia in maniera particolare con l’utilizzo di risoluzione elevate, al che tutte le schede provate fanno registrare mediamente i medesimi risultati.Call of Duty 4: Modern Warfare
- Sviluppatore: Infinity Ward
- Disponibile dal: 09/11/07
- Versione: 1.0
Ben poche parole per descriverlo; gioco del 2007 più venduto (ad oggi si contano oltre 10 milioni di copie in tutto il mondo), nonché quarto capitolo di una intramontabile saga di sparatutto bellici, Call of Duty 4 è basato su una tecnologia proprietaria dello sviluppatore Infinity Ward, e sfrutta le DirectX 9. L’assoluta peculiarità di questo gioco sta proprio nella egregia gestione della notevole ed estremamente appagante mole di effetti grafici, che fa sì che non vengano affatto pregiudicate le prestazioni finali, di tutto rispetto anche su sistemi non molto performanti. La sessione di test (ognuno dei quali della durata di circa 90 secondi) è stata registrata giocando direttamente un tratto dell’addestramento iniziale della campagna single-player, monitorato col benchmark interno del software freeware Fraps.
Il grafico parla da solo; la GeForce 9800GT risulta in netto vantaggio, con qualunque tipo di risoluzione utilizzata, rispetto alle altre schede, segno di una migliore ottimizzazione generale sia dei driver che della scheda.
Crysis Warhead
- Sviluppatore: Crytek
- Disponibile dal: 19/09/08
- Versione: 1.0
Ennesimo sparatutto in prima persona, ed ennesimo gioco a non aver bisogno di presentazioni; Crysis Warhead costituisce una specie di “espansione stand-alone” del famoso Crysis, ovvero l’FPS che ha rivoluzionato questo genere videoludico con una grafica semplicemente da sogno – e infatti chi non possiede un hardware di livello molto alto può solo sognarsela! Ebbene Warhead ripropone lo stesso motore grafico, l’ormai consolidato e (per ora) imbattuto CryEngine2 , apportando però, almeno stando a quanto dichiarato da Crytek, dei miglioramenti (in realtà non troppo percettibili) nella fluidità generale del gioco, ritenuto troppo “pesante” e male ottimizzato nella sua prima uscita. Se dunque il primo Crysis è stato protagonista indiscusso di praticamente tutte le review di schede grafiche fatte a partire da fine 2007, Warhead deve poter costituire, in qualche modo, un benchmark ancor più esaustivo sia per l’hardware di ultima generazione che per quello un po’ più datato.
Per Crysis Warhead abbiamo utilizzato il Crysis Warhead Benchmark v1.1.1, realizzato dal sito HardwareOC Benchmarks. Esso è in grado di eseguire tre bench differenti, rispettivamente in tre diverse mappe di gioco (presenti nella campagna single-player): Avalanche, Frost e Ambush. Tutte e tre sono ottime per testare fino all’ultimo FPS le potenzialità di una scheda video. Scontato ricordarvi che anche in questo caso si tratta di un gioco nativo DirectX 10, sebbene abbiamo deciso, vista la fascia prestazionale cui appartiene la 9800GT, di eseguire i test solo ed esclusivamente in ambiente DirectX 9. Infine, per ovvi motivi, ed anche per seguire una linea comune caratteristica ormai di tutte le recensioni di schede grafiche, abbiamo optato per il non utilizzo dei filtri anti-aliasing e anisotropico, che mai come in Crysis fanno sentire fin troppo il loro peso sulle prestazioni e sulla fluidità delle immagini.
Nelle tre mappe che abbiamo analizzato la 9800GT risulta, seppur di pochi FPS rispetto alla HD3870, vincitrice. Con le impostazioni utilizzate, anche con risoluzione di 1600 x 1200 pixel, il gioco risulta molto fluido e si può godere appieno della qualità grafica del CryEngine 2.
Far Cry 2
- Sviluppatore: Ubisoft Montreal
- Disponibile dal: 24/10/08
- Versione: 1.00
Come ultimo benchmark non potevamo esimerci dal mettere alla prova lui, l’ultimo nato in casa Ubisoft; Far Cry 2 riprende dal primo capitolo (il celebre Far Cry di Crytek per intenderci) solamente il nome e circa il 2/3 % del motore grafico. Non tutti saprete infatti che, sebbene Far Cry 2 sfrutti un motore grafico nuovo di pacca chiamato Dunia Engine, quest’ultimo sia (appunto però solo per il 2/3 %) costruito sulla solida base del vecchio CryEngine 1.0 sviluppato da Crytek, la cui seconda versione è proprio quella che sta alla base dei due Crysis.
Sviluppati con una dedizione davvero lodevole da parte del team di Ubisoft Montreal (rimasto impegnato con questo progetto almeno dal 2005 fino al 2008), Far Cry 2 e il suo Dunia Engine hanno già avuto modo di rendere entusiasti molti giocatori, per il semplice fatto che, non avendo la resa visiva quasi nulla da invidiare a quella offerta dai vari Crysis, Far Cry 2 riesca comunque a girare in maniera appagante indifferentemente su sistemi Nvidia come su sistemi ATI (nonostante sia stato sviluppato con schede GeForce e ottimizzato per l’uso con queste ultime).
Un titolo tanto atteso e promettente come Far Cry 2 non poteva non essere dotato in partenza di un comodo e ben congegnato tool di benchmark interno. Inoltre anche Far Cry 2, come i vari Crysis e come altri giochi, supporta indistintamente librerie grafiche DirectX 9 e DirectX 10, ma a differenza dello stesso Crysis Warhead (o del primo Crysis), esse sono selezionabili direttamente nelle opzioni grafiche interne del gioco.
Il benchmark tool di Far Cry 2 offre in totale quattro differenti tipi di test, rispettivamente tre in puro “stile bench”, e l’ultimo in “stile demo”, nel senso che registra le prestazioni di una sessione di gioco standard in tempo reale giocata dal PC, il che è molto utile per farsi un’idea ben precisa di come girerà il gioco quando lo proveremo in prima persona. Noi abbiamo deciso di effettuare il secondo bench, che dei primi tre è quello dalla durata “media”, dunque il giusto compromesso per ottenere una misurazione certosina quanto basta.
Clicca per ingrandire
Come è possibile vedere dai grafici, ancora una volta la 9800GT ha la meglio sulle avversarie; nei test, ove sono state utilizzate API DirectX 9, la scheda NVIDIA riesce ad ottenere generalmente risultati di molto superiori alle proposte ATI. Con l’utilizzo invece delle DirectX 10, i test risultano molto più allineati con differenze nell’ordine di pochi FPS.
All’interno della confezione, insieme al CD di installazione, sono presenti vari software in bundle. Tra questi vi vogliamo segnalare il programma Asus SmartDoctor, molto utile per monitorare le temperature della GPU e per aumentare le frequenze di funzionamento della nostra scheda video. Tra le altre caratteristiche, il programma permette anche di agire sulla velocità di rotazione della ventola in base alle nostre esigenze.
Abbiamo deciso di testare la EN9800GT anche sotto overclock, date la presenza del dissipatore Glaciator e di altri accorgimenti tecnici che dovrebbero permettere un raggiungimento di frequenze più elevate senza molti problemi. Per l’overclock della scheda abbiamo utilizzato il software RivaTuner, utile anche per controllare in ogni momento le temperature della GPU. Come vedrete dai screen successivi, siamo riusciti a raggiungere frequenze per GPU/Shader/Memorie rispettivamente di 750/1630/1000 senza riscontrare artefatti o problemi grafici. Inoltre fa piacere constatare che la ventola rimane silenziosissima, nonostante un innalzamento delle temperature di circa 7-8°C, in quanto essa gestisce automaticamente (essendo termocontrollata) la velocità di rotazione da un minimo di 1400RPM ad un massimo di 2200RPM.
Asus GeForce 9800GT @ Default
Asus GeForce 9800GT OC (756/1620/2000MHz)
Come è possibile vedere dal grafico, utilizzando il Crysis Warhead Benchmark siamo riusciti ad ottenere un miglioramento prestazionale di circa 3 FPS con le frequenze specificate sopra, il che comunque ovviamente costituisce un dato da prendere con le pinze (di acciaio!) poiché, lo sapete meglio di noi, è sempre tutto relativo agli altri componenti presenti nel PC (processore primo fra tutti).
E ad ogni modo, il miglioramento raggiunto con l’overclock non è tale da giustificare il ricorso ad esso; anzi, tanto varrebbe aggiungere un’altra 9800GT e realizzare così un conveniente SLI.
In sé e per sé la GeForce 9800GT, lo avrete capito, è una semplice 8800GT con qualche leggerissimo miglioramento. Orbene, ciò detto, la versione che propone Asus risulta molto azzeccata, sicuramente più di una soluzione “reference”; nonostante infatti (lo ribadiamo) la 9800GT non sia altro che un re-brand della vecchia 8800GT, Asus grazie alla sua “Edizione Speciale” è riuscita a tirar fuori un modello dalle buone prestazioni, soprattutto in relazione alla fascia di prezzo per la quale è stato pensato. Il Glaciator, il dissipatore montato su questa scheda, oltre a dare un tocco di originalità in più, permette di raggiungere frequenze di funzionamento maggiori senza pregiudicare la stabilità della scheda stessa, garantendone quindi anche una certa longevità nel tempo.
Il bundle in dotazione risulta nella norma, in perfetto stile Asus (impeccabile sotto questo punto di vista). Il prezzo , di circa 130€, è azzeccato in quanto sono davvero poche le proposte, per quella fascia di prezzo, che possono competerle oggi come oggi.