Canali
![]() Ultime news
![]() Ultimi articoli
![]() Le ultime dal Forum |
![]() Correlati
Il pezzo che stai leggendo è stato pubblicato oltre un anno fa.
![]()
La nuova generazione di processori grafici di cui fa capo quel NV30 di cui si è sentito tanto parlare, prenderà nome di GeForce FX. Il nome in parte apparentemente rinnovato deriva dalla fortunatissima serie GeForce (Geometric Force), che ebbe inizio con l'NV10 (il GeForce 256 per intenderci), e la sigla FX (Effects), che qualche nostalgico ricorderà in 3dfx i cui brevetti e marchi appartengono ormai a NVIDIA. Sebbene sia stato presentato un po' in ritardo rispetto ai prodotti della concorrenza, (vedi ATI 9700...) il nuovo chip è potenzialmente più evoluto rispetto alle specifiche a cui è tenuto dare supporto. In parole povere diciamo che questo chip è già pronto per sostenere le ipotetiche future DirectX10. Cosa lo rende così speciale? Principalmente l'adozione del formato FP32 (Floating Point a 32bit) su tutta la pipeline grafica, ma anche tecnologie innovative come la compressione del colore senza perdita di dati (lossless), le nuovissime e velocissime DDR2 (probabilmente la principale causa del ritardo nel rilascio del chipset) e una nuova implementazione dei parametri richiesti per gli Shaders, che spinge questo processore ben oltre alle specifiche delle DX9.0 (96bit) introducendo anche futuri standards come la profondità del colore a 128bit. Sembrerebbe uno spreco di colori visto che 16777216 tonalità di colore sono sufficienti, ma se pensate che nella realtà ci sono infinite colorazioni, con questo passo non facciamo altro che avvicinarci sempre più al fotorealismo Difatti la vera e più importante novità introdotta nel GeForceFX è l'inedito utilizzo del formato FP32 per rappresentare tutti i dati che circolano all'interno della scheda, anche se preferenzialmente per i dati colore verrà usato l'FP16 e solo quando sarà espressamente richiesta una profondità di colore a 128bit verrà utilizzato il formato FP32. In quest'ultimo caso la qualità dell'immagine aumenta notevolmente a scapito però delle prestazioni generali. Per evitare vari dilungamenti vi propongo una tabella che riassume le novità presenti nell'NV30 e mette a confronto le caratteristiche del nuovo processore con quelle della "vecchia" serie.
I numeri parlano da soli Finalmente dopo 3 anni di bus a 256 bit e architettura a 4 pixel pipeline, NVIDIA si rinnova raddoppiando la portata sia del bus che della pipeline, scelta dovuta sicuramente alla grande mole di calcoli e dati che il chip deve sostenere. Il processo produttivo come si può vedere è sceso a 0,13 caratterizzato per l'utilizzo del rame (conducibilità elettrica maggiore, ma di lavorazione più complessa) al posto dell'alluminio sia nelle piste che nelle connessioni, portando così la frequenza del core a livelli molto elevati (60% in più rispetto al GeForce 4 Ti). Il numero di transistor invece è salito vertiginosamente superando addirittura più di due volte quelli contenuti in un Pentium 4. Grandi novità anche per quanto riguarda gli Shaders engine e l'Antialiasing. Il CineFX engine entra in scena rubando il posto al nFinite FX engine, assicurando pieno supporto ai Pixel e Vertex Shaders 2.0+ (il "+" indica che viene dato supporto anche alle versioni successive degli Shaders contenuti nelle future DirectX). Dopo aver lavorato a lungo sull'efficienza delle memoria, NVIDIA ora concentra i propri sforzi sulla qualità delle immagini, introducendo con questo nuovo engine una soluzione di calcolo ottimizzato fine al raggiungimento del fotorealismo in realtime. Rinnovato anche il motore per l'Antialiasing, che da AccuviewAA engine passa a IntelliSample Tecnology aggiungendo ad esso nuove avanzate tecniche di filtering come l'Adaptive Texture Filtering e Dinamic Gamma Correction, riuscendo così a portare i filtri Antialiasing e Anisotropic a livelli molto elevati (8x AA e 16x Anisotropic). Fornendo addirittura maggiori performance con AntiAliasing attivato che non... Con Lightspeed Memory Architecture rimane immutata la gestione delle memorie video garantendo ora più che mai, grazie alla nuova tecnica di compressione dei dati colore, una efficienza di banda fino a 4 volte superiore. Non poteva mancare anche l'nViewII, che gestisce le uscite video della scheda. NVIDIA ha già presentato 3 modelli delle schede, che ovviamente differiscono in prestazioni e conseguentemente nel prezzo...
Il GeForceFX 5800, modello di punta, è l'unico che per adesso presenta le DDR2 e tutte le nuove tecnologie citate prima, consentendogli infatti di superare la soglia dei 200 milioni di poligoni al secondo. A questi modelli si aggiungeranno poi le versioni Ultra che spingeranno un po' di più le frequenze di lavoro e incrementeranno memoria, per garantire così una scheda adatta a tutte le fasce economiche... Tornando al GeForceFX 5800 (Ultra e non...), sarà anche l'unico (per adesso) a montare un esclusivo sistema di raffreddamento brevettato da NVIDIA stessa e denominato FXFlow, per garantire sempre una temperatura adeguata a tutti i componenti del chipset. Una scelta necessaria dovuta alle altissime frequenze di lavoro del processore e delle memorie, che ne consegue un innalzamento della temperatura. Il sistema è composto da una piastra completamente in rame (capacità termoconduttive assai migliori dell'alluminio) che copre sia il chip che le memorie, e una piastra analoga ma posta dietro la scheda. Queste 2 piastre sono collegate tramite delle headpipes (tubi riempiti di liquido reffrigerante) a quello che potrebbe essere un vero e proprio radiatore (anch'esso in rame), il tutto racchiuso in un percorso di aria canalizzata prelevata dall'esterno che occupa tutto lo spazio del primo slot adiacente a quello AGP. In pratica l'aria viene prelevata dall'esterno, raffredda i componenti ed esce dal computer calda. Niente male, peccato per il livello di rumorosità del PC che sale notevolmente... Dato il grande consumo di corrente da parte dei componenti del chipset e il basso voltaggio delle specifiche AGP3.0, NVIDIA ha voluto seguire la strada, già battuta dalla concorrenza, dell'alimentazione aggiuntiva per assicurare il corretto funzionamento di tutta la scheda, presentando quindi una presa di alimentazione diretta al trasformatore 5-12V del computer. Bene, io delle buone motivazioni per comprare questo gioiello ve le ho date, poi decidete voi... E se qualcuno mi fa la predica perché ATI 9800 pro va più veloce GeForceFX 5800 Ultra gli rispondo che da test effettuati risultano pressoché simili nelle performance globali. Segnala ad un amico |
© Copyright 2025 BlazeMedia srl - P. IVA 14742231005