Punto informatico Network

Canali
20080829210947

GeForce Fx

16/06/2003
- A cura di
Hardware & Periferiche - Approfondita presentazione di questo chipset di nuova generazione: fotorealismo in arrivo?

Tag

Passa qui con il mouse e visualizza le istruzioni per utilizzare i tag!

geforce (1) .

Valutazione

  •  
Voto complessivo 5 calcolato su 175 voti
Il pezzo che stai leggendo è stato pubblicato oltre un anno fa. AvvisoLa trattazione seguente è piuttosto datata. Sebbene questo non implichi automaticamente che quanto descritto abbia perso di validità, non è da escludere che la situazione si sia evoluta nel frattempo. Raccomandiamo quantomeno di proseguire la lettura contestualizzando il tutto nel periodo in cui è stato proposto.

Scheda.JPGPresentato al Comdex di Las Vegas il novembre dell'anno scorso e ormai pronto alla commercializzazione, il nuovo processore grafico della NVIDIA offrirà molto più che una semplice scheda video, vi darà l'emozione della grafica 3D con effetti cinematografici...

La nuova generazione di processori grafici di cui fa capo quel NV30 di cui si è sentito tanto parlare, prenderà nome di GeForce FX. Il nome in parte apparentemente rinnovato deriva dalla fortunatissima serie GeForce (Geometric Force), che ebbe inizio con l'NV10 (il GeForce 256 per intenderci), e la sigla FX (Effects), che qualche nostalgico ricorderà in 3dfx i cui brevetti e marchi appartengono ormai a NVIDIA. Sebbene sia stato presentato un po' in ritardo rispetto ai prodotti della concorrenza, (vedi ATI 9700...) il nuovo chip è potenzialmente più evoluto rispetto alle specifiche a cui è tenuto dare supporto. In parole povere diciamo che questo chip è già pronto per sostenere le ipotetiche future DirectX10. Cosa lo rende così speciale? Principalmente l'adozione del formato FP32 (Floating Point a 32bit) su tutta la pipeline grafica, ma anche tecnologie innovative come la compressione del colore senza perdita di dati (lossless), le nuovissime e velocissime DDR2 (probabilmente la principale causa del ritardo nel rilascio del chipset) e una nuova implementazione dei parametri richiesti per gli Shaders, che spinge questo processore ben oltre alle specifiche delle DX9.0 (96bit) introducendo anche futuri standards come la profondità del colore a 128bit. Sembrerebbe uno spreco di colori visto che 16777216 tonalità di colore sono sufficienti, ma se pensate che nella realtà ci sono infinite colorazioni, con questo passo non facciamo altro che avvicinarci sempre più al fotorealismo

Esempio1.JPG

Difatti la vera e più importante novità introdotta nel GeForceFX è l'inedito utilizzo del formato FP32 per rappresentare tutti i dati che circolano all'interno della scheda, anche se preferenzialmente per i dati colore verrà usato l'FP16 e solo quando sarà espressamente richiesta una profondità di colore a 128bit verrà utilizzato il formato FP32. In quest'ultimo caso la qualità dell'immagine aumenta notevolmente a scapito però delle prestazioni generali.

Esempio2.JPG

Per evitare vari dilungamenti vi propongo una tabella che riassume le novità presenti nell'NV30 e mette a confronto le caratteristiche del nuovo processore con quelle della "vecchia" serie.

[bold]Specifiche Tecniche[/bold] [bold]GeForce 4 Ti[/bold] [bold]GeForce FX[/bold]
Processo produttivo 0,15 0,13
Numero di transistor 63 milioni 125 milioni
Frequenza del core 300 MHz 500 MHz
Frequenza memoria DDR 325 (650) MHz DDR II 500 (1000) MHz
Bus del chip grafico 256 bit 512 bit
Numero di pixel 4 8
Numero di Texture per clock 4 8
Numero di Texture per pixel 4 16
Fillrate teorico 1200 MegaPixel/Secondo 2400 MegaTexel/Secondo 4000 MegaPixel/Secondo 4000 MegaTexel/Secondo
Bandwidth memoria video 10,4 GB/sec 16 GB/sec
RamDAC 2x400 MHz 2x400MHz
Numero di operazioni al secondo 1,2 miliardi 5 miliardi
Numero di operazioni in FP al secondo 76 giga FLOPS totale 200 giga FLOPS (51 x Pixel Shaders)
Numero di poligoni al secondo 120 milioni 200 milioni
Antialiasing Filter 2x - QuincunxAA - 4x - 4xS 2x - QuincunxAA - 4x - 4xS - 6x - 6xS - 8x
Anisotropic Filter 8X (64tap) - Trilinear 16x (128tap) - Adaptive
AGP 4x (8X solo nella Ti 4800) 8x

I numeri parlano da soli Processore.JPG

Finalmente dopo 3 anni di bus a 256 bit e architettura a 4 pixel pipeline, NVIDIA si rinnova raddoppiando la portata sia del bus che della pipeline, scelta dovuta sicuramente alla grande mole di calcoli e dati che il chip deve sostenere. Il processo produttivo come si può vedere è sceso a 0,13 caratterizzato per l'utilizzo del rame (conducibilità elettrica maggiore, ma di lavorazione più complessa) al posto dell'alluminio sia nelle piste che nelle connessioni, portando così la frequenza del core a livelli molto elevati (60% in più rispetto al GeForce 4 Ti). Il numero di transistor invece è salito vertiginosamente superando addirittura più di due volte quelli contenuti in un Pentium 4.

Esempio5.JPG

Grandi novità anche per quanto riguarda gli Shaders engine e l'Antialiasing.

Il CineFX engine entra in scena rubando il posto al nFinite FX engine, assicurando pieno supporto ai Pixel e Vertex Shaders 2.0+ (il "+" indica che viene dato supporto anche alle versioni successive degli Shaders contenuti nelle future DirectX). Esempio4.JPG

Dopo aver lavorato a lungo sull'efficienza delle memoria, NVIDIA ora concentra i propri sforzi sulla qualità delle immagini, introducendo con questo nuovo engine una soluzione di calcolo ottimizzato fine al raggiungimento del fotorealismo in realtime.

Esempio3.JPG

Rinnovato anche il motore per l'Antialiasing, che da AccuviewAA engine passa a IntelliSample Tecnology aggiungendo ad esso nuove avanzate tecniche di filtering come l'Adaptive Texture Filtering e Dinamic Gamma Correction, riuscendo così a portare i filtri Antialiasing e Anisotropic a livelli molto elevati (8x AA e 16x Anisotropic). Fornendo addirittura maggiori performance con AntiAliasing attivato che non...

Esempio6.JPG

Con Lightspeed Memory Architecture rimane immutata la gestione delle memorie video garantendo ora più che mai, grazie alla nuova tecnica di compressione dei dati colore, una efficienza di banda fino a 4 volte superiore.

Non poteva mancare anche l'nViewII, che gestisce le uscite video della scheda.

NVIDIA ha già presentato 3 modelli delle schede, che ovviamente differiscono in prestazioni e conseguentemente nel prezzo...

[bold]SPECIFICHE DI PRESTAZIONI[/bold] [bold]GeForceFX 5800[/bold] [bold]GeForceFX 5600[/bold] [bold]GeForceFX 5200[/bold]
CineFX engine X X X
Intellisample Tecnology X X
nViewII X X X
DDR2 X
AGP 8x X X X
Memoria Video 128Mb 256Mb 128Mb
Poligoni al secondo 200 Milioni 88 Milioni 81 Milioni

Il GeForceFX 5800, modello di punta, è l'unico che per adesso presenta le DDR2 e tutte le nuove tecnologie citate prima, consentendogli infatti di superare la soglia dei 200 milioni di poligoni al secondo. A questi modelli si aggiungeranno poi le versioni Ultra che spingeranno un po' di più le frequenze di lavoro e incrementeranno memoria, per garantire così una scheda adatta a tutte le fasce economiche...

Tornando al GeForceFX 5800 (Ultra e non...), sarà anche l'unico (per adesso) a montare un esclusivo sistema di raffreddamento brevettato da NVIDIA stessa e denominato FXFlow, per garantire sempre una temperatura adeguata a tutti i componenti del chipset.

Scheda2.jpg

Una scelta necessaria dovuta alle altissime frequenze di lavoro del processore e delle memorie, che ne consegue un innalzamento della temperatura. Il sistema è composto da una piastra completamente in rame (capacità termoconduttive assai migliori dell'alluminio) che copre sia il chip che le memorie, e una piastra analoga ma posta dietro la scheda. Queste 2 piastre sono collegate tramite delle headpipes (tubi riempiti di liquido reffrigerante) a quello che potrebbe essere un vero e proprio radiatore (anch'esso in rame), il tutto racchiuso in un percorso di aria canalizzata prelevata dall'esterno che occupa tutto lo spazio del primo slot adiacente a quello AGP. In pratica l'aria viene prelevata dall'esterno, raffredda i componenti ed esce dal computer calda. Niente male, peccato per il livello di rumorosità del PC che sale notevolmente...

Dettaglioscheda.JPG

Dato il grande consumo di corrente da parte dei componenti del chipset e il basso voltaggio delle specifiche AGP3.0, NVIDIA ha voluto seguire la strada, già battuta dalla concorrenza, dell'alimentazione aggiuntiva per assicurare il corretto funzionamento di tutta la scheda, presentando quindi una presa di alimentazione diretta al trasformatore 5-12V del computer.

Bene, io delle buone motivazioni per comprare questo gioiello ve le ho date, poi decidete voi...

E se qualcuno mi fa la predica perché ATI 9800 pro va più veloce GeForceFX 5800 Ultra gli rispondo che da test effettuati risultano pressoché simili nelle performance globali.

Iscriviti gratuitamente alla newsletter, e ti segnaleremo settimanalmente tutti i nuovi contenuti pubblicati su MegaLab.it!

 

Segnala ad un amico

Tuo nome Tuo indirizzo e-mail (opzionale)
Invia a:
    Aggiungi indirizzo email
    Testo

    megalab.it: testata telematica quotidiana registrata al Tribunale di Cosenza n. 22/09 del 13.08.2009, editore Master New Media S.r.l.; © Copyright 2017 Master New Media S.r.l. a socio unico - P.I. 02947530784. GRUPPO EDIZIONI MASTER Spa Tutti i diritti sono riservati. Per la pubblicità: Master Advertising

    • Gen. pagina: 0.4 sec.
    •  | Utenti conn.: 101
    •  | Revisione 2.0.1
    •  | Numero query: 20
    •  | Tempo totale query: 0.22