MegaLab.it
Stampa Articolo
Aperiodico gratuito di informatica
 
20080829205639

GeForce 3

a cura di Peso
16/06/2001 - articolo
Hardware & Periferiche - Ecco a voi il novo chipset di NVIDIA! Presentazione tecnica dettagliata e osservazioni.

C'era una volta CGA.. Bei tempi quando giocavo con mio fratello a Monkey Island ed era come non avere lo schermo da quanto la grafica faceva pena.. Quanti ricordi.. Ok, scusate i sentimentalismi, ma non sono riuscito a trattenermi, ora cominciamo con l'articolo.

Ogni volta che esce una nuova scheda o un nuovo chip per la grafica non posso fare a meno di pensare a quanti progressi in questa direzione siano stati fatti negli ultimi anni e quanto questi abbiano radicalmente cambiato la configurazione di ogni computer. C'era una volta il 199x, e 3dfx proponeva un simpatico accessorio che avrebbe cambiato il modo di concepire le potenzialità di un PC: un acceleratore 3D, ovvero un chipset che lavora in parallelo con la scheda video per calcolare direttamente via hardware gli oggetti tridimensionali presenti nella scena dell'applicazione 3d. Detto così non sembra un gran che, ma chi ha seguito il panorama informatico e soprattutto videoludico di quel periodo, saprà a quali colossali cambiamenti portò questo passaggio tra elaborazione via software e elaborazione via hardware dell'immagine. Se prima gli unici requisiti che venivano richiesti in una scheda video erano solo il supporto ai 16 milioni di colori e che fosse riconosciuta dai programmi, da allora incominciarono ad entrare nel vocabolario di ogni appassionato parole come "poligoni", "textures", "memoria video" e molte altre che oggi sentiamo abitualmente e fu finalmente consentito ai programmatori di creare scene dal realismo sempre crescente.Sk.gif

Giorni nostri: ormai la scheda video è diventata per molti, me compreso, il componente più importante del computer, spesso ancora più del processore e RAM. Fin dal periodo appena descritto infuria una battaglia per la supremazia del mercato della grafica che ha visto concorrenti del calibro di 3dfx, Matrox, NVIDIA, ATI e molti altri produrre hardware semprepiù potenti per supportare le richieste in continua crescita dei produttori di software. Senza scendere troppo nei dettagli (per altro molto interessanti ma che ho paura vadano un po' fuori tema) di come si è evoluta la situazione in questi anni, vi basti sapere che 3dfx con i suoi chip Voodoo ha letteralmente dominato e imposto i suoi ritmi al mercato solo per essere messa in discussione circa due anni fa da NVIDIA, che ha prodotto articoli eccellenti come i chip TNT e TNT2 (la cui unica pecca è stata in un primo momento la scarsa compatibilità coi programmi), e, soprattutto, i famosi GeForce, GeForce2 e il prossimo GeForce3 che mi appresto a trattare, con i quali ha strappato il monopolio a 3dfx, fino ad acquistare completamente la rivale qualche mese fa. Unica concorrente sul fronte della produzione di chip resta quindi ATI con il suo ottimo Radeon, unico che riesce a stare dietro alla forza bruta del GeForce 2 grazie a finezze tecniche molto complesse e efficaci, ma penalizzato da driver non troppo efficaci o comunque non all'altezza dei famosi Detonator di NVIDIA, mentre altre case come Asus, Creative, Elsa e altre producono schede utilizzando il GeForce 2 in licenza.

Questa è la situazione attuale, e se volete un consiglio circa l'acquisto di una scheda video in questo momento io raccomanderei una scheda che sfrutti il Chip GeForce2 MX o una Radeon di ATI, se le vostre richieste sono limitate, oppure una GeForce2 Ultra o una Radeon di fascia alta se siete amanti dei giochi che fanno della grafica il loro punto di forza.

Passiamo ora all'analisi del nuovo chipset NVIDIA, vero oggetto dell'articolo.

Logo.gif Bene, ora che abbiamo chiarito per bene la situazione attuale credo sia il momento di passare a quello che in teoria dovrebbe essere il fulcro dell'articolo: il chip GeForce 3. Dopo quello che ho visto e letto posso dirvi con una certa sicurezza che questo potrebbe segnare una svolta di importanza comparabile all'uscita del primo Voodoo o del suo grandioso successore Voodoo 2, e ora vi illustrerò il perché.

Fino ad ora i due principali concorrenti di NVIDIA, ATI e 3dfx, hanno puntato molto sulla raffinatezza dei loro chip dotandoli di tecnologie molto complicate per l'introduzione o il supporto direttamente via hardware di alcuni effetti grafici impegnativi (lodevoli l'effetto di FSAA del Voodoo5 e le varie tecniche del Radeon come il notevole Hyper Z), e per superarle il GeForce 2 ha dovuto puntare molto sulla pura potenza di calcolo e sull'ottimizzazione dei drivers, offrendo prestazioni elevatissime con qualsiasi software in circolazione; questa volta però sembra che NVIDIA abbia scelto la strada opposta.

I dettagli tecnici GeForce 3 mi hanno stupito molto. Mi aspettavo che NVIDIA proseguisse nella stessa direzione che l'ha portata al successo aumentando la "forza bruta" della sua creatura, come aveva già fatto dal GeForce al GeForce 2, portandola a cifre astronomiche. Invece le mie previsioni erano sbagliate (lo ammetto, ogni tanto sbaglio anch'io: -)). I dettagli del nuovo chip sono senz'altro molto buoni, ma non rappresentano un grossissimo passo in avanti rispetto GeForce 2, in particolare nella sua versione Ultra, che in alcune cose, come nella frequenza del core interno (250 MHz) è addirittura superiore. Eccovi quindi una piccola scheda comparativa dei principali chip grafici nei dettagli puramente numerici:

Voodoo 5 5500 di 3dfxRadeon SE di ATIGeForce 2 Ultra di NVIDIAGeForce 3 di NVIDIA
Processo Produttivo0,25 micron 0,18 micron0,18 micron0,15 micron
Frequenza del Core166 MHz250 MHz250 MHz200 MHz
Tipo di memoriaDDRDDRDDR DDR anche di tipo SGRAM
Numero di Pipelines/Texture Units per Pipeline2/1 2/3 4/2 4/2
Ampiezza di banda della memoria 5,3 GB/sec7,3 GB/sec7,3 GB/sec7,3 GB/sec
Fill Rate: Mpixel/sec -Mtexel/sec667 - 667500 - 15001000 - 2000800 - 1600
Polygon Raten.a. 40 milioni di poligoni/sec31 milioni di poligoni/sec60 milioni di poligoni/sec

Altre caratteristiche del GeForce 3

-57 milioni di transistor (più di un microprocessore!)

-800 miliardi di operazioni al secondo

-76 miliardi di operazioni in virgola mobile al secondo

-RAMDAC: 350 MHz

Box.jpg

-Limite massimo di memoria video supportata: 128 MB

-Supporto totale ad AGP 2x/4x

-Risoluzione massima supportata: 2048x1536 con un refresh di 75 Hz

-Anistropic Filtering a 16 e 32 bit

-Supporto a textures volumetriche

-Supporto a Projective Textures

-Supporto al bump mapping

-Supporto a tecniche di compressione textures: S3TC, DXTC

-Supporto al FSAA (SuperSampling, Multisampling, Quincux HRAA)

-Supporto al Cubic Environment Mapping

-Supporto al Vertex Shaders

-Supporto al Pixel Shaders

-Supporto a 3d Textures

-Supporto al Particle System

-Implementate tecniche per il risparmio di bandwitch della memoria (LightSpeed Memory Architecture)

-Pieno supporto a DirectX 8 e OpenGl 1.2

Come potete vedere di dati molto alti non ne mancano, basta per esempio guardare il Polygon Rate o il numero di transistor (57 milioni? Credo che oltre che come scheda video si potrà usare anche come forno..), ma il bello viene dopo, e cioè quando incominciamo a parlare degli effetti supportati che ora analizzeremo al dettaglio. I termini più complessi sono riportati nel glossario qui a destra.

Gpu.gifSorvoliamo velocemente gli effetti più comuni e già supportati da molti altri chip, come il bump mapping, le textures volumetriche, le Projective Textures, il Cubic Environment Mapping e le tecniche per la compressione delle textures delle quali potete trovare una spiegazione nel dizionario e i miglioramenti meno innovativi, come l'Anistropic Filtering a 16 e 32 bit, precedentemente fruibile solo a 8 bit, o l'introduzione del FSAA Multisampling e Quincux HRAAA, che comporteranno comunque un ottimo aumento della qualità dell'immagine e passiamo a quelle che sono le features più interessanti.

L'innovazione più importante di questo GeForce 3 è di sicuro il cosiddetto "NfiniteFX Engine", il cui nome già da solo spiega il suo scopo: fino ad ora i programmatori di software hanno avuto a disposizione sempre gli stessi effetti grafici prestabiliti supportati dai chip in commercio, per questo nello sviluppo sono sempre dovuti restare vincolati agli hardware in circolazione e alle API impiegate (tipo le DirectX). L'idea di NVIDIA è quella di eliminare questo sbarramento offrendo ad ogni programmatore la capacità di creare effetti grafici completamente originali a seconda dell'esigenza. Le due feature che rendono possibile questa sorprendente idea sono i Vertex Shaders e i Pixel Shaders.

Vertex Shaders

Un "vertex" è il vertice di un poligono in una scena 3d; ad esso si possono abbinare diversi parametri che possono andare dalle semplici coordinate spaziali X, Y e Z alla sua colorazione e alle sue caratteristiche di trasparenza, ombreggiatura e fogging fino alle informazioni riguardanti il posizionamento delle textures sul poligono in questione (i parametri S, T, Q, R). Un Vertex Shader si occupa di gestire tutte queste informazioni e applicare alcune modifiche prestabilite dal programmatore in modo da modificare la forma, la colorazione, l'illuminazione e molto altro di un oggetto secondo i parametri sopracitati.

Le applicazioni dei Vertex Shader sono ancora tutte da scoprire ma vi consiglio di fare almeno un salto sul sito di NVIDIA e ammirare alcune delle potenzialità che questi offrono: gli effetti di animazione e morphing facciali sono qualcosa di veramente incredibile e combinati con effetti già esistenti come il Cubic Environment Mapping delle DirectX 7 o il Bump Mapping si ottengono risultati sbalorditivi.

Pixel Shaders

Forse qualcuno si ricorda di una feature dei chip GeForce2 chiamata NSR; essa permetteva di mescolare la colorazione di un pixel data la sua illuminazione con quella di due textures che lo ricoprivano, ma fu poco usata a causa del basso numero di textures impiegabili che rendevano difficile l'impiego di alcuni effetti recenti. Il Pixel Shaders è una specie di evoluzione naturale di questa tecnica ma porta il limite di textures a quattro. Le applicazioni di questa tecnica sembrano essere molto ampie soprattutto nell'ambito del Bump Mapping e dell'ombreggiatura delle superfici, anche se alcuni programmatori di giochi hanno già espresso qualche dubbio a riguardo che ci fa pensare a un utilizzo minore rispetto ai Vertex Shaders.

High Order Surface

Una caratteristica parecchio interessante dei chip GeForce3 è il supporto alle superfici curve. Un'immagine tridimensionale infatti fino ad ora veniva calcolata sulla base di triangoli che rendevano impossibile la creazione di oggetti perfettamente curvi, e che erano calcolati con espressioni di polinomi di primo grado. L'innovazione apportata da NVIDIA invece è stata quella di supportare calcoli con polinomi fino al terzo grado, con cui è possibile scrivere formule di curve anche molto complesse. La curva così ricavata verrà poi trasformata in un insieme molto fitto di triangoli a cui verrà applicato il normale rendering della texture, guadagnando una maggiore precisione e una minore occupazione della memoria grazie alla maggiore semplicità dei calcoli.

In queste poche righe ho descritto le caratteristiche che decideranno se il chip GeForce3 sarà il nuovo termine di paragone in fatto di grafica o un mezzo fiasco: riuscirà l'hardware a reggere tutti questi effetti dalla notevole complessità senza subire un drastico calo di prestazioni? siamo sicuramente di fronte ad un prodotto molto innovativo e dalle grandi potenzialità, ma questo non è altro che un punto di partenza: tutte le sue caratteristiche non verranno sfruttate completamente se non tra almeno un anno e ponderare per un suo acquisto nelle condizioni attuali non è una decisione saggia. Una GeForce2 Ultra o un Radeon SE hanno le stesse prestazioni con i programmi in circolazione ad un prezzo molto minore e non rischiamo di andare incontro ai soliti bug o incompatibilità destinati (anche se raramente) ai pionieri di un nuovo prodotto.

Per ora aspettiamo e tra qualche mese (io dico agosto, non prima) sapremo se davvero il GeForce3 può veramente darci quello che ha promesso.

MegaLab.it rispetta la tua privacy. Per esercitare i tuoi diritti scrivi a: privacy@megalab.it .

Copyright 2008 MegaLab.it - Tutti i diritti sono riservati