Canali
![]() Ultime news
![]() Ultimi articoli
![]() Le ultime dal Forum |
![]() Correlati
Fino ad ora i due principali concorrenti di NVIDIA, ATI e 3dfx, hanno puntato molto sulla raffinatezza dei loro chip dotandoli di tecnologie molto complicate per l'introduzione o il supporto direttamente via hardware di alcuni effetti grafici impegnativi (lodevoli l'effetto di FSAA del Voodoo5 e le varie tecniche del Radeon come il notevole Hyper Z), e per superarle il GeForce 2 ha dovuto puntare molto sulla pura potenza di calcolo e sull'ottimizzazione dei drivers, offrendo prestazioni elevatissime con qualsiasi software in circolazione; questa volta però sembra che NVIDIA abbia scelto la strada opposta. I dettagli tecnici GeForce 3 mi hanno stupito molto. Mi aspettavo che NVIDIA proseguisse nella stessa direzione che l'ha portata al successo aumentando la "forza bruta" della sua creatura, come aveva già fatto dal GeForce al GeForce 2, portandola a cifre astronomiche. Invece le mie previsioni erano sbagliate (lo ammetto, ogni tanto sbaglio anch'io: -)). I dettagli del nuovo chip sono senz'altro molto buoni, ma non rappresentano un grossissimo passo in avanti rispetto GeForce 2, in particolare nella sua versione Ultra, che in alcune cose, come nella frequenza del core interno (250 MHz) è addirittura superiore. Eccovi quindi una piccola scheda comparativa dei principali chip grafici nei dettagli puramente numerici:
Altre caratteristiche del GeForce 3 -57 milioni di transistor (più di un microprocessore!) -800 miliardi di operazioni al secondo -76 miliardi di operazioni in virgola mobile al secondo -RAMDAC: 350 MHz -Limite massimo di memoria video supportata: 128 MB -Supporto totale ad AGP 2x/4x -Risoluzione massima supportata: 2048x1536 con un refresh di 75 Hz -Anistropic Filtering a 16 e 32 bit -Supporto a textures volumetriche -Supporto a Projective Textures -Supporto al bump mapping -Supporto a tecniche di compressione textures: S3TC, DXTC -Supporto al FSAA (SuperSampling, Multisampling, Quincux HRAA) -Supporto al Cubic Environment Mapping -Supporto al Vertex Shaders -Supporto al Pixel Shaders -Supporto a 3d Textures -Supporto al Particle System -Implementate tecniche per il risparmio di bandwitch della memoria (LightSpeed Memory Architecture) -Pieno supporto a DirectX 8 e OpenGl 1.2 Come potete vedere di dati molto alti non ne mancano, basta per esempio guardare il Polygon Rate o il numero di transistor (57 milioni? Credo che oltre che come scheda video si potrà usare anche come forno..), ma il bello viene dopo, e cioè quando incominciamo a parlare degli effetti supportati che ora analizzeremo al dettaglio. I termini più complessi sono riportati nel glossario qui a destra.
L'innovazione più importante di questo GeForce 3 è di sicuro il cosiddetto "NfiniteFX Engine", il cui nome già da solo spiega il suo scopo: fino ad ora i programmatori di software hanno avuto a disposizione sempre gli stessi effetti grafici prestabiliti supportati dai chip in commercio, per questo nello sviluppo sono sempre dovuti restare vincolati agli hardware in circolazione e alle API impiegate (tipo le DirectX). L'idea di NVIDIA è quella di eliminare questo sbarramento offrendo ad ogni programmatore la capacità di creare effetti grafici completamente originali a seconda dell'esigenza. Le due feature che rendono possibile questa sorprendente idea sono i Vertex Shaders e i Pixel Shaders. Vertex ShadersUn "vertex" è il vertice di un poligono in una scena 3d; ad esso si possono abbinare diversi parametri che possono andare dalle semplici coordinate spaziali X, Y e Z alla sua colorazione e alle sue caratteristiche di trasparenza, ombreggiatura e fogging fino alle informazioni riguardanti il posizionamento delle textures sul poligono in questione (i parametri S, T, Q, R). Un Vertex Shader si occupa di gestire tutte queste informazioni e applicare alcune modifiche prestabilite dal programmatore in modo da modificare la forma, la colorazione, l'illuminazione e molto altro di un oggetto secondo i parametri sopracitati. Le applicazioni dei Vertex Shader sono ancora tutte da scoprire ma vi consiglio di fare almeno un salto sul sito di NVIDIA e ammirare alcune delle potenzialità che questi offrono: gli effetti di animazione e morphing facciali sono qualcosa di veramente incredibile e combinati con effetti già esistenti come il Cubic Environment Mapping delle DirectX 7 o il Bump Mapping si ottengono risultati sbalorditivi. Pixel ShadersForse qualcuno si ricorda di una feature dei chip GeForce2 chiamata NSR; essa permetteva di mescolare la colorazione di un pixel data la sua illuminazione con quella di due textures che lo ricoprivano, ma fu poco usata a causa del basso numero di textures impiegabili che rendevano difficile l'impiego di alcuni effetti recenti. Il Pixel Shaders è una specie di evoluzione naturale di questa tecnica ma porta il limite di textures a quattro. Le applicazioni di questa tecnica sembrano essere molto ampie soprattutto nell'ambito del Bump Mapping e dell'ombreggiatura delle superfici, anche se alcuni programmatori di giochi hanno già espresso qualche dubbio a riguardo che ci fa pensare a un utilizzo minore rispetto ai Vertex Shaders. High Order SurfaceUna caratteristica parecchio interessante dei chip GeForce3 è il supporto alle superfici curve. Un'immagine tridimensionale infatti fino ad ora veniva calcolata sulla base di triangoli che rendevano impossibile la creazione di oggetti perfettamente curvi, e che erano calcolati con espressioni di polinomi di primo grado. L'innovazione apportata da NVIDIA invece è stata quella di supportare calcoli con polinomi fino al terzo grado, con cui è possibile scrivere formule di curve anche molto complesse. La curva così ricavata verrà poi trasformata in un insieme molto fitto di triangoli a cui verrà applicato il normale rendering della texture, guadagnando una maggiore precisione e una minore occupazione della memoria grazie alla maggiore semplicità dei calcoli. In queste poche righe ho descritto le caratteristiche che decideranno se il chip GeForce3 sarà il nuovo termine di paragone in fatto di grafica o un mezzo fiasco: riuscirà l'hardware a reggere tutti questi effetti dalla notevole complessità senza subire un drastico calo di prestazioni? siamo sicuramente di fronte ad un prodotto molto innovativo e dalle grandi potenzialità, ma questo non è altro che un punto di partenza: tutte le sue caratteristiche non verranno sfruttate completamente se non tra almeno un anno e ponderare per un suo acquisto nelle condizioni attuali non è una decisione saggia. Una GeForce2 Ultra o un Radeon SE hanno le stesse prestazioni con i programmi in circolazione ad un prezzo molto minore e non rischiamo di andare incontro ai soliti bug o incompatibilità destinati (anche se raramente) ai pionieri di un nuovo prodotto. Per ora aspettiamo e tra qualche mese (io dico agosto, non prima) sapremo se davvero il GeForce3 può veramente darci quello che ha promesso. ![]() GeForce 3 Segnala ad un amico |
© Copyright 2025 BlazeMedia srl - P. IVA 14742231005