ForceWare 53.03 vs FutureMark

TaMy

Pues, aqui: http://www.elitebastards.com/page.php?pageid=2647&head=1&comments=1 podeis ver como Nvidia pese a recivir las críticas de todos los lados por sus "optimizaciones" siguen con la política de no respetar los Benmarch en lo que se refiere a ganar framerate en estos a costa de IQ.

BeSaiD

Tamy, tan mal te cae nvidia? xD

Creo q debes estar esperando delante del monitor hasta q salga una noticia encontra de nvidia, siempre las pones tu xDDDD

DEspues de leer el texto, parece ser q con los 53.03 (q no son de nvidia, sino de una compañia de nvidia) han vuelto a introducir "cheats"

PEro lo q mas me sorprende es la diferencia q hay entre ps2.0 de la version whql y la 53.03

No sabia q existia un programa de ati vara ver las diferencias...Pero las diferencias son casi invisibles...

TaMy

Simplement me resulto curioso, y me cae mal pq por mal que me pese me compre dos de ellas y mi novia tiene una Ti 4200 y cada vez que le instalo los juegos (que tampoco es gran cosa lo que le gusta: Crazy Taxi, Virtual Tennis, Black & White y alguno más) tengo que "explicarle" pq en su pc( xp 1800 ) no se ven como en el mio...

BeSaiD

xDDD

Comprale una 9600 de aniversario xD

Y la 4200 me la envias a mi q yo sabre hacer algo con ella :D

TaMy

La idea es cojerme la siguiente ala 9800 xt (la R400 o algo asin) y darle mi 9800 pro.

aLeX

A mi me ha gustado mas el último patch para el Tomb Raider AOD.

"Eliminada la función benchmark a petición de nVidia".

Muheaheaheae, puta mierda Graphzilla (Chipzilla es Intel), intentan tapar con dinero sus meteduras de pata.

G

tamy si dejas a tu novia ya sabes en kien pensar

Urko

yo una 9600XT pa reyes !!!! ;)
y fuera drivers penosos :P

TaMy

Yo tambien te quiero mucho Gosub. :)

M

De drivers penosos na. Empeoran un pokitin la calidad de imagen a cambio de mejorar el rendimiento.. MM ke sera mejor jugar con mas fps o ke se me vea un pelin mejor ke a vosotros.. xD Ke kereis ke os diga yo prefiero mas fps. Ahora direis puto nvidero; pos voy a pillarme la r9600pro en breves.. xD pero no se xke os kejais de ke saken drivers "optimizaos" acaso no veis ke traen lo ke todo gamer desea, usease mas fps no? weno me raye Chau :D xD

Massive

Komo puede ser ke sake yo mas puntuacion ke la 5900 kon un 2500 :?

tengo un 1800 kon una 9700

TaMy

Mi opinión es:

Optimizaciones a costa de IQ? perfecto, pero opcionales...

Medir la calidad de un Hardware mediante la velocidad de los Benmarch?? perfecto...

Utilizar las optimizaciones que bajan IQ comparando Hardwares??? mmmhh... esta afirmación verdad que no tan perfecto???

Fair Play please... Optimizaciones de Nvidia opcionales en los Detonator YA!!!

JaCk0

Tamy no pueden hacer opcionales unas optimizaciones que a buenas y primeras mejoran demasiado los fps xD.

Eso pasa por tener una nVIDIA (By forofo 3DFX), que vas a conseguir? que te timen xD. A nivel sin optimizaciones y demas consigue que la FX5900ultra pueda competir con la R9600pro y calidad de imagen -1 (la diferencia es aplastante).

nVIDIA no puede hacer por software lo que no hace la gráfica por hardware.

jOK

Me dejais de piedra con lo hipócritas que podeis llegar a ser...

"ganar framerate en estos a costa de IQ"

"Optimizaciones a costa de IQ?"

Bájate las capturas sacadas de esa web y comparálas con el ACDSee, dime si tu ojo biónico percibe a simple vista cual es cual y donde estan las diferencias, luego dime si esa diferencia realmente es lo sufucientemente significativa como para desechar las optimizaciones y perder la cantidad de fps que se ganan con ellas. Al fin y al cabo nadie sospechó en ningun momento que los FW 52.16 reducian la IQ para ganar frames hasta que Futuremark sacó el parche 340, porqué las diferencias eran totalmente inperceptibles y nadie se dió cuenta.

"mi novia tiene una Ti 4200 y cada vez que le instalo los juegos (que tampoco es gran cosa lo que le gusta: Crazy Taxi, Virtual Tennis, Black & White y alguno más) tengo que "explicarle" pq en su pc( xp 1800 ) no se ven como en el mio..."

Como no, también culpa de NVIDIA y de sus drivers... si en ese PC los juegos se ven peor será porqué con una Ti 4200 no puedes meter el mismo nivel de detalle que puedes meterle a tu ordenador con una 9800 Pro. El PC de mi padre tenia una Warreon 7000 y está claro que con ella se no podia jugar al mismo detalle con el que jugaba yo con una GF3 Ti 200, y nunca le heché la culpa a ATi. Por cierto ¿De que ensamblador es esa tarjeta? (y no me digas que no tiene nada que ver...)

"y calidad de imagen -1 (la diferencia es aplastante)"

Me gustaria ver esas capturas aplastantes, envez de soltar tonterias podriais linkar alguna de vez en cuando...

saludos

MaRaNeLL0

A mi me hace gracia lo de IQ -1 , pero a ver , mirate screens , y si te fijas mucho veras diferencias , ahora bien , si estas jugando yo no me paro a ver si aqui tiene un bug o no , me dedico a jugar y punto y mucho de los errores del juego o de la targeta grafica ni los veo . Asi que me parece bien eso .

Forces

hombre deberia de ser opcional aunque yo elegiria la opcion +fps claramente prefiero que se vea horrible con tal de tener mas fps y jugar mejor :!

TaMy

Yo preferiria que se lo montara la targeta de cierta forma para que te diera exactamente los fps = a los Hz de pantalla, pero con la máxima IQ posible.

Yo sigo diciendo que no veremos reales diferencias de IQ asi como las hemos visto en 3DMark03 hasta que salgan títulos con un uso más extendido de las Shaders...

Usar el ShaderMark, es muy divertido. XD.

Repito de nuevo, no veo a las GF FX una mala targeta,... simplemente tienen un problema,... que existen las ATIs...

Y sigo viendo bien la gran cantidad de frames/s que consiguen con una perdida de IQ tan pequeña (actualmente) o sin perdida de IQ (hay juegos que han mejorado mucho viendose completamente igual), solo faltaria ver si esto sigue siendo asi cuando los juegos utilicen el DX9, más de lo que lo hace el HL2, pero claro en esos momentos ya no nos preocuparemos por las GF FX ni por las Raddy 9700/9800 ya que habran salido ambas nuevas gamas superiores que harán las cosas bien y que ojala Nvidia realice de otra forma...

Aparte que Nvidia tenga registros de 32 bits en lugar de 24 actualmente le entorpece, pero..., quien sabe si en un futuro consigue gracias a eso procesar mejor que las Ati el DX10... no es nada seguro NADA, pero actualmente para DX9 y a un corto plazo mientras el DX9 sigua siendo DX9 y no exista el 10 seguramente da más confianza tirar de Gráficos mediante Hard, que no mediante un Compilador de Soft. Simplemente eso. Aparte segun he podido ver según el tipo de shader las FX lo realizan mejor, o peor, o incluso, ni lo realizan, con lo que imagino que cuando se refiere a "reordenar instrucciones" se refiere a sea el Shader que sea transformarlo al "Shader" practicamente equivalente que mejor le vaya al Hard (aparte del tema de 16bits el cual parece ser que de momento se nota poco en IQ)...

Aparte cuando me refiero a IQ en juegos antiguos (B&W, Virtual Tennis, Crazy Taxy xDDD provadlos con la novia que aunque no le guste jugar seguramente estos le gustaran)... pues tengo comprobado que usar una targeta rápida (más de 10.000 puntos en 3DMark01 en juegos antiguos) parece ser un desperdicio no usar AA y Ansio... Con lo que me refiero al NIVEL de AA y Ansio alcanzable con esas targetas, y la 4200 pese a dar + d 10.000 puntos en 3DMark01 con AA y Ansio, pues, NO TIRA... y a eso me referia al decir el tema IQ en esos juegos.

kas

A mi lo que mas rabia me da es la mentira.

nvida: TU graphica NO es DX9.

y ya esta.

Y no kiero perder calidad graphica. Sea apreciable o no. I una cosa es una screen y la otra star jugando...

Usuarios habituales