¿Importa tanto la VRAM en comparación con DLSS/FSR?

charlesmarri

Desde que me dio por volver a meterme en el mundillo del hardware, llevo leyendo y viendo análisis de cómo ha avanzado todo esto en los últimos 10 años. Y he llegado a un par de conclusiones: entre ellas que los precios están disparatadamente altos, que la VRAM importa y que, seguramente, el futuro del gaming lleve de la mano técnicas de reescalado como DLSS y FSR.

Después de la salida de Starfield y de ver cómo los juegos cada vez más solicitan un hardware demandante (no entro en motivos de optimización, sino en el hecho en concreto y de cómo se repite con cada nuevo título), me he hecho la siguiente pregunta: ¿importa tanto la VRAM o es más necesario tener un buen sistema detrás del reescalado? Ya se diseña pensando en estas técnicas y, en mi opinión personal, con la IA aún "naciendo" considero que puede ser la vía perfecta para el futuro de los videojuegos en temas de implementación por los beneficios que tiene detrás.

Hasta aquí creo que estamos todos más o menos de acuerdo. Al igual que estamos de acuerdo en que NVIDIA ha racaneado en VRAM acortando su vida útil y que AMD hace fuerza bruta en este aspecto.

Pongamos la situación de que las personas no se compran las cosas para cambiarlas cada dos años, sino que las usan lo máximo posible hasta que un día, prácticamente son inservibles para su propósito. Ahora usemos a la 6800XT que tanta fama tiene como ejemplo versus la 4070. Buenas gráficas para 2K, con 16 y 12 de VRAM respectivamente. Ambas son, a día de hoy, hermanas en rendimiento:

Quiero creer que, en el supuesto caso de que no queremos cambiar equipo cada dos o tres años, dentro de cinco o seis, cuando una gráfica no rinda como debería la otra, por pura estadística, le sigue los pasos, FPS arriba, sombra de ultra a alta abajo. Y es aquí donde viene todo el tema de esta parrafada. Usemos esta comparativa de Hardware Unboxed sobre DLSS y FSR:

Claramente DLSS es superior en todos los aspectos, he llegado a leer que incluso define mejor los juegos que en nativo si asumes alguna fumada aleatoria que es imperceptible salvo que vayas buscando frame a frame el error. O si eres terriblemente puntilloso con algún que otro ligero ghosting del que tienes que estar pendiente, como quien tiene un pixel muerto en el monitor y no se da cuenta hasta que se lo dicen.

En base a esto y de cara al futuro... ¿Tiene tanto sentido la lucha por la VRAM frente a un mejor DLSS o un mejor FSR? Ya se está viendo que los juegos de UE5 son unos auténticos asesinos y que en muchos casos se va a tener que tirar de reescalado. ¿No tendría una vida últil más larga apostar por DLSS, que claramente es superior en calidad de imagen, a expensas de sacrificar menos VRAM a día de hoy, asumiendo esa pérdida de +-XFPs?

Si he soltado alguna barbaridad en términos de hardware, me lo perdonáis que desde la 970 me despreocupé de todo esto.

Abro debate.

Krosita

Una cosa bastante basica que estas obviando es que el poder subir el slider de texturas de bajo a ultra acaba resultando (normalmente) en un juego que se ve mucho mejor que lo que cualquier reescalado te pueda dar (a cambio de otras cosas).

Para mi raster y vram > cualquier implementacion de DLSS/FSR que haya por ahora.

1 respuesta
dvneil

estas mezclando la velocidad con el tocino

que es mas importante, tener la luna delantera bien limpita, o los neumaticos nuevos?

cada cosa sirve para algo totalmente diferente, vram, dlss upscaling, frame gen,

1 respuesta
charlesmarri

#2

Como he dicho, estoy un poco verde en todo esto. ¿Qué es raster?

#3

Sé que no tienen nada que ver, pero en un futuro esa pérdida de VRAM que te haga bajar en nativo texturas de ultra a alta, por ejemplo, se podría mantener con el DLSS y no tocar ningún ajuste por el reescalado, ¿no? Actualmente tengo un i7 4790 y una 970 y con el FSR 2 puedo jugar con todo en alto al Hogwarts Legacy, cosa que en nativo es impensable.

2 respuestas
dvneil

vram sirve para almacenar texturas, te permite meter mods de texturas de mas alta resolucion sin sufrir perdida de rendimiento drastica cuando se llena la vram y hay que tirar de ram para volver a meter texturas nuevas en ella,

eso se aplica tanto a texturas de mas resolucion, como aumento de resolucion que tambien utiliza mas ram,etc

dlss upscaling no libera ram, algo si pues baja la resolucion de renderizado, pero muy poco,

y dlss frame gen, no libera ram de ninguna manera, si tienes bajones a 1 fps por llenado de vram, con frame gen tendras 2 fps. y si ni cargan las texturas, 2 fps con texturas planas por no cargar.

#4 hogwarts legacy no lo puedes jugar en texturas ultra ni gpus de 8gb, no solo porque da tirones, sino porque no cargan las texturas en el juego, LITERAL,
dlss no soluciona eso, es tu efecto placebo por desconocer lo que significa cada cosa, que crees lo que crees.

aparte que texturas ultra puede aportarte un detalle que dlss ni upscaling, ni frame gen generan, son cosas distintas.

1
B

La cosa es que la grafica podria quedar “obsoleta” antes por vram que por rendimiento.

Y que gastarte un pastizal para que ya hoy en dia tengas que poner texturas a 4gb en lugar de 8gb, sombras alto en vez de ultra, etc, etc
Pues si mañana sale un juego nuevo que chupa vram como un demonio, o una nueva tecnologia, o que simplemente quieres asegurarte de jugar a 4k o 6k /8k sin tirones (en juegos que te lo permitan, seguro q muchos me tiran a 6k120fps o mas, y si, hablo de DSR, claro) te quedas en la liga de segunda.

Has escrito este post 3 minutos despues de mi comentario en el hilo upscaling 240p? Increible sincronizacion

Es como dicen. Tienes una 3080/ 4070 y tienes un ferrari pero lleva ruedas de moto. Corres, pero no te pases.

1
Educa

#4 ¿A que resolución y framerate? es meramente por curiosidad.

TRON

No tengo ni pajolera idea de muchas cosas y a lo mejor soy yo que estoy chapado a la antigua. Pero si me monto un PC de gama alta y luego para poder jugar a juegos en "4K" tengo que ponerme DLSS/FSR, y además las nuevas versiones también van a "dar" más fps, bajo mi punto de vista es que algo no se está haciendo bien, porque los PCs no están a la altura de lo que se espera de ellos.

Prefiero seguir jugando a 1080p/1440p a más Hz que estar batallando mediante software para poder mantener 4K.

1 1 respuesta
B

#8 con raytracing ON es la unica manera de obtener 120fps salvo q tengas 4090
Una 3080 no llega a 120 RT QHD en ciberpunk ni yo q se re4. De forma estable, no.
Si no tuviera raytracing solo querria DLSS para antialiasing. Que no se si DLaA o algo asi lo hace mejor q DLSS.

1 respuesta
TRON

#9 RT también es una tecnología que no entiendo, considero que su implementación ha sido demasiado rápida y pronto. Puede hacer que un juego se vea espectacular sí, pero lo que pide lo veo muy descompensado y el hardware no está a la altura. Como pasa con la carrera de resoluciones.

Me recuerda a la batalla de megapíxels de las mirrorless, una simple batalla entre compañías que a efectos reales era completamente innecesaria.

1 1 respuesta
B

#10 para nada. Si te sobra rendimiento en 4k y tus juegos ya llegan a la maxima tasa de refresco de tu tv o monitor, activarlo te dara mejor calidad visual. Nadie te obliga a usarlo si te falta rendimiento, pero si te sobra… esta bien tener algo donde derrochar ese rendimiento

Mi techo es 120. Y uso bfi para tener “352fps”
Llego a 120RT con una 4070 ti QHD en bastantes juegos.

1 respuesta
pJ_KoKo

#11 Hace 6 horas dices que te irás a comprar la 4070ti en que quiten lo del OW2

https://www.mediavida.com/foro/hard-soft/hilo-general-gpus-taberna-pathtracing-upscale-240p-701105/37#1088

Ahora dices que vas con una 4070ti a 120fps en un copón de juegos en qué quedamos macho?

Ontopic: Yo prefiero tirar de nativo, será que las veces que usé dlss 1 o ahora con fsr2 se ve todo cómo el ojaldre.

1 respuesta
B

#12 bueno eso el no lo sabe. Y no creo que hiciera falta. Acabo de comprar una 4070 ti. Y se que mi 3080 casi llega. Le falta un poquito. Asi que… la 4070 ti llega.

Asgaya

#1 La pregunta es la de toda la vida de que si ATI o Nvidia no? Pues como persona que lleva 23 años trasteando con esto y que siempre ha intentado que no le coman la neura de los graficos (grafica de unos 400€ para jugar en custom ultra/alto con tweaks pero que si hay que bajar a medio se baja, y me gusta un buen rendimiento) te diria que esta gen de Nvidia la evitaras a toda costa, y a ATI la evitaras a toda costa, o no. Te la puedes jugar y nos cuentas. Agradeceria una opinion como la tuya que se que eres coherente y nada personaje, y en las voces cantantes de este foro es algo bastante necesitado ultimamente.

Pero vamos, o la cosa cambia con el TXAA o me rio del "nativo" del que se habla ahora como si estuvieramos en los tiempos del MSAA y compañia. Tengo esperanzas en el DLAA. Aparte del subidon de fluidez con el DLSS, la calidad de la ultima version de DLSS es de brujeria. El FG es tema completamente aparte y que de momento lo veo en hiperpañales. Ni con un palo. Motivos para gen 4000 de Nvidia hay 0.

Mi consejo para que te pudieras decidir y comprobarlo tu mismo (y conociendote te harias pajas de sangre con el DLSS) es que te pillaras una serie 3000 barata (menos de 300-250 euros) hasta la next gen de Nvidia. Aunque con ese procesador... esperate y cambialo todo.

1 respuesta
Overwatch

#14 Ati desapareció en 2006 xD

Te lo comento porque si a alguien joven le hablas de ati probablemente no sepa que es.

Yo solo diré que me compré una 3080 de salida y de vram ya se queda corta y en muchos juegos las texturas tienen que estar en medio o alto como máximo.
Y es una putada que el dlss 3.0 no funcione en las 3000 y solo en la nueva generación, si fuera una tarjeta muy antigua lo entendería.

1 1 respuesta
Asgaya

#15 El FG para ellos, no puedo con el input lag. Yo voy con una 3060ti tambien desde su salida y joder que me esta durando mas de lo que pensaba. No tengo ningun problema con ella. Supongo que tendra que ver las necesidades de fps de cada uno. En que juegos no puedes poner las texturas en ultra? No usas DLSS supongo.

Y que no es lo mismo 8/10 GB de VRAM en 2020 que ahora 12 GB en la 4070, es de locos. Y los precios, y todo. Esta gen ha sido la comidilla por lo pesima que ha sido, recordar esto tambien es importante.

La peor gen de graficas y la peor "generacion" de optimizaciones de juegos. Tenemos ganado el cielo.

1 respuesta
alb3rtpr0

#16 Yo también voy con una RTX 3060 Ti y es que siento que no la he amortizado 😂. Me quedo con ella hasta una hipotética 5070. Lo que sí tengo que actualizar es el microprocesador.

En qué juegos has tenido problemas de VRAM? Yo que haya probado solamente la demo de forspoken y total es un juego bastante meh.

1 respuesta
dvneil

#17 no la has amortizado y ya estas pensando en cambiar en la siguiente gen. olee, nvidia tiene que estar contenta

1 respuesta
alb3rtpr0

#18 Cada uno actualiza sus gráficas cuando le da la gana. A mí me duran 2 generaciones.

1 respuesta
DiSoRDeR

Nadie tiene una bola de cristal, así que hay que guiarse por el sentido común.

A mí cuando salió la 3080 con 10GB me dió mala espina, ni te cuento cuando se anunció la 4070 sólo con 12, considerando que mi 1070 tenía 8. Cuando salió Hogwarts Legacy y otros títulos y empezaron a confirmarse mis temores porque llenaban 10GB de VRAM me pregunté, ¿si ya estamos así qué va a pasar en 3-4 años, con PS5 pro además llegando quizá en un año?

Mi opinión es clara, los desarrolladores no se van a cortar porque jugadores de PC han comprado tarjetas de 10-12GB. Van a hacer juegos con mejores texturas porque quieren que luzcan mejor que los juegos de 2016 o de 2020, y porque se van a seguir lanzando tarjetas que van a tener 16GB o más, por tanto el que tenga 12 va a tener que bajar las texturas o comprarse una tarjeta nueva. Y lo peor de todo es que creo que esto último es exactamente lo que tiene nVIDIA minuciosamente planificado.

#19 si te sirve de consejo, yo antes tenía que hacer como tú, y desde que puedo comprarme equipos mejores, monto gráficas mejores, juego mejor y me dura el equipo 3 generaciones, con lo que además acabo ahorrando dinero.

1 1 respuesta
B

#20 gran vision. Por eso seguramente todo el q no tenga una AMD o una 3090/4080/4090 esta condenado a tener una mierda de VRAM.
Y ya he dicho q la 3090 la han diseñado monos y la vram se pone a 102-105. Cerquita del chip. Cerquira del backplate.

Estamos los jugadors de PC super jodidos?

Gracias Nvidia.
Ah! Se me olvidaba. Gracias por sacar una 4060 ti con 16gb! ¡¡Por solo 110euros mas!!
Te beso los pies Nvidia. Notese la ironia

Usuarios habituales