Hilo: Nvidia RTX 4000 "Ada Lovelace" (Rumores).

Ivan007valla

#150 Vamos a esperar a ver si salen más resultados, no voy a decir nada todavía :laughing:

B

#147

spoiler

En este juego dependiendo la foto esta complicado, además que hagas lo que hagas tiene un aura que emborrona todo, da igual que quites el DLSS, blur y el granulado, no se ve definido en el par de monitores que lo he probado. Además del propio ruido del RT, pero es que sin RT y MSAA sigue emborranadillo, no me gusta nada.

D10X

#147 Esas pruebas ya se han hecho mil veces en este foro, q me parece perfecto q lo notes poco o nada. Pero el DLSS no es gratis.

Pensar eso es no saber cómo funciona la tecnología, y te repito, ahí muchos modos de aplicar el DLSS.

No se puede hablar de optimización si estamos haciendo trampas para subir la resolución. El DLSS tapa una carencia, no la arregla.

¿Q es resultona? Por supuesto, y yo soy el primero en usarla. Pero no diria q un juego esta bien optimizado si para jugar con una 3090 tengo q meterle DLSS para llegar a una tasa fe fps aceptable.

Edit: Fijate q hace años, se criticaba a las consolas por usar reescalado y no dar salida a los 1080p nativos. Y hace mas años, se criticaba q el 1080i no era FullHD de verdad. Años mas tarde y una campaña de marketing brutal despues, ahora resulta q el DLSS viene a salvar al PC Gaming cuando eso lleva años existiendo y siempre se ha intentado tapar.

1 2 respuestas
B

#153 Ninguna consola ha tenido un reescalado al nivel del DLSS ni lo tienen, y claro que se criticaba, sobre todo porque te lo intentaban vender como resolución nativa y porque se llenaron la boca con el 1080p y posteriormente con el 4k cuando no llegaban ni en muchos casos se sigue llegando. Que ojo, el marketing de Nvidia y AMD también es cuestionable, bastante.

Fíjate, ahí esta PS5, que no tiene ni output de 1440p mientras juegos que han salido Day 1 como Demons van a 1440p en perfomance, o R&C que baja a 1080p también en dicho modo con RT. Pero eh, la etiqueta y toda la parafernalia de 4k la traen fuerte desde PS4 Pro, que era una consola que lo raro era que superase los 1440p reales.

Mismamente yo llevo pidiendo una alternativa del CBR desde que salió para PC y cualquier que haya jugado competitivo sabe que se utilizaban resoluciones fuera de la nativa para aumentar frames, los reescalados hipervitaminados o reconstrucción (como es en realidad el dlss) es una opción que nunca esta de más para llegar a ciertas resoluciones, frames o nivel de detalle que sin esta es imposible ni con el HW más top. Y sin DLSS ya había gente que estaba contentada con los sliders de resolución que más o menos hacían esta función en juegos de Ubisoft que tenían implementado en TAAU de la misma forma que había quien modificaba inis para utilizarlo en juegos sin soporte explicito.

Ivan007valla

#153 No sé como funciona el DLSS pero me pones el ejemplo del reescalado de las consolas que es un puto chiste malo al lado del DLSS. Pues vale tío.

Que yo sepa nvidia es una empresa que se dedica más al machine learning, inteligencia artificial y esas historias que es lo que es el DLSS, vamos, igualito que el slider de renderizar al 60% de resolución que lo único que hace es meter AA, que se vea borroso y que se conserve el tamaño de la GUI para no verlo gigante.

Te compro que no funciona igual de bien en todos los juegos. Y he empleado mal la palabra "optimizado", porque bien es cierto que si estuviese optimizado de verdad funcionaría sin DLSS, con RT y en 4k con cualquier máquina decente.

Pero es indiscutible que una 3060 pueda mover cyberpunk al mismo nivel de detalle con DLSS que una 3090 en nativo. Otra cosa es que vayas haciéndote pajas con los reflejos en los charcos, que obviamente hace aguas, pero son putos FPS gratis, es una solución, una forma de jugarlo a más frames sin coste y sin tener que comprarte una 3090.

para las imagenes de #147

Lo que corresponde a cada imagen
2 respuestas
B

#155 has tapado los FPS pero no el consumo y carga de memoria de la GPU xD

La verdad esque fijandose en cosas finas como las hierbas y tal aún se nota algo pero vamos que en movimiento es complicado a no ser que te pares a fijarte. De todas formas entiendo que haya gente a la que no le guste, pero tener la opción ahí disponible siempre es bueno y es un plus para quien le interese, tampoco veo el lado malo.

Lo malo sería que dejasen de innovar y mejorar en rendimiento reespaldandose en el DLSS, pero por ahora el incremento de rendimiento de las GPUs tampoco ha sido nada malo. Otro tema son los MSRP y los precios.

2 respuestas
D10X

#155 #156 Si el problema del DLSS no es w exista, es q te vendan un parche como el futuro.

Como apuntaba otro usuario, llevamos ya tiempo sin un salto significativo en la potencia de las GPUs, estan jugando a la fuerza bruta y por eso los consumos se disparan.

El DLSS es una forma de parchear esa falta de I+D, o q hemos llegado a un tope tecnológico, o los problemas de suministro q hacen inviable cambiar el proceso ahora.

koalas

#156 yo iva a decirle que las dos primeras son con dlss por la memoria y el consumo, las otras dos tienen mas de 6000 de memoria usada

Pero luego asi a ojo cuesta diferenciar mucho

1 respuesta
B

Tras mi experiencia de análizar a fondo diversos reescalado, creo que el problema del DLSS no es tanto la calidad, más bien la complejidad de su implementación para los resultados. Aqui también entra otro fenómeno y es el TAA.

Actualmente con el tema del sharpen y algoritmo menos complejos que funciona en todas las GPU se puede conseguir imágenes parecidas a la nativa en escalas de resolución de 75% o menos, entonces te comienzas a preguntar, para que un algoritmo tan complejo en IA y que requiere hardware dedicado como el DLSS?.

El fenómeno del TAA lo mencionó porque muchos de estas comparativas de técnicas de reescalados se dan contra nativas más TAA y eso les hace un gran favor los reescalados porque igualar calidad del TAA no es complicado.

El otro día estaba jugando el Gears of war 4 , y apesar que ya me lo había pasado, no pude apreciar sus flamantes texturas 4k hasta que quite el TAA, las texturas con TAA parecen de 1024*1024, es increíble la calidad que se gana sin TAA, quitar todo eso Blur. Y aquí me parece lamentablemente que no se siguiera investigando en técnicas de AA, y nos quedamos en el TAA.

Para mi la mejor calidad de imagen es Nativa+ sharpen+ TAA OFF(si el shimiring no es acusado)

SrMeeseeks

Yo la experiencia que tengo con DLSS es en Death Stranding y puedo decir que funciona bien cuando el re escalado parte de una resolución lo suficientemente alta. Si por ejemplo el resultado es 1080p partiendo de una más baja, deja mucho que desear.

La verdad me parece una tecnología muy buena para conseguir una mejora de rendimiento cuando no te da para resoluciones altas, pero siempre como un último recurso. Resolución nativa siempre será mejor.

Edit: Para la gente que anda haciendo pruebas, en lo que más me fijaría sería en pequeñas partículas y a poder ser en movimiento. Escenarios muy estáticos es mas difícil apreciar las diferencias.

1
Ivan007valla

#158 Ojo que tengo el resizable bar activado (no sé para qué, pero lo tengo).

No he notado ni una puta mierda, tengo placa z390 y ahora lo soportan xD

gfcn

Esto ya toma forma, de aquí hasta que salgan con pajas mentales para luego decir: menuda mierda.

B

Las RTX 4000 seria una arquitectura actualizada, consumiría mas de 400w y puede que supere los 2X de rendimiento, aun asi seria mas lentas que las RDNA3 consumiendo mas.

1 respuesta
Sust0

#163 Pues para mi no son más que los rumores de las 2-3 generaciones anteriores. Dudo mucho que nvidia permitiera algo así y ni todo el marketing del mundo podría vender tarjetas más lentas y que consumen más.

1 respuesta
Naith

A mi que me vendan gráficas sin tensor cores. Los rayitos, los reescalados y los 500W para otro.

1 1 respuesta
javih_

x2 pero te meto 400W por si acaso

TripyLSD

#164 Bueno, si luego no hay materiales para fabricarlas, realmente pueden inventarse en papel lo que quieran :P

1
eondev

#165 Hola AMD

WolfGuy

Ya, 2X y más calor, más energia.

Anda Nvidia vete a tomar un poco por el culo. Veremos las 5000 o las 6000 y a ver si ha espabilado Nvidia.

Lo mismo intel o amd les ha comido

1 respuesta
sPoiLeR

#169 Pero si no se sabe nada xD, los mismos rumores generación tras generación

Lo que si que esta seguro es que la serie 4000 de nvidia es a 5nm y las va a fabricar TSMC, así que tocará esperar a ver resultados, pero precisamente por la parte de consumos/calor generado debería mejorar a la serie 3000.

1 respuesta
WolfGuy

#170 pues ya veremos.

2 meses después
B

Calientitas para el invierno .

1 respuesta
danao

#172 pfffff si con la 3080 ya en verano he notado el calor... con eso hay que tenerlo metido en un rio

Usuarios habituales