AMD Radeon RX 6000 Series - Aquí tienes los 16GB

vene-nemesis
#675sPoiLeR:

Pero vamos, que tan malo es, que hasta amd tiene que implementarlo.

No confundas marketing con rendimiento, AMD tiene que sacar un SS algorítmico porque Nvidia ya ha vendido la tecnología a un montón de gente que ni sabe, ni entiende como funciona, a quienes simplemente les han dicho que tienen un ordenador muy potente que hace machine learning y una vez que ese ordenador aprende como generar una imagen perfecta en un juego lo empaquetan en un driver y todo perfecto.

Cuando la realidad es que lo que hacen es renderizar la imagen en una resolución inferior a la nativa, escalarla, y toda la información que les falta en los pixeles intermedios a los conocidos la completan por medio de tablas estadísticas, el pixel que genera el algoritmo está en la paleta de los pixeles conocidos y con suerte, a veces, encaja con lo que tiene alrededor, y cuando no, si el cliente tiene ojos de cartón, no nota la difuminación de los contornos que cause la discontinuidad de colores. En esencia intentan vender el astigmatismo como calidad de imagen.

Y lo peor es que tienen los cojones de sacar screenshots donde les ha salido bien la jugada y ya con eso les vale para decir que el 100% de la implementación de la tecnología va a ser así.

Ahora, eres la competencia y no has metido un duro en una tecnología vende motos porque huele a kilómetros que es una tirita para intentar vender un estándar de video, 4K, para el que no estamos preparados a nivel de consumidor casi nadie, y ves que tus clientes quieren si o si una mierda que no entienden, y por cojones te toca tragar y pasar por el aro porque el mercado funciona así.

15 1 respuesta
FerPina

#686 #685 gracias! Pues si eso está claro, el rendimiento manda independientemente de como se obtenga. Se sabe cuando dejarán poner benchmarks de 3rd parties? Porque claro esos son los realmente importantes.

B

Viendo que la 6900XT tiene un TBP de 300w y la 3090 un 350w, bien pudieron empujarla a 96CU con TBP de 350w también, superando con cierta holgura a la RTX3090.

RDNA 3 a 5nm estará interesante XD.

1 respuesta
B

A mi me gustaría saber la opinión de alguien que haya completado al menos 4-5 juegos enteros con DLSS, al final en Youtube no he visto gran cosa sobre artefactos y defectos mayores, 2 videos contaos y encima repetición de los artefactos que ya se vieron en el video de DF, o algo nimio como 4 chispazos. Me he tragado videos de varios minutos con el donde iba bastante bien, pero eso dista mucho de meterle 50 horas a la 2.0, Si por juego hay cuatro zonas aisladas y tres partículas que resaltan, puede merecer mucho. De todas formas la cantidad de títulos donde es útil no ha sido muy a tener en cuenta este bien o mal.

Ahora acabo de ver benchs de Legion y pff, parece la 3080 no da ni 60 fps estables con dlss a 4k, igual que Control, Fortnite apenas supera los 40 y Quake ni llega. Supongo que la idea de quien no le guste el DLSS no será usar RT hasta la siguiente generación, o si no vaya, 1080p60 o 1440 con rascadas importantes... Es que vamos, ya estoy viendo que en dos años salen los verdaderos juegos next-gen y que las RTX 4000 seguirán a tasas parecidas con los nuevos lanzamientos, al final veo que la gen que esta por venir requerirá la serie 5000 para que vaya en condiciones con RT sin DLSS a 1440p a poco más de 60 fps.

1 respuesta
Roofbreaker

#691

DLSS para completar la información faltante en la imagen y así rellenar los píxeles faltantes hasta la resolución total, utiliza la tecnología de las redes neuronales (Deep Learning) de hecho de ahí vienen las siglas: Deep Learning Super Sampling.

En concreto se trata de una CNN (Convulational Neuronal Network). Básicamente a base de realizar convoluciones (cada píxel de salida es una combinación lineal de los píxeles de entrada) se filtra la imagen con diferentes máscaras. Las primeras operaciones permiten detectar características primitivas como líneas o curvas, conforme avanza la red se va especializando, hasta llegar a reconocer formas y características más complejas bordes, brillos, sombras, etc... Esto es lo que permite posteriormente rellenar los píxeles faltantes para "reconstruir" esas características detectadas.

Si os interesa aquí podéis ver una aproximación de cómo funcionaría, lógicamente Nvidia no ha dado muchos detalles al respecto.

1 respuesta
B

El DLSS se inventa los pixeles prácticamente, no es un recostruccion de algo perdido, por lo cual es una aproximación del pixel perdido y nunca será igual que la Resolución nativa, Nvidia a compensado esto metiendo sharpen en su reescalado de IA.

Tal vez un símil y no se si es acertado, es el de un MP3, cuando comprimes un flac a MP3 se pierden frecuencia que no se pueda recuperar, pero el sonido se aproxima a lo que seria un flac, pero nunca sera como un Flac.

vene-nemesis

#695 todo eso está muy bien, pero solo estás hablando de la adquisición de datos, que es lo mismo con lo que nvidia saca pecho, lo que nos concierne a los usuarios va después de eso, después de como se confecciona la BD con esa información, los usuarios nos encontramos en el punto de como accede a esa información y la utiliza el motor de calculo de la GPU para generar el output, output que actualmente es deficiente si lo comparamos con la resolución nativa con todos sus sistemas de filtrado que pretende reemplazar.

Los artifacts y el blur son casi seguro problemas que se dan en el lado del cliente, que es el de menor poder computacional, y, si no me equivoco, cuando se dan estos problemas que simplemente son pixeles mal asignados es por una de dos:
-El sistema calcula una solución única que es incorrecta.
-El sistema genera varias soluciones, al encontrarse con respuestas que probabilísticamente tienen el mismo peso hace una asignación al azar de una de esas respuestas que resulta no ser la adecuada.
Y esto puede ser porque el algoritmo del lado del cliente le falte refinamiento, o porque el sistema de tensor cores simplemente tiene un limite muy ajustado para cuanto puede calcular por ciclo y tiempo de frame en pantalla, o incluso una combinación de ambos problemas.

La idea del DLSS no es mala, desconozco si será o no un repack de lo que nvidia usa o quiere comercializar en su sistema de streaming de juegos, que haya que amortizarlo sea como sea y de ahí el marketing agresivo, pero a todas luces es una tecnología poco pulida para lo que pretenden vendernos, y hablar de DLSS cuando se quiere usar una resolución de 4k, y encima con RT, es un oxímoron.

1 2 respuestas
Dani_Jackson

#693 No se ha hablado de thermals en la presentación, no? Puede ir por ahí la cosa.

sPoiLeR

#694 Es que realmente no hay tantos juegos con DLSS todavía pero vamos, me flipa que aqui se coja con papel de fumar unos artifacts que han sido parcheados de un juego en particular. Además porque como bien dices, hay 3/4 videos y bueno, creo que para ser una tecnología nueva funciona bastante bien (no asi como la versión 1.0 que si que daba cosa).

Revisando bien, los únicos artifacts que han posteado ha sido en Death Stranding, en el resto de juegos al menos yo no he leido sobre ellos. Aun asi mi resumen sería facil, si funciona bien y las tarjetas de amd/nvidia lo tienen implentado, la gente lo usará.

5 2 respuestas
X

Sobre el DLSS, AMD no ha dicho nada, pero ojo a esta transparencia de la confe:

Ahí abajo a la derecha se ve un "super resolution" que bien perfectamente puede ser su sucedáneo.

1 respuesta
miguelaje

en realidad todo esto del 4k con más de 60fps ¿qué porcentaje de gente tiene hoy día un 4k de 120 o 144 hz si valen más que la propia gráfica? Vamos que con que el 4k de 60 fps a día de hoy no se necesita más.

1 respuesta
Czhincksx

#701 aunque tengas un monitor de 60Hz. Si tu tienes una GPU que a 4K te da 90fps con los juegos actuales, el año que viene te dará 70, al siguiente 60 justitos y al siguiente ya no llegará a 4k60fps. Ya que te gastas una pasta en GPU al menos que aguante bien.

1
Vancete

#697 se te da la mar de bien escribir tochacos haciendo gala de tu ignorancia respecto a la tecnología. Te animo a que estudies un poco (a más bajo nivel, mejor) qué es una CNN, por qué se hacen competiciones anuales con cada vez mayor nivel y luego vuelvas a hablar de que es marketing xddddddddddddddddddd

Roofbreaker

#697 Indudablemente tiene su parte de marketing. Como cualquier tecnología, pues tiene a sus espaldas años de investigación y gasto de recursos. Por lo que las empresas de alguna manera tienen que amortizarlas. Lo que digo es que es una tecnología con mucho potencial y que actualmente no es perfecta pero que puede llegar a serlo (y lo hará) ya no a largo plazo, ya en esta nueva serie la 30 con la v3 se supone se da un salto bastante tocho. Y no necesita de cambios drásticos de hecho las mejoras serán retrocompatibles, con las tarjetas que tengan tensor cores. Aunque lógico mejor cuantos más tensor cores se tengan.

Y lo del uso de RT y DLSS a la vez. Son dos cosas diferentes y de hecho las tarjetas tienen sus recursos hw correspondientes para cada propósito. Así que el uso conjunto de ambos no repercute en el rendimiento del otro. Depende por un lado de cuántos RT cores haya para RTX y cuántos tensor cores haya para DLSS. Si tiene más o menos impacto en el rendimiento global es por el número de recursos de cada cosa que tenga la gráfica.

1 respuesta
Cryoned
#699sPoiLeR:

, en el resto de juegos al menos yo no he leido sobre ellos.

justo en ese segundo puedes ver a dlss inventándose estelas en el halo de luz que no sabe interpretar. Por buscar algo rápido de la joya de la corona de dlss 2.0 que usan para promocionarlo.

le pasa con cualquier tipo de partículas y muchos bordes en movimiento, aparte del oversharpening horripilante, ghosting, etc.

otra cosa es que la gente sea ciega y le valga cualquier cosa o solo juzgen en base a un vídeo medio estático sin entrar al detalle de situaciones difíciles como hace digitalfoundry, que te cascan 4 imágenes guarrísimas sin movimientos y se van tan panchos. Que deben de dormir con colchones de nvidia en esas oficinas y todavía la gente les usa de referente xd

dlss es lo que es, una tecnología para los que quieren mover más de lo que puede su billetera, que en ciertas situaciones puede ser útil, pero no es un estándar a usar si se puede evitar. Ahora, si te encuentras en esa situación de o dlss 70fps o 40fps sin ello, pues vale, se acepta barco, pero poco más.

Y sobre todo lo loleante, cuando algunos se emperran en decir que se ve igual o mejor que nativo, ya es totalmente wtf.

1 2 respuestas
B

Estoy viendo que la 6800 mejora calidad-precio a la 3080?

Además si tienes procesador ryzen mejora un 4% más aún? Es cierto eso que me cuentan?

Sería un pepino el duo ryzen 5800-amd 6800?

1 respuesta
Cryoned

#706 espera a las reviews

1 respuesta
B

#707 no si no tengo prisa, yo de meterme en esto es a finales del año que viene, que ya estará todo asentado, precios bastante más desinflados, etc.. pero quiero seguir así esto muy de cerca y era por saber si esos rumores son así o columpiadas.

1 respuesta
keygy

#708 desinflado de que? no van a desinflar nada, todo lo contrario.

1 1 respuesta
Eskimo

Una actualización de #1 estaría bien para no tener que irme a otro lado a buscar info.

Gracias

1
Czhincksx

La que puede ser muy interesante es la 6700XT. 12GB de VRAM con 40CUs, si rindiera al menos un +30% respecto a la 5700XT puede ser una superventas. En teoría AMD defiende que RDNA2 tiene un +50% de rendimiento respecto a RDNA1 si no recuerdo mal.

Huk

Nvidia lleva años "mejorando" sus gráficas con open source que convierten en software propietario y que por descontado licencian/patentan con namings pomposos para lamers. Ojalá les coman la puta tostada ya porque menuda agonía tener que comprarles algo. Lisa eres mi madre.

3
javih_

#700

Relacionado pero dudo que sea algo así.
Dejad de decir que no va a tener las gráficas DLSS y RT. Las consolas lo van a tener, si AMD no lo saca va a ser pegarse un tiro en el pie. Ya salio un benchmark de Ray y #679.
Dejad de repetir como si fuese un puto dogma.

X

A ver, RT lo va a tener seguro, que en la propia confe lo mostraron (con WoW, Rift Breakers y algún otro juego, nada TOP).

Lo del DLSS ya es elucubrar.

espikiller

A ver qué dicen los bench pero la vram de amd puede ser jugosa, y eso que he cancelado dos veces una 3080, quiero comprar una cuanto antes.

Frave

El tema es que el DLSS esta basado en modelos de redes neuronales profundas que básicamente se entrenan utilizando tarjetas de nvidia ya que son sus drivers las que al final usan por debajo librerias como pytorch o tensorflow por ejemplo para poder entrenarlas. Vamos que nvidia esta dando fuerte con el DLSS y otras aplicaciones que usan esto porque ha metido mucha pasta y esfuerzos en IA cosa que AMD no tanto. Dudo mucho que puedan llegar a hacerlo igual de bien que estos pero a ver que pasa.

1 respuesta
ArThoiD

#705 Te querria ver en pruebas ciegas de DLSS vs 4k nativo, a ver si adivinabas algo o no xDD

Sinceramente estoy segurisimo de que te comias con patatas tus palabras.

Cuando ves un video y te señalan los artifacts, es muy facil decir "se ve fatal".

4 1 respuesta
Cryoned

#717 con no tener ojos de cartón cualquiera es capaz de señalar el sharpening hasta en una escena estática y test ciego.

1 respuesta
ArThoiD

#718 Que si que si xddd

1 respuesta
Cryoned

#719 si ni siquiera notas el strobing, normal que tampoco una gameboy de 8k xD

3 1 respuesta

Usuarios habituales