Hilo: AMD , BIG NAVI, RDNA 2 (Rumores).

vene-nemesis

A mi no me parece descabellado que salga un x670 a medio plazo con mas lanes de PCIe 4 para montar todo el sistema con varios NVME tirando en paralelo a la gráfica, pero fuera de entornos muy específicos de renderizado, a nivel usuario, no nos va a afectar.

Las b550 tienen todo lo que nos va a hacer falta a los usuarios para usar zen3 y direct drive desde SSDs.

1 respuesta
javih_

#323 b450 tmb

EiNh4nDeR

#327 el punto :sunglasses: lo mola todo

1 1 respuesta
Yekale7

#331 Pueden sacar nuevas placas para los nuevos procesadores, pero no van aportar nada innovador.

Quizás reducir el consumo de las placas bases X570 y, optimizar su eficiencia y funcionamiento sobre PCIe 4.0

Las B550 son unas placas perfectas para cualquier usuario dedicado a jugar o tareas ofimáticas. Las X570 únicamente traen más líneas para poder utilizar varios discos NVMe sobre PCIe 4.0, pero los ssd bajo ese "estándar" siguen siendo muy caros.

edit: en definitiva, no creo ni le veo sentido a las nueva placas, únicamente que ganen los fabricantes.

1 respuesta
Naith

#329 siempre ha salido chipset con las nuevas CPUs. No veo motivo para que no salgan.

#334 algunas B550 son un despropósito a nivel de uso de líneas PCIe. Y no hablo precisamente de las baratas.

Prava

#333 me cago en la ostia siempre me pasa lo mismo jajajaja creo que sale por unir

B)
#330spyro512:

pero me refería al voto de confianza que le estaba dando Cryoned a AMD cuando AMD lleva vendiendo humo años con las GPU

A decir verdad, las 5700XT son tarjetas muy buenas... solo que faltaron las gamas superiores. Ahora mismo los rumores sitúan a una de las NAVI nuevas con un 50% más de cores y con clocks mucho más altos.

Además, la imagen del cooler mostrada por AMD indica consumo por encima de los 300W... así que incluso sin mejoras de integración (que las habrá, hablamos de TSMC) aumentar el consumo de la 5700XT en un 40-50% nos daría un aumento de potencia similar que la pondría algo mejor que una 2080 TI, y eso es territorio 3080.

B

#320

Las gráfica que presentó Nvidia no tenian rendimiento concreto, eran las tipicas gráfica de puntos que no sabes si es un 30 o un 50🤭.

1 respuesta
B

#337 si sabes pues estaban los ejes, que marcaban X1 X2 X3 X4 vs gtx 980 etc, y era proporcional asi que simplemente hay que medir pixeles para saber cuanto % es, y era 30% en la grafica, y coincide

1 respuesta
B

#338

Pon un ejemplo:

Y desde ya comento, que esto no es dar un rendimiento concreto o claro...

1 respuesta
B

#339 estan los ejes y las proporciones y las referencias

no se, para ti no sera un rendimiento en concreto, para mi que he estudado economia, que damos graficas hasta en la sopa, si lo es

repito por 4ª vez, en ese grafico son +30% rendimiento vs 2080ti, y asi ha sido en 4k
obviamente ahi no te dice si es con dlss, si con rtx, si es a 1080p, etc, obviamente es la ambiguedad con la que juega nvidia, y por eso se ha cumplido lo que promete

porque esa promesa fue ... muy laxa

1 2 respuestas
B

#340

Para ser un economistas te tomas datos muy pocos concretos, pense que la exactitud era parte del ofició🤭.

A mi sin ser economista, me parece muy difícil asegurar un dato exacto de una tabla donde hay solo 2 números espaciados y en medio no hay nada, mas que solo punto que es el supuesto rendimiento🙄, es como conger una regla de medir que va de 1cm a 30cm, pero que entre esas dos cifras no tengo ningun numero, trates de medir algo y simplemente inventes que por la poción entre 1 cm y 30cm mmm deben ser 15cm.

1 respuesta
B

#341 para nada, economia es una ciencia social, y al igual que una gpu vs otra, no tiene un rendimiento concreto, pues depende de muchas variables

resoluciones, juegos, tecnologias usadas etc... por eso los reviewers profesionales dan una media aproximada, APROXIMADA, no hay ningun dato exacto.

lo que te pasa es que no sabes interpretar nada.

javih_

#340 +-10,3 cm 3080 y 7,4 cm 2080 ti
10,3/7,4=1,39
Le metes el error y el 30% que decían cae dentro.

B

Si lo de la cache es cierto, podrian ser 256 y 192bits:

2 respuestas
B

#344 Ni tan mal en cuanto a VRAM si es cierto, habrá que ver el rendimiento pero 16vs10 y 8vs12. Nvidia sacará las versiones de 16gb y 20gb y entonces ya podremos comparar rendimientos, precios y funcionalidades para hacer la compra acertada.

keygy

que litografia estaria usando amd? 8nm como nvidia?

2 respuestas
LLoskka

#346 <=7

1
Prava

#344 Ahora falta que las pongan a 650€ y 450€ respectivamente y a un 5% de distancia de las RTX3080 y RTX3070 para darle muchos quebraderos de cabeza a NVIDIA.

2 3 respuestas
LLoskka

#348 que me veo venir que asi sera... y a los 2 meses para competir sacaran las de 20gb y las Ti

y los clientes de nvidia se daran cuenta porque no habia stock ninguno hasta el momento XDDDddd

Team RED por el momento

1 respuesta
Cryoned

#348 hacen eso y se dan la toña

solo 50€ menos por perder un 5%, dlss y todo el ecosistema de nvidia poca gente lo aceptaría. ah, y el raytracing que será bastante inferior.

Necesitan competir con bastante menos precio o mejorar muchísimo el software. Posiblemente ambas cosas. Del tipo de implementar su dlss y bajar 100/150€ en las gamas más altas

3 respuestas
sPoiLeR

#348 Yo si rinden bien y los drivers acompañan no tengo problema en vender la 3080 y cambiar a la competencia. Pero me da que como no saquen algo pronto difícilmente van a coger cuota de mercado.

Nvidia en 2 meses con el lanzamiento de Cyberpunk con el tema del RT y el DLSS va a tener un boost de ventas que ni con el hype inicial. No se si AMD tiene algún tipo de colaboración con Cd projekt red pero sería interesante.

B

#346 Los nm ya hace tiempo que dejaron de significar lo que significaban y ahora es algo más comercial que algo puramente técnico.

AMD esta gen va a usar 7nm+ que supongo que será un nodo más maduro y mejorado de los 7nm que usaron con Zen 2 y RDNA1.

Para que te hagas una idea los "8nm" de Samsung andan sobre los 61MTr/mm2 y los 7nm de TSMC andan sobre los 90-100 MTr/mm2. Los 7nm+ supongo que serán algo mejores.

Pero bueno al final todo dependerá de lo que haga compañía con cada proceso y arquitectura, porque por mucho que uses un nodo avanzado si al final haces un diseño de mierda pues te va a salir una mierda de GPU.

LLoskka
#350Cryoned:

solo 50€ menos por perder un 5%, dlss y todo el ecosistema de nvidia poca gente lo aceptaría. ah, y el raytracing que será bastante inferior.

me lo apunto para quotearte nuevamente en un futuro :))))

Prava

#349 No hay espacio para las 3080 TI. Piensa que básicamente una 3080 TI es una 3090, solo que en lugar de los 12GB de vram que debería tener le han puesto el doble, 24gb.

Las 3070 TI sí que caben muy perfectamente, e incluso nos cabrían 2 productos. porque hay 100W de margen entre 3080 y 3070.

Este inicio de generación pinta interesate, más o menos como cuando la generación de las 4870, y la de las 5870.

#350Cryoned:

hacen eso y se dan la toña

solo 50€ menos por perder un 5%, dlss y todo el ecosistema de nvidia poca gente lo aceptaría. ah, y el raytracing que será bastante inferior.

10% menos de precio por 5% menos de rendimiento y un 50% más de vram? No lo veo para nada mal precio, ¿eh?

2 respuestas
B

Yo no tuve una 5700 ni ninguna de la gen anterior pero tuve una Vega56 en su momento y me producía flickering al conectar ambas pantallas y no había manera de arreglarlo, no se si salió rana o era cosa de los drivers, ni idea. Aún así no descarto esta gen de RDNA2 si salen a buen precio/rendimiento y no tienen muchos problemas de drivers.

Lo único que me echa para atrás es que leí por ahí que hay juegos viejos que van mal ya que el soporte para DX9 y juegos antiguos no anda muy allá, no se si será cierto o no pero hay veces que me apetece jugar a juegos viejos y no me gustaría comprar una GPU nueva y prescindir de ellos la verdad xD

Cryoned

#354 para la mente del fanboy medio de nvidia yo no lo veo suficiente, creo que tienen que ser más competitivos si pretenden ganar cuota. Y encima ahora que dlss se está metiendo en las cabezas de mucha gente y hasta lo están implementando reviewers.

otra cosa es que no puedan bajar más o que les interesen más los márgenes que pasar del 20% de mercado al 60.

1 respuesta
Prava

#356 el fanboy medio de NVIDIA no se va a cambiar a AMD, y lo sabes.

Yo habría comprado una RTX3080 TUF... pero como no voy a tener cojones pues a esperar toca, así que empalmo con lanzamiento de AMD y a ver qué dicen.

Ah, ¿en alguna review hablan del uso de HDMI 2.1 para televisión y uso de VRR? Porque eso para mí SÍ es clave.

2 respuestas
LLoskka

#357 creo haber visto un video en LTT hace un par de días...

B

#350

Sobre le Ray Tracing y DLSS de AMD hay que esperar.

La unica referencia que tenemos es juegos cómo spiderman que mueven sombras y reflejos a 4k(creo) con una GPU de 36CU.

mrcroket

#354 Teniendo en cuenta que big navi, tanto en series x como en ps5 usan hdmi 2.1 y está confirmado que xbox será compatible con vrr, sería muy estúpido por parte de AMD el no incluirlo en su buque insignia de la arquitectura.

Yo soy de los que se quedó a las puertas de comprar una 3080, pero entre los rumores de nuevas versiones con más capacidad, y que no parece que vaya a ser posible adquirir una hasta mediados de octubre y con suerte, me voy también a esperar a ver que ofrece AMD. Lo que me preocupa no es únicamente el rendimiento en rasterizado, que creo que ahí es muy posible que den la talla, sobretodo en rendimiento/precio comparado con NVIDIA.

Ahora bien, me preocupa primero el rendimiento en raytracing , la pérdida de los tensor core (usados no únicamente en DLSS, sino también en el futuro directstorage), la no confirmación del soporte de directstorage y también el encoder de video de amd vce, que hasta ahora ha sido siempre considerablemente peor que nvenc (lo uso para poder jugar en la tele mediante streaming a través de moonlight y geforce experience). Por no contar con que por lo general son más calentorras y con peor soporte de drivers.

Aun así por ahora todo esto son prejuicios, ya que hay que ver que anuncian primero y si merece la pena o no.

1 respuesta

Usuarios habituales