AMD Radeon RX 6000 Series - Aquí tienes los 16GB

sPoiLeR

#1049 Tengo mi opinión de que ni las 8gb ni las 10gb se van a quedar cortas y que entran en juego más variables como el ancho de banda, la velocidad de la vram, la compresión de texturas....

Que al final todo es marketing por ambas compañias y se necesitan de benchmarks independientes que arrojen luz. Desde luego 16gb de vram es un plus a tener en cuenta, pero que no nos engañemos, si lanzaran una versión de 10gb de vram tendría exactamente el mismo rendimiento.

3 1 respuesta
PoYarko

#1049

#1049_Morrigan:

Quien ha pagado esos precios es quien ha querido, y ya.

Faltaría más. Si ya lo dijo alguien por aquí o en otro hilo, si es todo porque muchos estamos ahorrando pasta sin salir de casa y queremos viciar como cabrones, y llegan los de nvidia con su hype inicial, y ahora amd mejorando la apuesta con las suyas, pues más de uno está que salta de la silla pensando que va a poder pillarse esos cacharrlos por 500 700 euros, cuando ni va a poder pillarlos pronto, y será con unos 150 euros de media más.

Como dices, se nota que todo dios que ha pillado una gráfica al precio de salida está pensando en revenderla por bastante más viendo como está el tema, se las rifan, aun sabiendo desde hace semanas lo de la vram, la gente sigue intentando pillar una 3080 a más de 850-900 pavos.

Ah, y luego tenemos a las tiendas que les va llegando stock, permiten reservas, hacen cancelaciones y van subiendo poco a poco el precio, eso lo harán también con AMD, a no ser que entre a miles y miles las gráficas por todas partes y haya oferta en muchas tiendas, que va a ser que no.

A mí me llegó la 3080 tuf oc que la compré snipeando con la extensión distill de chrome, pagando 820 euros (sobreprecio creo que de 60 o 70 euros), a los 5 días me llegó a casa, y gente que la había "comprado/reservado" pagando mucho menos hace semanas, vaya... no les llega.

#1050 en los hilos de las 3000 se hablaba también de las gráficas de amd comparándolas constantemente, y de procesadores, fuentes de alimentación, hasta se fue creando hilos específicos para cada cosa, que alguien haga uno de "qué procesadores me compro para las 6000", como lo hay con las 3000, y todos contentos, a mí no me molesta ver estos debates por ahora en este hilo.

1 respuesta
B

#1051 Yo creo que la 3070 si se va a quedar corta a medio plazo. La 3080 ya no estaría tan seguro. Pero la 3070 con solamente 8GB DDR6... Lo dicho, si fuera una GPU de 300€ pues vale. Pero 550€++ de GPU... A mi me parece una racaneada y de sinvergüenzas por parte de Nvdia.

Ahora ya cada uno que opine como vea conveniente, y que gaste el dinero como le de la gana. Faltaría mas.

#1052
¯\ _(ツ ) _/¯

Cada uno que haga lo que quiera. Si quieren dejarse 300€ de más para jugar a un juego de salida que igual acaban retrasando otro mes, allá ellos.

Lo de las tiendas si que es una vergüenza, eso debería de ser denunciable. Que te tengan el dinero ahí retenido como si compraras algo pero realmente ni lo tienen en stock ni saben cuando les va a llegar. Y no es la primera vez que lo hacen, hace tiempo ya me había pasado con PCComp que habían vendido unidades en ofertas del blackfriday que realmente no tenían en stock. Pero te pillaban el dinero, te lo retenían una semana y luego "ah que no tenemos, ups". Vergonzoso.

Yo no tengo prisa, cambiaré la GPU a principios del año que viene. Veré que pasa en el CES para ver como queda el panorama y como se sitúan todas las GPUs en los tiers, y de paso con suerte mejorará algo el tema de stock y precios.
No juego a los juegos el día de salida y tengo una backlog bastante extensa asique 0 prisas.

2 1 respuesta
sPoiLeR

Los precios ojala salgan bien, pero me da que entre el cambio €/$ y que si cumplen el rendimiento anunciado, los precios van a ir para arriba y con un stock mas que limitado. Al igual que las 3080, 3070, la PS5 o la X, toda la tecnología vuela literalmente. Al final la 6800XT se lleva solo 50$ con la 3080, por los 800-850€ en una custom no sería raro. Ojo que la 6900XT solo sale de referencia, a saber que stock xD.

#974 Casualmente indican que 12gb de vram es lo minimo (como la futura 6700XT vaya). Creo que es pronto para aventurarse si un juego que ni ha salido al mercado es apto o no. Todos nos hemos estado descojonando de las requerimientos en determinados juegos que luego al probarlo eran la mitad de lo mostrado, siendo partner de AMD me lo creo lo mismo que las gráficas de nvidia con rendimiento en el minecraft xD.

1
Liquid-Sam

#1046 Cacique por? La verdad es que solo me fio de este señor, y del bueno del greñas gamer nexus, la verdad.

B

Con texturas 8k, si tiene pinta que los 8GB no van aguntar, los juegos actuales ya requieren 8GB para texturas 4k normales y unos 6GB para 4k con texturas virtuales.

B

#1053

Yo no tengo prisa, cambiaré la GPU a principios del año que viene. Veré que pasa en el CES para ver como queda el panorama y como se sitúan todas las GPUs en los tiers, y de paso con suerte mejorará algo el tema de stock y precios.
No juego a los juegos el día de salida y tengo una backlog bastante extensa asique 0 prisas.

¡Entonces espérate al R5 5700! Yo también tengo mis dudas de los 10gb al ser más rápidos, y sobre todo dudo en que punto pueda suceder, pero los 8 veo difícil que no se queden cortos, sobre todo a 4k. Como no usaban la beta ni hay benchmarks de ellos no lo sé la cantidad exacta, pero hasta el puto Skyrim modeado lo he visto con 12gb "localizados" en una Titan, un juego que tiraba bastante bien en la 5850 de 1gb y que tiene recomendados 512mb de mínimos XD A saber lo que tragará Stalfield o TES VI cargadito, lo mismo no tanto al haber empezado el desarrollo años atrás, pero eso, quien sabe.

Tampoco es el fin del mundo si hay que bajar un poco las texturas o algún parámetro, además que habrá en juegos que ni a 4k consigas el frame rate deseado y uno terminará metiendo DLSS reduciendo la VRAM, pero uff, igualmente. Yo la 3070 no la compraría ni borracho, con la 3080 apretaría el culo, pero la otra la tenia descatadísima sin ver los lanzamientos de AMD. Si las 3060Ti salen buenas lo mismo cunden hasta más para ser vendidas a los 2 años y pillar una 4070/4080 las cuales van a tener casi con seguridad una VRAM decente.

AMD ahora puede jugar sucio entre comillas y joderle a Nvidia en los benchmarks, basta con que los juegos con los que tengan partnership metan texturas gordas para que en las comparativas especialmente la 3070 salga resentida. Algo parecido como el despropósito de shitworks, que ni en las GPU de Nvidia es que vaya fenomenal, en las de de AMD iban y van peor para ser algo que a veces traga FPS casi por tragarlos.

1 2 respuestas
B
#1057ErlaNtz6:

¡Entonces espérate al R5 5700!

La CPU si que me urge más que la GPU aunque esté rezagado con la 2060. Los juegos multi del turno me van fatal, stutters 24/7 cosa infumable, y al final en estos casos la GPU no importa tanto.
Aparte el 5700 contando que lo anuncien en el CES (Que no se sabe) son fácil 4-5 meses de espera. Y viendo el 5600x a 310€ y el 5800X a 460+€ no veo al 5700 saliendo a 350€ como el 3700x, seguramente se vaya a los 400€ xD

#1057ErlaNtz6:

A saber lo que tragará Stalfield o TES VI cargadito, lo mismo no tanto al haber empezado el desarrollo años atrás, pero eso, quien sabe.

Exacto, no es tanto el lo que van a consumir los juegos futuros "pelados", que los 8GB se van a quedar cortos igualmente fijisimo, sino que como te guste toquetear, modear y tal y empiezas a meter mierdas no oficiales que no están optimizadas pues el consumo de VRAM ya se dispara. Y tampoco hay que irse a mods no-oficiales, últimamente hay bastante tendencia de sacarte el juego y luego un pack "Texturas Ultra HD, blabla" que también disparan el consumo de VRAM.

#1057ErlaNtz6:

Tampoco es el fin del mundo si hay que bajar un poco las texturas o algún parámetro

Hombre, esto sería hacerlo cuando la gráfica tiene sus años y se va atragantando y no da para más. Pero hacerlo prácticamente de salida cuando la GPU es nueva y te has dejado 550+€ por ella... no hace mucha gracia xD

#1057ErlaNtz6:

Si las 3060Ti salen buenas lo mismo cunden hasta más para ser vendidas a los 2 años y pillar una 4070/4080 las cuales van a tener casi con seguridad una VRAM decente.

Las 3060Ti son GA104 junto con las 3070 asique seguramente rindan algo menos, igual algo rollo 2080super, pero van a seguir con esos 8GB. Y van a hacer a la 3070 no tan buena opción incluso rendimiento/precio.
Al final lo de siempre, lo mas rentable es pillar lo mejor rendimiento/precio y cambiar en la siguiente gen por lo que salga también mejor en rendimiento/precio. Pero mucha gente no se ralla tanto y no está por la labor de estar vendiendo y comprando cada 2 años. Por eso aún a día de hoy hay gente estirando las 1070. Hoy en día pillar una 3070 con la expectativa de estirarla 4 años... suerte.

#1057ErlaNtz6:

AMD ahora puede jugar sucio entre comillas y joderle a Nvidia en los benchmarks

Todas las compañías juegan sucio en cierta medida, por eso lo sensato es esperar y usar los datos de las reviews hechas por 3eros. Hasta entonces poco se puede juzgar en cuanto a rendimiento real.

1 1 respuesta
B
#1057ErlaNtz6:

AMD ahora puede jugar sucio entre comillas y joderle a Nvidia en los benchmarks, basta con que los juegos con los que tengan partnership metan texturas gordas para que en las comparativas especialmente la 3070 salga resentida. Algo parecido como el despropósito de shitworks, que ni en las GPU de Nvidia es que vaya fenomenal, en las de de AMD iban y van peor para ser algo que a veces traga FPS casi por tragarlos.

:thinking:

1 respuesta
Tencru

#1059 pedazo tiro en el pié para los desarrolladores del juego entonces... si la 3080 queda obsoleta no me quiero imaginar cuantos usuarios pierden con otros modelos de nvidia anteriores o de amd

1 3 respuestas
PoYarko
#1058_Morrigan:

La CPU si que me urge más que la GPU aunque esté rezagado con la 2060. Los juegos multi del turno me van fatal,

Eso mismo he estado comentando en los últimos post.

#1058_Morrigan:

Hombre, esto sería hacerlo cuando la gráfica tiene sus años y se va atragantando y no da para más. Pero hacerlo prácticamente de salida cuando la GPU es nueva y te has dejado 550+€ por ella... no hace mucha gracia xD

Siempre hay opciones gráficas en algunos juegos y mods etc que te dejan los fps en mierda y la gráfica llorando de desesperación, hasta la 3090 y la 6900x en sli con tropecientas gigas de vram con una cpu con oc a 5.3. Luego opciones gráficas que la mayoría ni entienden como funcionan y no aprecian cambios visuales aparentes.

Llevo dos días probando mods gráficos en gtav y toqueteando aquí y allá y telita, y aun así no veo que "no pueda" con la 3080. Eso sí, hasta luego los 100 y pico fps.

#1060 Es que eso mismo dejaría en mal lugar a nvidia, si fuera cierto, pero en muchísimo peor al juego desarrollado por lo que dices. Todo esto ya es pura propaganda, clickbait, marketing de unos y otros y especulaciones del resto. Nada más.

1 respuesta
vene-nemesis

#1060 sería solamente a los usuarios de la 2080ti e igual a los de la 2080 super, dudo que a nadie mas se le pasase por la cabeza jugar a 4k

B
#1061PoYarko:

Eso mismo he estado comentando en los últimos post.

Estábamos, o bueno al menos yo estaba, hablando de rendimiento en 4K de un sistema balanceado para los juegos más exigentes del momento. Y como habíamos acordado, en juegos punta como RDR2, ACOddysey, etc.. la CPU apenas influye ya que el cuello de botella está en la GPU.

Los multis son otro cuento, siempre tiran más de CPU en general y aún por encima siempre tendemos a bajar los settings al minimo prácticamente ya sea para conseguir más framerate o para reducir efectos visuales y mejorar la claridad para favorecerse en PvP, bajando settings (en general) metes mas carga a la CPU y se la quitas a la GPU.

#1061PoYarko:

Siempre hay opciones gráficas en algunos juegos

#1061PoYarko:

Luego opciones gráficas que la mayoría ni entienden como funcionan y no aprecian cambios visuales aparentes.

Ya, pero si nos ponemos a toquetear unas cosas aquí y otras por allí, al final perdemos la referencia ya que cada uno usa sus settings que le convienen y a uno le va a mejor, al otro le da 10 fps, el otro se come stutters, a peter le lastra la CPU.. etc. Por eso los benchs se hacen con todo en ultra, para tomar como referencia todos el mismo punto. Luego ya cada uno que toque lo que quiera.

1 respuesta
B

#1060 quieres decir que la 3080 lastra el rendimiento de algunos títulos? Estas afirmando eso?

1 respuesta
Tencru

#1064 Yo? afirmando? para nada solo hablo respecto a la info que ha pasado el user de ser verdad y como digo 3080 y cualquier gráfica de ahí para abajo de ser cierto.

PoYarko

#1063 Pues hablaba desde el principio de ese tipo de juegos, mayormente multijugadores, shooter online masivos, simuladores bélicos, mundos abiertos gigantescos, grandes cantidades de unidades de ia, sin pantallas de carga, gran cantidad de jugadores en línea etc. Juegos que no son de nicho, son los que más se juegan en pc, y cada vez más en consolas.

Personalmente, me da un poco igual la mayoría de títulos triple AAA single player, mundos con instancias, cinemáticas grandilocuentes que son los que se están poniendo en la mayoría de bench, salvando los single player tipo assasin creed, y eso que solo me han interesado por sus temáticas históricas. Los únicos single player que me merecen la pena son tipo fallout 4, the witcher 3, skyrim, etc. Me gustan a mí, y a la inmensísima mayoría de jugadores medios de pc, y ahora de consolas también, porque el super deseado cyberpunk es más de lo mismo, si tienes una cpu cortilla ya puedes tener la mejor gráfica, que por mucho que pongas el juego a 4k (y al final todo dios jugará a 1080p y como mucho 2k), te va a ir mucho peor.

1 respuesta
B

#1066 No tiene que ver el multi del turno que lo juegas al mínimo para buscar la máxima competitividad posible, con un Open World cargado como el AC, RDR2, Cyberpunk o lo que sea. En el primer caso tiras de CPU y en el segundo te lastra la GPU (a 4K). 1080p y 1440p ya es otro cuento.

Y también buscándole el sentido a la discusión, quien coño juega a un juego multi de forma "seria" a 4K? Lol.

1 respuesta
PoYarko

#1067 Me refería a los singleplayer tipo AC, RDR2, Cyberpunk, en shooters multi es lo que comentas, y lo de jugar a 4k, te doy la razón, viendo las estadísticas de steam, casi ni dios juega en 4k, ni ahora, ni dentro de los próximos años. Y lo de la vram en general se notaría mucho más a esas resoluciones.

andresinii

tengo una gtx 960 y tengo unos 500-600 euros , que grafica me recomiendan gente?

2 respuestas
Tencru

#1069 6800 o 3070

1 respuesta
andresinii

#1070 cual es mejor de las 2?

1 respuesta
Tencru

#1071 No hay reviews independientes de la 6800 así que... depende de la prisa que tengas.

1 respuesta
andresinii

no tengo prisa puedo esperar:D gracias tio

1
n3On

Yo estoy en las mismas... Lo quiero para reyes para regalarselo en el pc a mi hermano... Nose si 3070 o rx6000 q sea... jejeje Estarán disponibles alguna de las dos? xDD

1 respuesta
PoYarko

#1072 #1074 las 3070 no tienen stock #1069 Tómatelo con calma, pon en seguimiento modelos tanto de la 3070 y cuando salgan de la 6800, puedes usar distill en chrome o similares, eso si no quieres esperar meses, que es cuando se normalizará esto, a no ser que estalle la tercera guerra mundial nucelar o el covid mute y convierta a la peña en caníbales locos, entonces todo será un apocalipsis zombie, a full de gráficos más nítidos que 8k, npcs por todos lados, te ahorras en gráfica, vr, gastarte dinero en lanzamientos bugueados, etc. Haz acopio de alimentos y munición, y papel del culo también, que usando grandes cantidades te puedes forrar el cuerpo a saco y crearte una armadura, para el tema de los mordiscos, lo malo es que algún bandit te dispare con munición incendiaria, o use un mechero y te meta fuego, en ese caso simplemente estás jodido.

Tengo que salir de casa ya :)

1 1 respuesta
fortxu

#1075 Antes de final de año tiene que llegar unos aliens o salir un Godzilla gigante del pacifico. En plan FINAL BOSS del 2020.
Este juego no puede terminar asi...

1
sr_morao

Estoy leyendo que amd no podria usar rt por ejemplo en ciberpunk al tener el rt de nvidia joder k putada

2 respuestas
B

#1077 a lo mejor en la enhaced del año que viene meten parche para que los efectos ray tracing se vean tambien en amds. O quiza meten el parche antes, a saber, aunque no lo esperaria pronto

es lo mas probable, ya que intel y amd van a usar las mismas apis para ray tracing.

JuGuLaToR

Primero que salga el juego, a ver como de optimizado está, y los requisitos para moverlo con calidad gráfica alta. Luego ya si eso se mira lo del RT... Que igual lo enchufas y va el juego a 20 fps xD

1
B

no se, si el juego sale en consolas, no se si con rt de salida, se entiende que en pc para gpus amd tambien lo tendra.

1 1 respuesta

Usuarios habituales