Nvidia GeForce RTX 30 Series - El undervolt es el camino

Si vas a preguntar si te compras X te valdrá con tu PC, aquí tienes tu respuesta:

¿Tienes un procesador de 4 núcleos y 4 hilos, o menos? Es decir, un intel i3 o i5 modelos antiguos
-> Sí, vas a tener que actualizar tu PC
  • A partir de una RTX 2060 / RX 5700 empezarás a tener bottleneck en juegos con alta carga de CPU.

¿Tienes un procesador de 4 núcleos y 8 hilos? i7 6700, 6700k, etc...
-> Vas justo, puedes salvarte pero tienes que ir pensando en actualizar. Tienes varias opción:
  • Si tienes un i7 6700k o 7700k, hacer el máximo overclock que puedas

  • Jugar a 1440p o subir el escalado de resolución

A partir de 6 núcleos no deberías tener ningún problema, quizás los primeros Ryzen serie 1000 sea la excepción.

PD: Si tu procesador es un intel de una generación anterior a la 6th "Skylake", tendrás que actualizar independientemente del procesador.
Un ejemplo de botteleneck: https://www.youtube.com/watch?v=kLkV5yoCUkk
Si tienes dudas, ABRE UN HILO NUEVO.
Si quieres un recomendación para actualizar, entra a este hilo: Guía de componentes

IMPORTANTE
Las reservas de la RTX 3080 empiezan a las 15:00. El enlace debería ser:
NVIDIA RTX 3080


BLZKZ

#2069 eso son minucias

Aquí sabemos que las cosas se compran para lucir, no para usar

#2070 salsear hombre que hay que hacer tiempo hasta el 14

B

#2065 El tema es que no tenemos ni idea de los requisitos que tendrá la nueva gen en cuanto a VRAM.
Te doy la razón en cuanto a que la potencia bruta siempre va a sufrir antes de tragar stutters por temas de VRAM, pero para quien tenga pensado alargar la gráfica le puede suponer un problema.

Y no se sabe si el problema ocurrirá solamente con resoluciones 4K, o menores, el programador de ID Software mencionó que los 8GB serán la base mínima para la next gen, incluso a resoluciones inferiores a 4K.

Joder, que la 3060 super tenía 8GB, la 1070 del 2016 tenía 8GB. 8GB en la 3070 en 2020 a 520+€ me parece una racaneada de cojones.

1 respuesta
B

#2058 ¿Insinuas que va a durar 10 años? No si a mi no me preocupa la vram lo digo por vosotros. Yo voy a quedarme en 1080 o 2k con una 3070 bastante tiempo más.

Pero como la next gen empiece a pedir pronto más de 10gb para 4k ultra pues gg.

Overwatch

#2063 Cuando salen los posts en mediavida de cuanto dinero tienes, parece que la mayoría tiene más de 100.000 en el banco xDDD

Yo opino igual, si te compras algo caro, en este caso cualquiera de las 3 RTX anunciadas son carillas, pero bueno la 3070 tiene un precio más aceptable que la mayoria de la gente podría pagar sin problemas.

Aunque probablemente la RTX 3060 cuando la anuncien si sale por 300€ será la gráfica más vendida.
Si no me equivoco, la gtx 1060 fue de las más vendidas estos ultimos años.

Aunque ahora mismo calidad/precio parece que es la RTX 3080 por 719€

ArThoiD

#2072 Todas esas tenían 8 GB pero con diferentes tecnologías, más o menos velocidad, etc....

La 3080 lleva GDDR6X, repito, y todo cristo lo está ignorando. Ah, y son 10 GB. No 8, 10. La 3070 es otro asunto.

Ninguno os habéis leído el artículo que puse, obviamente. Ahí también comparan la 1060 con la 2060, con la misma cantidad de RAM pero distintas velocidades. Oh, sorpresa, la 1060, al ser más lenta, usa algo más de VRAM, aunque no mucha y sólo en algunos juegos (en los que realmente parece que la memoria asignada es memoria en uso, casualidad...), pero tiene todo el sentido del mundo.

2 respuestas
flowerone

Buenas, ahora mismo tengo un ryzen 5 1600 y una 1070 ti y me estoy planteando hacer algún cambio, ¿creéis que aparte del procesador (subiría a un 5 3600) me merecerá la pena cambiar la gráfica por una 3070?
La verdad es que todo esto es pensando en el Cyberpunk. jajaja.

1 respuesta
B

#2076 Por lo que he leído, si

B

#2075 Yo me refiero a la 3070. La 3080 va sobrada a corto medio plazo sin problema. La 3070 tiene 8GB que no son ni DDR6X, son DDR6, lo mismo que la 3060S a 350€. Ambas con bus de 256-bit y 448GB/s.
Y sí la 1070 era DDR5, pero solo faltaría, que en 4 años no haya mejorado nada en cuanto a memorias.

Que si tienen la 3070ti/S con 16GB preparada es que no les supone prácticamente ningún problema subir la VRAM. Porque como saquen la 70TI/S cerca de los 600€ sin ninguna mejora de rendimiento no tendría ningún sentido comparándola frente a la 3080 y saldría DOA.

koalas

Vosotros estais agilipollaos con el 4k de los cojones

Si decis que 1440 144fps pues vale os lo compro como dicen algunos pero 4k? Jajajaaja acostaros ya hombre.

1 1 respuesta
HeXaN

#2079 Y tú atascado en 1080p como un pobre jajaja.

4 1 respuesta
koalas

#2080 almenos juego a 144fps con todo en ultra y no tengo problemas de vram ni mierdas varias que discutis por aqui.

Y todo eso con una 2080 y voy disfrutando de los juegos a tope.

Almenos podrias sacar alguna conclusion de porque deberia de saltar yo a 4k...

1 respuesta
sPoiLeR

#2075 Es que es eso, estamos mirando capacidad sin mas, pero hay que ver la velocidad de esa VRAM que es lo más rapido que hay ahora mismo y el ancho de banda. Yo creo que los 10gb de vram para la 3080 van a ir mas que sobrados para su vida útil.

Y luego hay mas variables, ¿que pasaría si se llenase la vram? Posiblemente las texturas mas tochas igual ni se cargan pero tienes variables como el pcie 4.0, la velocidad del ssd (nmve gen 4), la velocidad de la ram..Al final esa limitación saltaría a otro componente posiblemente.

En la de 3070 aun se podría dudar, al no ser GDDR6X pero la 3080 esta muy claro.

Carcinoma

#2081 Eso si quieres puedes preguntárselo a Nvidia, que en la presentación usó varias slides del rendimiento de la 3080 a 4K.

Estamos hablando de 800€ del ala, que a veces se os olvida. Y sí, ya está enfocada a 4K. Y como tal será juzgada.

1 respuesta
B

Que diferencia hay entre 1440p y 4k a la hora de jugar? Yo tengo uno de 1080p 144hz y otro de 1440p 144hz y en ambos no veo una gran diferencia grafica. Tanto se nota el 4k para que valga la pena lo tanto que vale de mas para poder jugarlo?

1 respuesta
koalas

#2083 si yo no digo que no, pero que parece que solo hay que usar esa grafica para 4k si o si... pero tampoco pasa nada si jugais a 1440p

richmonde

#2084 Hombre... normal que no veas diferencia grafica. Porque cada monitor esta renderizando a la resolución óptima.

21-24'1080p144 Perfect
21-24'1440p144 OK (Overkill)
21-24'2160p144 Existe? (Overkill)

27-32'1080p144 SIDA
27-32'1440p144 Perfect en 27, OK en 32

27-32'1440p144 Overkill en 27 (no se aprecia la diferencia)
27-32'2160p144 Perfect en 32 (y dudo que se aprecie la diferencia)

Por otro lado... 32 pulgadas de pantalla(s) a menos de 1m ni cotiza, no tienes visión periférica, acabas como un subnormal moviendo el cuello.
Sin contar que realmente, eso solo le sacas partido a juegos de simulación, o fast-paced shooters donde el campo de visión es super determinante.
Pero en RTS, Roleplaying y demás? Non-sense.

2 respuestas
IchiGoIn

El 4k es el engañabobos de los consoleros, en PC vamos más que bien a 2k@144fps, ya quisieran los que se compran una mierda consola poder jugar como se juega en un PC, y lo más importante, a lo que se juega.

1 1 respuesta
B

#2086 Yo es que tengo 2 monitores con su respectiva resolucion nativa. Uno es de 24" 1080p a 144hz y el otro es uno de 27" 1440p de resolucion 144hz y cuando juego en ambos (tengo 2 pcs) y no veo gran diferencia. Tambien mi vista es pesima, eso tambien es verdad xD

2 respuestas
ManKorR

#2088 puedes preguntárselo a @ArThoiD a ver si estás ciego o no

1
BlackBeasT

#2087 Que juegas haciendo el pino? El 2k es el engañabobos de los plebs que solo se pueden permitir una grafica cada 6 años,los que jugamos a todo valoramos el producto en si y lo que nos ofrece cada cosa y que digas que las discursiones estas son de consoleros en el hilo de una grafica xDD Vaya complejo me llevas.

A mi que te vicies al lol,csgo y al wow a 2k 144fps no me da ninguna envidia ni a mi ni a nadie.

1 respuesta
mollo85

1440p/144hz it,s the sweet spot

5
IchiGoIn

#2090 No, no juego a ninguna de esas mierdas, hay cosas mucho mejores. Y sí, el 2k@144fps es bastante la polla la verdad.

1 respuesta
HeXaN

#2092 2K es 1080p.

4
eondev

mkenudos pobres peleandose por fullhd

bZZ

Cada vez que alguien pone "2K" refiriéndose a 2560x1440p, Dios mata a un gatito.
¿Queréis que se extingan o algo?

8 1 respuesta
mollo85
3
vene-nemesis

2K

El cuello de botella!

Mi procesador es de hace un mes lo cambio?

12 1 respuesta
bZZ

#2097 Te falta "¿Mi fuente de 1200w 80 Platinum Plus aguantará la 3070?"

3
Veinx

Yo tengo 2 monitores, uno de 27' 4k y otro de 27' qhd 144hz. Al que le doy mas uso es al de 4k, el de 144hz lo uso solo para fps online.

Prefiero 27' 2160p a uno de 27' 1440p, principalmente porque para trabajar y jugar juegos no competitivos es una puta delicia. Un monitor qhd de 32' tiene la misma densidad de pixeles, mismo dot pitch, que un monitor 24' 1080p, a un brazo de distancia de la pantalla se nota una burrada los pixeles y la rejilla. Lo ideal para jugar es 27' qhd 144hz hoy dia, pero 27' 4k es una gozada también para jugar con tanta nitidez.
Dentro unos años los monitores 4k 144hz serán el estándar, aun están carillos.

1 1 respuesta
B

Si vas a estirar la GPU no veo del todo disparatado lo que ha hecho #2024 . Más barata, casi el doble un 40% más de VRAM que una 3070 y la tiene un mes antes. Hace un momento algunos que lo criticáis decíais que vaya problema la VRAM, que ya si eso vendeis las 70/80 y pillais los modelos Ti/Super. El también puede hacer lo mismo y dar el salto a las "buenas" o directamente aguantar un tiempo sin los problemas que puede tener alguien que ha pillado una 70. Sinceramente la única opción que veo de verdad interesante dentro de las nuevas es la 80 y si se te va de presupuesto, no te da la fuente o lo que sea, pues mira.

#2086
21-24'1080p144 Perfect
27-32'1440p144 Perfect en 27, OK en 32

Esto... 32@1440, que en realidad son 31.5", tiene ligeramente mejor pixelización que un 24@1080. 32" a 90 y muevo 0 el cuello, con movimientos oculares vas sobradisímo. Para RTS y juegos en vista isometrica/cenital ni me es desagradable ni me es ventajoso, para más control te pones una res a 21:9 si quieres y más o menos se queda en lo equivalente a un 29" con lo que tienes un extra en fov horizontal.

#2088 Entonces es de cajón, no malgastes recursos y usa un 24" 1080p o incluso un 27" 1080p. Si en el 27" notas que si pierdes calidad, alejalo un pelin. Tambien podrías probar un 31.5" algún día.

1 respuesta

Usuarios habituales