Nvidia GeForce RTX 30 Series - El undervolt es el camino

Si vas a preguntar si te compras X te valdrá con tu PC, aquí tienes tu respuesta:

¿Tienes un procesador de 4 núcleos y 4 hilos, o menos? Es decir, un intel i3 o i5 modelos antiguos
-> Sí, vas a tener que actualizar tu PC
  • A partir de una RTX 2060 / RX 5700 empezarás a tener bottleneck en juegos con alta carga de CPU.

¿Tienes un procesador de 4 núcleos y 8 hilos? i7 6700, 6700k, etc...
-> Vas justo, puedes salvarte pero tienes que ir pensando en actualizar. Tienes varias opción:
  • Si tienes un i7 6700k o 7700k, hacer el máximo overclock que puedas

  • Jugar a 1440p o subir el escalado de resolución

A partir de 6 núcleos no deberías tener ningún problema, quizás los primeros Ryzen serie 1000 sea la excepción.

PD: Si tu procesador es un intel de una generación anterior a la 6th "Skylake", tendrás que actualizar independientemente del procesador.
Un ejemplo de botteleneck: https://www.youtube.com/watch?v=kLkV5yoCUkk
Si tienes dudas, ABRE UN HILO NUEVO.
Si quieres un recomendación para actualizar, entra a este hilo: Guía de componentes

IMPORTANTE
Las reservas de la RTX 3080 empiezan a las 15:00. El enlace debería ser:
NVIDIA RTX 3080


nerkaid

#4374 No lo hagas, ya no es la humedad que se desprenda, es lo contrario, el agua que se condense del ambiente cálido al entrar en contacto contra el vaso frío podría causar algún cortocircuito.

1 respuesta
Leu

#4381 gracias por la primera respuesta seria.
Ya lo he visto, le he abierto la puerta a la torre y he dejado el vaso cerca de la gráfica, en un minuto estaba el vaso chorreando
para meterlo dentro de la torre y cerrar la ventanita no sirve, muy peligroso

2 respuestas
danao

#4373 duda, creo que envían las gomas de colores si las tienes compradas, dicen algo de eso? Por si quieres cambiarla del color rojo

1 respuesta
HeXaN

#4382 Quién se lo iba a imaginar, eh.

5
B

La 3070 parece que esta dando peores mínimos que la 2080Ti en ciertas circunstancias. O hay otro motivo, o la memoria asignada tiene algún tipo de relevancia. Además que ya piden en los requisitos (Legion a 4k) incluso 10gb. Si tuviera que elegir entre una 6800 XT o una 3080 a buen precio no se que haría, estaría bien tener una muestra más grande de juegos. Mientras tanto, toca esperar a los benchs de terceros.

1 respuesta
Overwatch

#4383 Algo de eso leí, pero no le di mucha importancia xD

Kaos

#4382 chorprecha!

#4385 Yo creo que todavía estamos a tiempo de que actualicen juegos y corrijan drivers. De todas formas, teniendo una 2080ti es absurdo hacer el cambio.

1 respuesta
necro_x

#4358 Supongo que estas confundiendo con las versiones Redux que son peores.

Pues yo cambie los ventiladores nzxt que venían con la kraken x62 (para el ryzen 9 3900x) por los noctua y el cambio se nota mucho.
Noctua NF-A14 PWM chromax.Black: https://www.amazon.es/gp/product/B07655KF5C
A bajos rpm consigue ser incluso mejores y eso que no son los modelos especialmente para radiadores/disipadores.

En cuanto pueda voy a cambiar el resto de ventiladores por noctua sin duda. NF-S12A para la caja y NF-A14 para el resto. Lo recomiendo.

1 1 respuesta
Overwatch

#4388 Los noctua son de lo mejor, y ahora ya tienen modelos de color negro, que antes eran de marron feisimo, tengo unos ventiladores por aqui de 12cm de noctua xD

1
B

Del hilo de ResetEra donde se ha hablado de la beta del MSI Afterburner beta:

Need for Speed Payback (3 year old game)
5760x2400 (just below 5k by pixel count) maxed out: 16GB overall VRAM usage, 13GB dedicated process usage

Mass Effect Andromeda (3.5 year old game)
5760x2400 maxed out HDR on: 16GB overall VRAM usage, 11GB dedicated process usage

AC: Syndicate (5 year old game)
5760x2400 Ultra High preset: 14GB overall VRAM usage, 10GB dedicated process usage

AC: Unity (6 year old game)
5760x2400 Ultra High preset: 14GB overall VRAM usage, 10GB dedicated process usage


Well, the big elephant in the room here is that despite the actual process using significantly less VRAM than what is allocated in total at the same time - this total is still allocated meaning that it may actually be used at some point, in some combination of software and user inputs / choices.
So while the process usage number give us some insight into how much VRAM games are actually using as opposed to just allocating it doesn't mean that your system in total would be fine running with just this amount of VRAM.


Doom Eternal, all settings at Ultra Nightmare, 2160p
HDR Off - 8.098 GB used, 9.552 GB allocated
HDR On - 8.262 GB used, 9.589 GB allocated

Watch Dogs Legion, 2160p
8.473 GB (8.660 w/HDR) used, 9.778 GB (9.863 w/HDR) allocated

#4387 No no, yo tenia una 1060, ahora estoy incluso con algo peor XD. Y jugaré a 4k, así que bueno... La duda seguirá ahí y viendo lo de ResetEra pff...

2 respuestas
sPoiLeR

#4390 No me parece mucho consumo de vram para semejantes resoluciones en ultra.

JMorell
1
Tencru

#4380 Te veo un poco alterado, nos tomamos una tila?

Hay un user que estuvo probándola con el watchdog y estaba la gráfica usando los 10gb. Relájate un poco y que cada uno se gaste su dinero en lo que le salga de los huevos como dices.

1 respuesta
ZelD4

#4380 Me encanta tu razonamiento. Por favor no me grites que me dejas traumado.

1 respuesta
Overwatch

#4390 Los que jugamos a 1440p podemos estar tranquilos, ya que esas resoluciones son muy bestias xD

Pero vaya alguno lo hay con monitor 4k, y con una 3080 yo estaría preocupado.

1 respuesta
JMorell

#4380 ¿Quién dice que para jugar a todos los juegos de PC hay que comprarlos de salida? Esto no es PS o Xbox que tienes que meditar lo que quieres comprar y lo que no, en el PC tienes la opción de comprar, de comprar más barato o de descargarlo, lo que prefieras.

Optimus-Prai

#4393 se han puesto solas las caps bro , es como si las juegas en Crysis Remastered... la optimizacion brilla por su ausencia.
#4394 para nada he pretendido gritarte , que grafica tienes ahora?

B

#4395 La cosa es que Legion en algunas mediciones ha salido parecido a 1440p y recomiendan 8gb para 1080p, sin ser next-gen. Si uno no es de los que cambia GPU cada 2 años uff, hasta en 1440p tendría miedito a medio plazo.

Del mismo tio:

Watch Dogs Legion, Ultra presets, RT On, DLSS off, 2160p, FOV 70, BattleEyeLauncher disabled

Limited testing on my part and from what I saw usage was highly variable but between 8-9 GB.

2160p
8.473 GB (8.660 w/HDR) used, 9.778 GB (9.863 w/HDR) allocated
1440p
8.598 GB used, 9.506 GB allocated

https://www.resetera.com/threads/msi-afterburner-can-now-display-per-process-vram.291986/page-3

1 2 respuestas
Prava

#4398 La RTX3080 es un monstruo, pero se mire desde la óptica que se mire tiene poca vram y terminará mordiéndole en el culo. De verdad que no me explico por qué NVIDIA la ha sacado únicamente con 10GB...

4
PoYarko

#4398 Sinceramente, de la misma forma que aguanté con la 1070 hasta ahora a altas tasas de fps a 1080p creo que voy a poder aguantar con la 3080 a 1440p a más de 100 fps, sin "medito" por lo menos mínimo 4 años, y posiblemente más. Y joder, me alegro por AMD de verdad, si hasta estuve a punto de devolver la 3080, pero por el tema del stock no me fio ni un pelo de devolver la gpu que quería por una gpu de amd "posiblemente un poco mejor" dentro de a saber cuánto tiempo y puede que igualmente con sobreprecios por la especulación.

Pero estáis llevando realmente al absurdo la mayoría esta batalla entre amd y nvidia por la vram, y hablo en general y yo también me incluyo que a veces he soltado alguna chorrada gorda, pero esto lo veo calcado a como cuando la batalla de los núcleos de los ryzen frente a intel, escucho los mismos argumentos, que los procesadores de 6 núcleos 12 hilos de intel incluso se iban a quedar cortos frente a los todo poderosos ryzen de 8/16, ya se supone que debería de haber pasado eso y no está ocurriendo, no existen juegos que se vendan al gran público optimizados principalmente para 8 núcleos que dejen completamente lastrado el rendimiento de procesadores de 6 o 4 núcleos incluso...

Solo AMD ha ganado la batalla por los procesadores de momento por superar en fuerza bruta a intel, por muchos nucleos que tengan, porque superar en ipc es lo que más se nota en benchmark en juegos, lo mismo pasa con vram, no hay que ser ingeniero para saber que por mucha vram que tenga amd, el usuario medio comprará y disfrutará antes una gpu si le da más fps a la resolución estandar del momento, en este momento todavía sigue siendo 1080p, y cada vez más 2k, no 4k, y muchísimo menos jugar con 3 o más monitores como en juegos de coches etc. Si AMD muestra en benchmark más fps en la mayoría de escenarios será una buena noticia, pero eso no significará que nvidia se ha hecho el harakiri racaneando con la vram porque a partir del 2022 va a estallar la revolución la vram y todo se jugará en 4k, 8k, con 16 gb de vram y con 12 núcleos 24 hilos...

1 2 respuestas
sPoiLeR

He probado con el gears 5 con undervolt y la gráfica es una bestia, incluso con las texturas especiales ultra, se queda sobre los 130/140fps de manera constante en 1440p.

Desde luego en 4K no ira nada mal, pero creo que aun le quedan unos años para disfrutar bien 4K sea con RT o bien a 144hz. Sin duda 1440p con RT o con opciones variables a 144hz creo que es el objetivo mayoritario.

Deseando probar cyberpunk con todo en ultra.

2 3 respuestas
Liquid-Sam

#4401 Es que 4k en monitores hoy día no lo veo. Mas que nada fuera del panorama gamer, las fuentes y letras son enanas. Vale, que puedes ampliar al 150-200% las fuentes, pero no es lo mismo... No se, imagino que al final todo es acostumbrarse.

1 2 respuestas
danao

#4401 y estamos hablando de 4k siempre pero para 1440p ya hay que dejarse un dinerito, vamos que mucha gente está dando el salto sacando la cartera.

1 respuesta
fortxu

#4402 Yo es que para lo unico que lo veo es para no tener que usar el antiliasing. Porque a 4k 27 pulgadas los pixeles casi no se ven. si juegas en PC tu distancia de monitor al ojo es menor normalmente que una TV.
Yo tengo un 27 pulgadas QHD 165hz y mas grande la pantalla no podria disfrutarla a 75 cm que estoy .ya con 32 pulgadasno sabria ni por donde me disparan las balas

1 respuesta
B

#4400 ¿Al absurdo? Algunos usamos monitores y/o tvs de 4k, y el mismo mes de salida ya hay un par de juegos que prácticamente a colapsado la vram a 1440p en vainilla. Ahora súmale el salto generacional, mods, 4k...

El tema del procesador es más de cara al futuro o al por si acaso, pero aquí hablamos de que ya empieza a ir justa en ciertas situaciones sin existir nada que sea verdaderamente next-gen. Fíjate tu, que pille un 6/12 con tranquilidad y estoy por repetir con el 5600x, sobre todo porque el 8/16 cuesta un 50% más, cuando aquí la opción que se me puede quedar corta y sin esperar demasiado, es la que encima es más cara.

Total que el RT mola bastante, pero en 4k sobre todo si es nativo, sigue siendo más bien inviable.

Si es que además la propia Nvidia saco la 1080Ti hace casi 4 años con más VRAM, lmao.

#4401 ¿Objetivo mayoritario? ¿De quien compra una GPU así? Porque a día de hoy segun las stats de HW el 65% sigue usando un monitor principal de 1080p, ni el 10% usa de principal un 1440. Y esto sin contar el mercado de TVs y monitores secundarios, que ahí es donde bastantes usamos el 4k. 1440p, ultrawide y demás, son resoluciones/monitores nicho incluso a día de hoy por mucho que por aquí no sean tan raras.

También te digo que a mi me da igual lo que use el resto, me preocupo por lo que a mi repercute. Y todo sea dicho, este tipo de HW no es tampoco para mayorías.

3 respuestas
Liquid-Sam

#4404 Eso uso yo xD. 32" 1440p y 144hz. Al principio choca, pero te alejas el monitor a una distancia algo mayor de lo que puedas tener un 27" y te acostumbras. De hecho, de todos los formatos que he usado es el que más me gusta y cómodo estoy.

1
sPoiLeR

#4402 El 4K para ordenadores lo veo complicado si, los monitores actuales que piden miles de euros y al final te sale mejor directamente comprar un oled para 4k@120hz pero ya es para jugar a cierta distancia, 1440p es un buen punto.

#4403 4K es un pastón y no esta muy claro a que rendimiento real, pero por ejemplo un monitor 1440p ya son 350-400, bastante mas viable.

#4405 Si la mayoría usa 1080p, mas aun con razón el objetivo es 1440p porque es el salto logico, el 4K queda relegado para unos pocos. Y luego que la gama media se la han fumado, las nuevas tarjetas de gama alta son tan potentes que te obligan a subir de resolución o ir a 240hz/360hz en 1080p. Pero vamos, quien se compra una 6800 o 3070 en adelante, no va a jugar a 1080p.

Por cierto que hay otra opción que es tener tu pc configurado normal y luego en tu televisión de casa tener un nvidia shield pro. Le puedes lanzar los juegos en 4K@60hz incluso con HDR.

Mejor la ultima versión que aguanta HDR, pero ya veis que el resultado es impresionante para jugar puntualmente a 4K y con mando por ejemplo.

1 1 respuesta
B

#4407 A mi lo que me parece es que es un producto y un planteamiento un tanto hilarante: Te sacan una GPU tope de gama que no va a ir bien en resoluciones top (y a saber si no es solo problemas de esas res a corto-medio plazo). A la vez te sacan y te dan la matraca todo el día con el RT, pero para que funcione en condiciones necesitas una tecnología que empeora la calidad de imagen o si no, te vas a 1080p si quieres res nativa o un frame rate decente. Y así. Me parecería más lógico que abordará hasta 4k porque es el futuro nuevo estándar, la resolución que usan varios monitores y tv top, consolas, etc., Pero eh no, te sacan la 3090 con la idea del 8k, que es 4 veces más 4k y eso si que es nicho de pelotas. Pero que cojones hacen macho XD

Sin más, parece han ido a racanear con la idea de sacar versiones intermedias (ti/s) y pista.

Además que 4k60 requiere menos chicha que 1440p120 y me atrevería a decir que es más habitual tener una TV de esas que un monitor de los otros. El problema es que cuando la VRAM peta todo decae muchísimo.

Interesante lo de la shield, aunque en un principio tendré monitor + tv al lado.

3
ZelD4

Yo personalmente considero que NVIDIA ha pecado de avariciosa y han sacado estos modelos medio añito/año antes de sus versiones con más VRAM ya que tienen total dominancia del mercado.
Lo que no se esperaban es que AMD tuviese una grafica similar a la 3090 (a falta de reviews con rtx, bla bla), les va a pasar factura, y más si siguen con problemas de stock.

4 1 respuesta
fortxu

A mi es que me parece rarisimo que no hayan tenido en cuenta la cantidad de VRAM necesaria para esta generacion. Tiene que haber algun truco que se me pasa. Alguna tecnica de compresion nueva o algo relacionado con lo del ssd I/O ese. Tambien obligara a las desarrolladoras a currarselo bajo amenaza de NVIDIA o de los propios jugadores que se quejaran en los foros

1 respuesta

Usuarios habituales