Nvidia GeForce RTX 30 Series - El undervolt es el camino

Si vas a preguntar si te compras X te valdrá con tu PC, aquí tienes tu respuesta:

¿Tienes un procesador de 4 núcleos y 4 hilos, o menos? Es decir, un intel i3 o i5 modelos antiguos
-> Sí, vas a tener que actualizar tu PC
  • A partir de una RTX 2060 / RX 5700 empezarás a tener bottleneck en juegos con alta carga de CPU.

¿Tienes un procesador de 4 núcleos y 8 hilos? i7 6700, 6700k, etc...
-> Vas justo, puedes salvarte pero tienes que ir pensando en actualizar. Tienes varias opción:
  • Si tienes un i7 6700k o 7700k, hacer el máximo overclock que puedas

  • Jugar a 1440p o subir el escalado de resolución

A partir de 6 núcleos no deberías tener ningún problema, quizás los primeros Ryzen serie 1000 sea la excepción.

PD: Si tu procesador es un intel de una generación anterior a la 6th "Skylake", tendrás que actualizar independientemente del procesador.
Un ejemplo de botteleneck: https://www.youtube.com/watch?v=kLkV5yoCUkk
Si tienes dudas, ABRE UN HILO NUEVO.
Si quieres un recomendación para actualizar, entra a este hilo: Guía de componentes

IMPORTANTE
Las reservas de la RTX 3080 empiezan a las 15:00. El enlace debería ser:
NVIDIA RTX 3080


Kabraxis

#1950 Bueno, primero tendremos que ver esas AMD, a lo mejor nos sorprenden quien sabe.

1 respuesta
IchiGoIn

#1951 Ojalá! Pero cada año pasa igual, mucho humo pero después nVidia les pasa la mano por la cara.

LordPython

No sé porque algunos sois tan fanboys... ¿tenéis acciones de la compañia verde?

¿Tanto cuesta esperar un tiempo a las reviews, los benchamarks y a lo que saque la competencia? Para luego tener una decisión informada.

Espero que los early adopters no os comáis "los marcianitos" de la anterior gen.

P.D.: waiting for rtx 3060...

5
-Khaezen

#1941 Ya las mostraron oficialmente hace ya unos dias, no es que se hayan filtrado, de hecho en la web ya aparecen.

1 respuesta
Luciusodin

#1938 mi idea es jugar 4k 60 fps en ultra mínimo juegos tipo wow shadowland, black desert online, cyberpunk, marvel avenger, con 4k 60 fps soy feliz me bastará con r5 3600x a 4,4 ghz con corsair h100i y la rtx 3080? Gracias

1 respuesta
Sust0

Ninguna cpu moderna de más de 4 núcleos va a tener problemas en resoluciones superiores a 1080 con las gráficas de nueva generación. Dejad ya de dar la brasa.

3 1 respuesta
IchiGoIn

#1955 Menudos juegazos ¿no?

B

#1956 Hay CPUs que le sacan ya como un 20% a un 3600 en ciertos juegos a 1440 con una 2080Ti. Con un 1600-2600 + 3080/3090 de cara a una generación que viene con un 8/16 si crees que un 6/6 va a tirar estupendamente a 1440p allá tu.

Este es de un 10%, el primero que he sacado de un post de Arthoid, los hay más heavies y en juegos de ahora, Pon 2560x1080 o 1200p, con un 2600 en un año o dos con una 3090, lo mismo das con unos cuantos que rondan el 30-50%.

1 4 respuestas
nerkaid

#1954 ¿Sí? ¿Donde?

1 respuesta
B

#1958 claro que si, el primero, ahi la diferencia es de un 13% y no es por numero de cores sino por ipc / latencias.

que tengas la gpu en X juegos al 80% no es ningun drama y no está nada mal, en otros se usara al 95% , y en otros al 50%.

otra cosa es comprarse una gpu sobredimensionada en cuanto a precio y tenerla en todos los juegos que juegas al 50% de media.

un 3600 te saca suficientes fps en todos los juegos para que todo sea mas que jugable, y un 3300x tambien. ¿por cuanto tiempo? ya se verá.

1 respuesta
B

#1960 Si tuviera un 3600 NI de coña upgradearía para una 3080, con un 2600 + memorias a 3000-3600 si es a partir de 1440p me lo pensaría bastante., sobre todo si es para un par de juegos que duran unas pocas horas y que no me interesan o que incluso van sobrados con el cuello de botella (o diferencia de rendimiento por el motivo que sea). En una mala metes el DSR al 1.2-1.5 y a tomar por culo XD.

En todo caso esperaría a ver si con la next-gen para si se queda corto, y luego ya si viera que si, me plantearía el upgrade. Con mi 1600 y los problemas que he tenido en mi caso es un si o si de manual.

1 respuesta
Leu

#1961 no entiendo tu post.

Estáis diciendo en serio que con un ryzen 5 3600 puede haber problema con una 3080 really?
https://www.amazon.es/gp/product/B07STGGQ18/ref=ppx_yo_dt_b_asin_title_o02_s00?ie=UTF8&psc=1

1 respuesta
HeXaN

Imagina gastarte 350 € extra para tener 10 FPS más en Far Cry 5 jajajaja.

2
B

#1962 Vas a sacarle menos provecho que con otras CPU, no es algo alarmante, a medio plazo debería de agudizarse más al estandarizarse los 8/16

Sust0

#1958 En qué mundo vives donde el farcry 5 es unidad de medida de nada? Es de no tener ni putísima idea.

Menudo puto cuello de botella, la cpu a la basura. Además los juegos venideros es obvio que van a utilizar PEOR los núcleos de las cpus y los movimientos de AMD e Intel son erróneos al añadir más cores.

2 1 respuesta
HeXaN

Oh, vaya, el cherry picking no vale :O

1
B

#1965 A ver si primero aprendes a leer y comprendes palabras básicas como algunos y luego ya bajas un poquito la prepotencia. ¿Donde he dicho que de media o que incluso compense? Es que ni lo básico. Hay más casos y quien quiera buscar los encontrará, yo paso de perder el tiempo cuando es algo que se ha hablado a lo largo del hilo. Si justo he dicho en el siguiente post que ni de coña cambiaba una CPU así, pero en fin XDDD Y por cierto, eso es 1440p, no 1200p, ni 2560x1080 con un 3090. Hay más resoluciones entre 1080p y 1440p a 16:9.

Exor720

Es verdad que intel te escupe fps que da gusto, pero confio con que a medio plazo - largo plazo valga la pena una cpu ryzen frente a un intel de 9ª generacion o inferior

Sust0
#1958ErlaNtz6:

el primero que he sacado

ayyyy

1 respuesta
Wakkosp

Estoy por renovar mi pc para cuando salgan estas tarjetas! pero estoy rayado con que placa, cual merece la pena calidad precio?

B

#1969

Hay CPUs que le sacan ya como un 20% a un 3600 en ciertos juegos

Literalmente la primera linea del post. Por el primero que he sacado quiero decir el primero que he encontrado porque me da pereza buscar más :hatched_chick: Un 1600 con malas memorias ya es algo más serio, aunque no se si calificaría moderno a un procesador de 4 años.

1 respuesta
Cryoned

nvidia enviando a los reviewers material para que midan con el en las reviews :thinking:

Latency and Display Analysis Tool (LDAT) – used to measure end to end system latency
Power Capture Analysis Tool (PCAT) – used to measure total GPU board power in isolation
FrameView 1.1 – Improved version of FrameView that ties everything together

https://videocardz.com/newz/nvidia-reviewer-kit-ldatpcat-will-make-gpu-testing-more-accurate

1 1 respuesta
B

#1971 hay que tener en cuenta que el % de uso / demanda , de gpu vs % de uso de cpu, con los años, va a ser % superior en cuanto a gpu.

por lo que diferencias que ahora se ven en 1080 o en 1440p, con la misma gpu, dejarán de verse en el futuro, porque los juegos tienden a pedir mas y mas gpu,
piensa un 2500k con su flamante 280x de la epoca, el 2500k guarda el tipo y la gpu solo hace que arrastrarse.

pues con un 4/8 con buen ipc o un 6/12 con mas razon, aguantará % mejor en el futuro que X gpu ahora, las gpu tienen a hacerse viejas antes, por lo que si pillas una buena oferta, no pasa nada pillar una gpu un poco overkill, porque en el futuro te aguantará mejor.

1
squ4r3

#1972 no creo que sea negativo que envíen algo así (mientras no esté trampeado). Lo lamentable es que Nvidia sea la que tenga que mandar eso, y no sea el mínimo exigible para cualquier persona que se considere "analista de hardware".

Vamos, Nvidia haciendo el trabajo de los reviewers.

1 respuesta
Cryoned

#1974 nah es coña xD

steve ya ha dicho que lo primero que hizo es probarlo vs cámaras de 1000fps y con stadia a ver si hacía trampas, y por lo visto no.

This is a testing methodology deep-dive that reviews and analyzes NVIDIA's new LDAT tool for latency testing. Specifically, the tool is meant as an easier-to-use replacement for the traditional high-speed camera system -- but because NVIDIA makes it, and because it can be used to test NVIDIA and competing products, we need to perform first-party validation on its trustworthiness.

Fortunately, this tool can (1) be completely isolated such that it does not have any means of knowing what GPU is installed in the system, and (2) can be validated against standard high-speed camera approaches.

We recently ran a piece where we conducted hundreds of test passes on a 1000FPS camera, and behind-the-scenes, we were also conducting those test passes on LDAT. It qualified. In this piece, we reran recent Google Stadia latency benchmarks (people often call this "input latency," but it's really end-to-end total system latency) in order to verify that LDAT doesn't do anything tricky to cheat data.

In our testing, it appears that LDAT produces clean, untweaked data that is just as reliable as high-speed camera methods, but much faster. Further still, our validation testing in this content shows the impressive accuracy of the "old-school" method of frame counting even with all the many variables in between, like slower refresh rates on some cameras (our previous method used a 240FPS camera, and then we updated to a 1000FPS camera for the CPU comparisons).

2 2 respuestas
PrinceValium

#1975 Me gusta que exista gente tan entusiasta como para hacer esas pruebas.

De todas formas sería muy valiente enviar cacharros trampeados sabiendo la de gente máquina que puede desguazarlos y averiguarlo. Aunque ya me creo todo xD

3 2 respuestas
B

¿RPV del vídeo? 40 minutos, sus muertos.

1 respuesta
Cryoned

#1977 el texto que he puesto.

1 respuesta
B

#1976 aun asi, a pesar de ser tan meticuloso, hay muchisima gente, diria que los que no saben ingles, que lo menosprecian y no lo tienen en cuenta, ponen en duda lo que analiza, incluso creo yo sin haberlo ni visto sus videos.

B

#1978 Coño, pensaba que había usado esos cacharros para medir las latencias y que hacia una comparación con otras GPU rollo benchmark vs AMD u otras series de Nvidia, pero no, son 40 munutos hablando de los cacharros. Hostia puta, que grande XD.

Usuarios habituales