Nvidia GeForce RTX 40 Series - El precio no tiene límites

256

#8579 no son 8pin+6pin? Si no te arranca seguramente sea cosa de que le falta chicha..

#8580

USB y HDMI con su nomenclatura:
Jensen: Hold my cubata

Asgaya

#8580 "DLSS 3 es DLSS 2 + FG" Si, pero DLSS 2 incluye DLSS version 3.X ya. Mas confuso todavia. Por eso especifique el ".0" despues del 3. Por la version que van ya y no por la nomenclatura. He editado a ver si asi queda mas claro.

Es a proposito? baianomeloesperaba, ct de sabio ya! :upside_down:

Series 4000 : Soportan todo
Series 2000, 3000: Soportan DLSS 2 (version 3.1) pero no DLSS 3 (DLSS 2 (version 3.1) + FG), basicamente lo que no soportan es el FG que es como se tendria que haber llamado a "DLSS 3", a secas.

DLSS version 3.5 sigue siendo "DLSS 2" y de ahi el motivo supongo de que sea compatible con cualquier RTX.

Mas ontoppic, muy bonito el DLSS 3.5 pero si se sigue usando como metodo de optimizacion y no como muleta para equipos modestos, no va a servir de nada. Pero esto no es nada nuevo desde que salio DLSS...

1 1 respuesta
alb3rtpr0

#8579 Qué fuente es? Te debería dar de sobra para una 6700 XT

1 respuesta
vicyos

#8583 una L-link ATX 750W que aunque es una castaña de precio, se supone que debería funcionar ... frustrado después de intentar de todo y actualizar la BIOS me he pillado una Corsair RM White Series RM750... mañana os cuento a ver si era eso al final :clown:

1 respuesta
alb3rtpr0

#8584 La fuente da mucho sida sí, pero de ahí a que ni se inmute al arrancar... No sé. Cuéntanos mañana y salimos de dudas que me tiene intrigado.

1 respuesta
neoline

#8582 pregunta desde la ignorancia, si DLSS3 y FG son en esencla lo mismo, ¿porque hay juegos que te dejan activar los dos? ¿Cual debería usar?

1 1 respuesta
Asgaya

#8586 Porque los juegos de tan a elegir entre DLSS (a secas) y FG. No entre DLSS3 y FG.

DLSS es para cuanto te falta rendimiento y quieres mas FPS y FG es para cuando te sobra rendimiento y quieres mas FPS.

No he probado FG asi que ni idea de como se ve realmente.
DLSS si vas corto de FPS merece la pena depende en que juegos.

1 1 respuesta
neoline

#8587 super bien aclarado, gracias.

1 respuesta
Zheinet

Para un 3600x qué GPU sería recomendable para no tener bottleneck a 1440p? tengo una 2070 super, había mirado la 4060ti pero no veo que vaya a notar mucho la diferencia...

Estuve mirando de upgradear al 5800x3d pero es que está carísimo, casi me compensa más cambiar de plataforma.

Quiero jugar a la expa del cyberpunk y el starfield de una forma más o menos decente, y veo que con la 2070s me voy a quedar corto

1 respuesta
DiVerTiMiX
1 respuesta
Asgaya

#8588 Veras que Nvidia te quiere vender el FG como si fuese tambien para cuando te falta rendimiento, pero se supone que necesitas ir sobrado de FPS para que funcione bien y no añada input lag y artifacts a los frames magicos. Que en ese caso de ir sobrado de FPS, no se porque activarias FG, a no ser que juegues FPS competitivo a 360hz o algo asi.

Huye del FG y de la serie 4000 en general. DLSS si que es util.

1 respuesta
Maverik2

#8590 Bestial..las acciones se han echo casi un 400% desde su punto mas bajo de 2022.

1 respuesta
neoline

#8591 tarde, tengo la 4090 😅
Yo puse el FG hace poco en el Ratchet and Clank para jugar a 120fps a 5120x1440. Se veía bien.

2 respuestas
B

#8589 para un 3600X a QHD dependera del juego.
Si no quieres gastarte la pasta en un 5800x3D, pon un 5600X y listo. Pero si quieres una 4070ti, el 5800x3D ya te dara mejores resultados. Y si es mas de 4070ti, obligatoria

B

#8592 a toro pasado…
Porque yo no me arriesgaria a comprar acciones de Nvidia en 2021 teniendo a AMD e Intel metiendose en el mercado gaming y sabiendo q Nvidia es una usurera y los gamers estamos hasta las narices de Nvidia especialmente desde las crypto.
Pero le salio bien el tema de la IA.
Quiza tambien en el tema gaming, a pesar de que es un timo, porque la competencia no da la talla. Pero mucho menos de lo que podria estar vendiendo realmente.

Eso si, ahora es raro que los gamers no odiemos a Nvidia por usurera. A la minima pierde mercado. Pero a las acciones no les va a importar mucho.

Supongo q el mercado empresarial se baja los pantalones cuando acepta comprar a Nvidia a sabiendo q vende con un 1000% de beneficio
A los gamers no nos estruja mas porque no puede. Pero a los empresarios, les entra por detras y les sale por la boca. Pero si no tienen la IA tampoco ganan dinero, asi que lo que haga falta; supongo.

1 respuesta
G

#8593 En tu opinion asgaya tiene razon ? Huye de la serie 4000 y del dlss ? Su opinion se forma como muchas de aqui de articulos. Pero tu la tienes, opina. Porque al final el hilo se llena de gente que ni las huele y se dedica a repetir lo que han leido.

Directamente ni lo ha probado pero vierte peste, usuario de la serie 3000 detected.

#8595 En que mundo sucede eso ? Porque en el mundo en el que yo vivo Nvidia posee la mayor cuota de ventaja de forma muy amplia, y sus competidores se bajan de la gama alta directamente. Lo que acabas de decir es una chorrada basada en que no te gusta el precio de sus graficas pero si sus graficas por lo cual le das la razon a Nvidia. Dices tantas burradas que obvias que tanto Arabia Saudi como China han hecho el pedido mas grande de tarjetas para IA de toda la historia. Que Nvidia va a estar full fabricando las tarjetas y le importa poco que Jose Mari en la Mancha no pueda comprarse una 4070ti porque esta cara para su salario.
Mas futuro tiene Intel que no sabe ni de que va la pelicula y copia todo lo que puede sin saber que hacer o quizas AMD que esta intentando que le cueste menos y se parezca mas la forma de hacerse las gpus a los socs de consolas ( de lo que viven) .
Y decir que las RTX son cosas de gamers seran las peasants porque las 4080/4090 sirven para mucho mas que para jugar , pero claro eso tambien lo obvias. El dia que la gente como tu se entere que no es un ocio y que las tarjetas hacen algo mas que correr el Crysis os explotara la cabeza.

Por cierto pensar que Nvidia esta cerca del cambio de paradigma para Intel o AMD es ir muy borracho, porque solamente con la integracion de CUDA en todo en el software profesional deja a 10 años a intel y AMD. Pero ojo que a las empresas les preocupa los gamers.

Mira lo que importa los gamers :
https://www.bloomberg.com/news/features/2023-06-15/nvidia-s-ai-chips-power-chatgpt-and-multibillion-dollar-surge
Con esto seguro que nvidia se preocupa que se bajen las graficas para el pueblo. Sois unos cachondos, nvidia doomed jajjaa.

Por cierto sacado de sus chips de IA generativa:

“Además, al desarrollar sus propios chips, buscan proteger sus márgenes a medio plazo, dado el elevado margen que incorporan las GPU de Nvidia. La materia prima utilizada para producir la GPU cuesta cerca de US$13.000, mientras que las GPU H100 se venden por más de US$40.000″.
https://www.bloomberglinea.com/2023/08/21/mas-alla-de-nvidia-y-microsoft-gestora-apunta-al-amplio-impacto-de-la-revolucion-de-la-ia/

Venden las h100 a 40k$ ganandole el triple y crees que tu grafica la fabrican antes que estas para ganar menos margen. Y de aqui que la serie 5000 se vaya lejos en el tiempo para cubrir demanda de fabricacion.

1 respuesta
B

#8596
No pareces haber entendido que te estoy hablando de 2021. No podias saber si intel o AMD se iba a sacar la chorra y iba a hacer algo que le quitara el mercado (y de hecho lo podria haber hecho, porque las graficas Nvidia tienen una misera de VRAM hasta llegar a 4090, pero DLSS tira mucho y ha quedado en que la gente va por Nvidia igualmente y los precios no son lo bastante bajos)

Y yo no soy experto en acciones ni finanzas. Somo hablo desde el lado que ve un consumidor. Para nada podia imaginar que en el sector de empresas se iban a dar tortas por la IA de Nvidia. Al igual q tampoco podia saber q intel solo iria a la gama baja, que tendria problemas de drivers al principio, o si AMD sacaria una dualgpu de 100teraflops y FSR con tensor cores made in AMD. Aunque esto ultimo improbable. En cambio Intel si que me ha sorprendido en ese tema, con su XESS y sus cores que no recuerdo como se llaman. Aun asi no esta a la altura (aun)

Lo dicho. No tengo una bola de cristal.
Y tu o tampoco la tienes, o no tienes dinero para invertir, porque si tan claro lo tenias no se porque no invertiste.

Asgaya

#8593 Bueno, esa es la unica que tiene algo de sentido xD En tu caso evidentemente vas sobrado asi que normal que no veas artifacts con el FG.

No hace falta que te lo diga yo pero super disfruta de la bestia :clint:

1
SpiuK

Please que se me llenan las colas de reporte:

Si tenéis un problema con una grafica AMD que lo os funciona, hilo nuevo o hilo correspondiente.

Si queréis presupuesto de gráficas y demás, lo mismo, al hilo correspondiente.

Tenéis este hilo para hablar cosas no relacionadas a las de este hilo: https://www.mediavida.com/foro/hard-soft/hilo-general-gpus-taberna-pathtracing-upscale-240p-701105

2
vicyos

#8585 Confirmado. Acabo de instalar la nueva fuente y ahora todo perfecto... Por lo que he podido probar, a mí no me arranca si no enchufo los dos huecos de pines de la gráfica (incluso con la nueva fuente)... Aunque la otra fuente tenía los W mínimos, al no ser modulable y solo tener 1 cable de pines... pues imposible.
Gracias por la ayuda!

1 2 respuestas
alb3rtpr0

#8600 Vaya pues de ahí la importancia de tener una buena fuente. Pero no se supone que siempre se ha dicho que los conectores de 8 pines tienen que ir cada uno con un cable separado?

2 respuestas
dvneil

#8600 de toda la vida las gpus con 2 conectores de alimentacion, deben ir conectados ambos. y de cables independientes.

tu antigua fuente , que no llega ni al minimo de fuente mala, es peor que eso, solo tenia 1 conector pci-e

2 1 respuesta
Shaka

#8601 no es algo esencial, pero siempre que se pueda hacer, un cable por conector mejor que mejor.

1 2 respuestas
vicyos

#8602 yo toda la vida he montado gpus con 1 solo conector de alimentación, así que algo que me llevo aprendido!

#8601 #8603 sip! he visto en un video que por seguridad siempre se recomienda enchufarlo con cables independientes (aunque se pueda con 1 solo). Con esta nueva fuente modular lo he podido hacer sin problem!

1 respuesta
Moonlight86

#8603 #8604 No me austeis que mi fuente tenía un cable directo de 600W 12v directo a la 4090, yo no he usado dos cables separados...

1 respuesta
dvneil

#8605 como vas a usar 2 cables? uno a la gpu y otro te lo enchufas en el trasero?

1 respuesta
Moonlight86

#8606 He visto cables que eran como 4 conectores que se convertian en uno y 2x1+2x1, pero el mio era 1 a 1:

1 respuesta
Shaka

#8607 como dije, no pasa nada, puedes hacerlo así, pero hombre si tienes la posibilidad de usar los 2 cables y así dividir la carga entre 2 seguro que mejor.

1 respuesta
Moonlight86

Lo hice asi, porque si te fijas en la imagen:

Era el cable que venia con la fuente ATX 3.0 y pone que era de 600W y la gráfica de 450W y parecia buena idea y suficiente...

1 2 respuestas
ArThoiD

#8609 es correcto

1 1 respuesta

Usuarios habituales