Hilo: Nvidia RTX3000, "Ampere" (Rumores)

B

Aparte de que se carga el concepto de gamas y evolución tecnológica.

Es como si vas a comprar smartphone de gama-media y tienes un presupuesto de 250€ luego resulta que gama-media vale 700€, no tiene ningún sentido dividirlo en gama, si no se respeta un rango de precio.

Y se pierde el concepto de evolucion, porque parte de la gracia que la tecnológia evolucione es que te ofrezca mejores prestaciones igual o menos dinero, como el internet que pagas lo mismos por mas ancho de banda mientras las conexiones van mejorando.

1
-Crusher-

Buenos tiempos cuando compre mi gtx 970 g1 por 365 €, la verdad que los precios de las gráficas hoy en día son de risa y cada serie nueva van a peor

3 3 respuestas
Cryoned

a estas alturas me veo la 3070 a 650€ y llegando como mucho a la 2080

1
-Orb-

#512
Yo creo que la 970 fue la mejor compra calidad/precio en años, ahora por ese precio no te llega ni a las *060, es completamente ridículo a lo que va esto.

4 2 respuestas
Killshen

#514 670 4gb creo que fue mejor.

B

La minería fue el punto que despertó la avaricia.

Aunque yo tengo entendido que Turing le fue bastante mal comparado con pascal.

mxz239

Flipo con los que sueltan cosas tipo "estoy deseando que AMD haga bien su trabajo para poder comprar una 3070 por 500€"

Osea, que no se os ocurre mejor idea que seguir respaldando a una empresa que cada generación está subiendo más los precios de las gráficas, incluso cuando la competencia tiene un producto no solo aceptable, sino lo bastante bueno como para hacer que Nvidia baje precios.

Tenéis lo que os merecéis, ni mas ni menos.

3 1 respuesta
Killshen

#517 madre mía tus lloros , somos libres de preferir Nvidia después de años y años funcionando bien y sin problemas. Cosa que AMD no puede decir.
Obviamente que prefiero Nvidia y solo quiero a AMD para que saque algo decente y fuerce a la bajada de precio.

1 1 respuesta
mxz239

#518 Y tan perfectamente libre que eres, después no protestes cuando tengas que pagar 600€ por una 3070.

Obviamente que prefiero Nvidia y solo quiero a AMD para que saque algo decente y fuerce a la bajada de precio.

Nvidiadrone spotted?

1 1 respuesta
Killshen

#519 yo no me quejo , pero si me puede salir más barato , mejor.
Voy a ir del tirón a la 3080ti , a sabiendas de que va a costar +1000e seguramente.

Y si , aunque luego sea un 10/15% mejor q la mejor AMD valiendo 300e más , la comprare.

Quien quiera calidad / precio que compre AMD , pero quién quiera el máximo de potencia y que le dure me da a mí que va a tirar por NVIDIA.

Carcinoma

Yo los precios me los espero altos, como mínimo absoluto igual de altos que las homólogas de la serie 2000. Lo que me decepciona es el consumo tan altísimo que van a tener estas nuevas gráficas. Pasar de los 250W de la 2080Ti a los hipotéticos 320W de la 3080/Ti/Super me parece una burrada. Comprendo que el aumento de memoria y frecuencias se tiene que pagar de alguna manera, pero me esperaba bastante más eficiencia energética.

2 1 respuesta
Nailu

#512 yo sigo con ella, gears tactics, battlefront 2..los juego aún e ultra. A 1080p eso sí. 350€ me costo hará 5 años creo

2
wHiTefOx

pero como coño van a poner esos ultimos precios el mismo año que sacan las consolas? es pegarse un tiro en el pie, no creo que sean tan caras, que va hombre

1 respuesta
EspY

#523 Pero has visto la conferencia de Sony que he visto yo? XD

1 respuesta
wHiTefOx

#524 supongo que sí xD que tiene que ver eso en la guerra de precios de nvida vs amd vs consolas? no te sigo

1 respuesta
EspY

#525 Pues que por ahora mucho teraflop mucho rinde como una 2070S pero no se ha visto nada que lo demuestre... A ver si no va a ser tan la polla y NVIDIA sigue poniendo los precios que le sale de los cojones... no se, ya veremos.

AurumCu

Yo también espero que la nueva gen de consolas tenga algún impacto en los precios de las graficas, pero viéndo cómo se suele enquistar NVIDIA lo dudo mucho.

B

#482 Lo mismo pasó con las CPU no?

W0rd

#514 pfff sin duda la mejor, calidad precio perfecta

zoeshadow

Creo que lo único que puede bajar el precio de las gráficas es la nueva generación de AMD, si consiguen ir cara a cara con la 3080 por 600€ pueden reventar el mercado

(Hablo +/-5% performance respecto a 3080, no más)

Kabraxis

Yo quería actualizar mi vieja 1060 6gb y no se si pillar una 2070 o esperar a la 3070.

necro_x

#521 La 1080 ti alcanza los 300/330w (2025mhz) sin problemas. Es normal que las nuevas consuman mucho mas.
---
Si es verdad esos los precios, los veo hasta baratos. Por que? Van a traer muchas cosas nuevas y sobre todo para creadores.
Tened en cuenta que la gama baja a ido evolucionando tanto (sobre todo por el empeño del 4k 60fps) que su exigencia a subido convirtiéndose lo que hoy en día seria gama media/alta. Y como dije antes, no solo en juegos si no para creadores de todo tipo de contenido.
Por ejemplo a mi la 1080 ti se quedo corto hace ya +3 años y este salto va venir genial.

Es la evolución correcta. Nos dolerá los bolsillos? Pues si, pero es lógico y el erre que erre de quererlo todo a 4k, rt.. a pasos forzados.

2 respuestas
Carcinoma

#532 No es lo normal. La 2080 tiene el mismo o mayor rendimiento que una 1080Ti (más RT) y no llega ni a 300W con oc. Eso es eficiencia energética, y en cada generación deberíamos verla si no hablamos de refritos.

Estas nuevas se van a poner en casi 400W con overclock, y eso es bastante gordo. Veremos si finalmente lo justifican con raster, y no solo con RT.

1 respuesta
KarlosWins

.

Prava
#532necro_x:

La 1080 ti alcanza los 300/330w (2025mhz) sin problemas. Es normal que las nuevas consuman mucho mas.

No, no es normal. Aparentemente no puedes certificar con facilidad una gráfica de más de 300W, motivo por el cual es raro que una gráfica, al menos el modelo vanilla, supere los 300W.

1 respuesta
LoTioN

Nuevo rumor, posible coprocesador para mejorar el RT.

https://wccftech.com/nvidia-traversal-coprocessor-rtx-3090-gpu/

1 respuesta
Cryoned

tiemblo en microstuttering xD

Carcinoma

Lo más interesante de ese rumor es la posibilidad de lanzar tarjetas dedicadas exclusivamente a RT, abaratando los precios para los usuarios que no estén interesados en esta tecnología.

Pero parece un rumor muy rumor, la verdad. Esa disposición parece una patata demasiado caliente para los third party.

HeXaN

Oh, no, PhysX vuelve.

3
B

#536

Hacer una segunda GPU no es barata.

El Hardware dedicado para Ray Tracing no es una unidad que procesa completa dicha tecnica, ya que se necesita las ALU FP32(cudas core) tradicionales de la GPU:

  • RT core interceptan el golpe del rayo y lo devuelven a los Cudas core para sombrearlo y mostrarlo en pantalla.

Un chip dedicado solo con RT cores debe ser complicado tendria que se una GPU completa(cara) o un chip solo con RT core pero conecta a la GPU principal para utilizar sus Cudas core, pero a esto no lo veo ventaja:

  • Primero la ventaja de tener un chip separado es liberar a la GPU principal y esta caso no lo haria seguiría igual sólo que los RT core fuera de la GPU.

  • En espacio los RT core ya ocupan poco no le vería mucho sentido sacarlos de la GPU por espacio, al menos que Nvidia tenga pensado meterlos a lo bestia en cantidad .

Pero bueno yo no lo veo muy posible dividir los RT core en otro chip, pero a saber puede que al final se cierto.

1
Tema cerrado

Usuarios habituales