Problema con crossfire

vinilester

Hola gente.
De casualidad probando cosas con el recien adquirido Battlefront, acabo de darme cuenta que desactivando el crossfire me va muchisimo mejor. Tanto como mas del doble de fps.

Hostias. Voy a probar con el BF4.
Tambien mas fps, no tanto como el doble. Llevo toda la "puta vida" jugando al BF4 con crossfire, y resulta que desactivandolo tengo mas fps.
Me rendi en usar mantle porque me daba errores, y a lo mejor era por el puto crossfire. No lo se, porque no lo he probado aun con una sola tarjeta. Solo lo he hecho con DX.

Son 2 R9 280X. De distinta marca, una Gigabyte y una MSI.
Una de las dos funciona el reloj a 1100 y la otra a 1020, pero desde el control de AMD bajo la de 1100 a 1020 para igualarlas.
En teoria no tendria que ser un problema, pero a saber...

Y algo que a lo mejor no le doy importancia, y si la tiene, es la resolucion. Un monitor a 1440 x 900.

Alguien puede echarme un cable para ver algo de luz con este misterio?

Muchas gracias y salu2.

Prava

#1 Indica el resto del equipo y las tasas de frames a las que juegas, para poder comparar.

1 respuesta
vinilester

#2
INTEL CORE I7-2600K 1155 3.4GHZ
GIGABYTE GA-P67A-D3-B3
2 WESTERN DIGITAL 500GB SATA 2 3.5 32 MB
1 Samsung SSD 256
2 KINGSTON. DDR3 4GB 1600 HYPERX CL9
CORSAIR 750W TX (creo, ya no recuerdo si la he cambiado, y si lo hice fue por una similar o mejor. No tengo enfrente la maquina ahora mismo)

Por ejemplo en el BF4, campo de pruebas. Respawn, mirando hacia las dianas. Los graficos en alto mas o menos todo y cossfire activado=145 fps +-
Crossfire desactivado= 165 fps+-

Battlefront. En las misiones en solitario, la primera de batallas creo que se llama Hoth. Bots activados. Desde el respawn. Todo en ultra. Crossfire activado= 55 fps +-
Crossfire desactivado= 140 fps+-

No son cifras exactas ni mucho menos, pero para poder comparar creo que vale.

Las ranuras pci de la placa funcionan a x16 la primera y x4 la segunda. A ver si toda la mierda es por culpa de eso. Si, lo se. La placa es una puta mierda xD

Salu2

1 respuesta
Prava

#3 El problema que tienes es falta de potencia de cpu o baja resolución en relación a los frames que tú mueves. Es decir, cada cpu te permite correr un juego a un máximo de XXX fps, máximo que suele ser independiente de la resolución y calidad gráfica. Este máximo se suele reducir debido al uso de CF, pues éste necesita de un extra de potencia de cpu.

En la práctica esto no suele ser problema, porque generalmente la cpu te limita en 135 fps (ejemplo inventado) pero tu gráfica no da ni 60 fps, así que nunca ves el límite. Al añadir otra gráfica, aumentas a 95 fps mientras bajas el máximo de la cpu a 110 fps. Como jugador tu ves una clara mejoría al poner una segunda gráfica pese a que la cpu te está dando menos rendimiento, pues los límites de cpu no los ves.

Pero todo esto cambia cuando juegas a muy baja resolución (un CF de 280x yo lo recomiendo con mínimo 1080p, resolución que sería un 40% superior a la que usas tú). Aquí las gráficas van sobradas per se, y lo único que haces al poner una adicional es ahogar más todavía a la cpu.

Si quieres comprobarlo es muy sencillo: abre Afterburner (o programa similar para monitorizar las gráficas) y el Administrador de tareas. Asegúrate que ves los gráficos de "utilización" de cpu y de las diferentes gráficas. Abre el juego. Juega un rato, y haz alt+tab y fíjate en la utilización. Deberías tener varios cores de la cpu a fuego (100% de uso) y las gráficas tocándose los cojones (baja utilización), cuando lo que debería ocurrir es que tienes las gráficas al 100% y los cores de cpu siempre por debajo del 80%.

RPV: tienes cuello de botella en la cpu, y posibles problemas CF en Battlefront (causados por drivers al ser un juego nuevo, o por el pci-e x4). No hay solución, salvo que quites una de las gráficas o te compres un monitor como Dios manda y juegues a resoluciones de hoy en día. No sé cómo no te estás quedando ciego con esa resolución, la leche. Seguro que el móvil que usas tiene más resolución xDDDDD

3 2 respuestas
L

sube el i7 a mínimo 4Ghz y la cosa cambiará.

1 respuesta
vinilester

#4 Lo de monitorizar el uso de la cpu y gpu lo tengo bien sencillo porque uso la pantalla del G19 junto con una plantilla que me hice para el aida 64.

Al tener el turbo boost o como se llame, activado, en vez de 4 nucleos lo detecta como 8. Y ahi si que es verdad que nunca me he fijado porque la plantilla que me hice fue para ver las dos graficas y el uso general de la cpu, no por separado cada nucleo.

De hecho el propio plugin del g19 para ver la cpu y la ram solo me muestra un reloj. Si desactivase el turbo boost me marcaria 4 relojes.

Bueno. En resumidas cuentas. Se supone que si me pongo un monitor a 1080 voy a ganar fps con el CF activado, no? Funcionar como deberia, vamos.

#5 Hace un tiempo lo tenia subido, y la verdad es que no recuerdo si me iba mejor o peor porque nunca desactive el CF y basicamente jugaba al BF3 sin problemas de fps.

1 respuesta
S1L3nCe

#4 Creo que me he perdido. Vinilester dice que con crossfire tiene menos fps que usando una sola gráfica. ¿Qué tiene que ver la CPU? No lo pillo

1 respuesta
B

#7 la capacidad de gestionar lo que emite la gráfica supongo.

#1 hace mucho desistió de los cf , ambos sabemos que amd flojea en drivers y sin buenos driver no hay cf, es mucho más eficiente ir a una mono gpu más puente y cara, claro.

2 respuestas
S1L3nCe

#8 Esa explicación me cojea bastante xD Necesito detalles...

2 respuestas
B

#9 jajajajaja , sabía yo que no te valdría XD

1
vinilester

#8 Lo del CF fue algo sin buscarlo. Me cascó una 6970 y eche mano de garantia. Mientras gigabyte me tramitaba el cambio, pues me compre una R9 280x y ya veria lo que hacia con la 6970 que debian enviarme, y sorpresa, Gigabyte me dice que no me puede suministrar la 6970 porque ya no la tienen. Entonces les dije que me diesen una 280, y aceptaron sin ningun problema.
Me encontre con 2 R9 280X.

Y efectivamente, como dices, a mi el puto CF me ha dado mas problemas que otra cosa. No voy a enumerarlos todos. Digamos que este es el ultimo, y muy probablemente fuese el primero pero no me habia percatado de ello.

Ya puestos, un monitor a 1080p que no sea caro?
El hilo de los monitores da como miedo con tantos datos xD

2 respuestas
B

#11 Depende del tamaño y si quieres IPS , a mi el mío de 27 IPS ASUS me costó 250 pero si no quieres IPS por menos de 200 tienes de 27 pulgadas.

L

#9
usamos este flowchart de ejemplo:

La cpu hace este ciclo cada X tiempo.

Hasta que no se llega a "render graphics" la gpu esta en standby, Una vez llega la orden, la GPU renderiza la imagen.

Problema típico del bottleneck: La GPU renderiza la imagen en X y la CPU tarda en hacer el ciclo 2x, esto provoca que la GPU se pase la mitad de su vida sin trabajar mientras que la CPU siempre va "con retraso".

2 1 respuesta
STAN

Da gusto ver como la gente sabe y explica las cosas, de diez.

#1 Ya de paso, yo también necesito un monitor full hd... lo que pasa que lo quiero de 24", más me parece exagerado, si finalmente tiras a por alguno avisa :D.

1 respuesta
B

Presupuesto? #14 #11 yo tengo este y muy contento http://www.pccomponentes.com/benq_xl2411z_24__led_144hz_hdmi_dvi_regulable.html

1 respuesta
S1L3nCe

#13 A ver, yo entiendo lo que es un problema típico de cuello de botella lo que sigo sin entender es por qué el Crossfire ON da menos FPS. Si la CPU es el bottleneck, debería dar los mismos FPS pero no menos, ¿no?

1 respuesta
STAN

#15 Ese se me va un poquito :P Y encontrar uno bueno por 200€ IPS es difícil... He visto estos pero dudo:

http://www.amazon.es/BenQ-EW2440L-Monitor-Panel-eye-care/dp/B00HVCJS8K/ref=sr_1_2?ie=UTF8&qid=1456492102&sr=8-2&keywords=full+hd+24%22

http://www.pccomponentes.com/lg_24mp77hm_p_23_8__led_ips.html

1 respuesta
L

#16 Puede deberse a muchas cosas.

De entrada tiene 2 tarjetas de ensambladores distintos, que aunque lleven el mismo chip, no van ni a la misma frecuencia de mems/clock ni al mismo voltaje ni nada con lo cual no es una situación estable. Estas tienen que ser sincronizadas por la CPU, la cual si ya va con retraso, pues peta aun mas.

Tampoco es ningún secreto que en general el soporte para SLI/CF de los juegos es bastante meh.

Luego su MOBO opera en x16/x4 lo cual no favorece tampoco al CF.

En general son un cumulo de cosas que al ir juntandose van lastrandolo hasta llegar al perfectamente posible (y bastante común) punto en el que el SLI/CF resta rendimiento en vez de darlo.

#17 de monitores, si no quereis nada "raro" rollo 144hz y demas, el que mas os guste esteticamente y os salga mas barato.
En la gama de 100-200€ son todos similares.

1 3 respuestas
STAN

#18 Siempre habrá alguno mejor que otro, no? Cual comprarías tu por unos 200 € máximo y FULL HD? IPS? Thanks.

Por cierto, se aprende bastante con vosotros.

1 respuesta
S1L3nCe

#18 Thx man. Ahora entiendo... los problemas de sincronización CPU/GPU están provocando ese problema de rendimiento.

1 respuesta
vinilester

Esta tarde, ya enfrente del pc, voy comentando cosas.
;)

1 respuesta
B

#21 había un tío en n3d que era mi puto ídolo, tenía una ati y una nvidia para phisic :wow:

1 respuesta
JuGuLaToR

#22 Es una buena forma de reutilizar tarjetas nVidia relativamente antiguas. Siempre que te de igual el gasto extra de corriente claro.

Prava

#6 No es turbo-boost, sino hyperthreading la parte a la que te refieres. Y déjalo activado :)

Y mira el tema del % de utilización de los diferentes cores y las diferentes tarjetas, eso debería darte toda la información necesaria.

Ahora bien, aumentar la resolución no hará que tengas más framerate. Eso hará aumentar la carga de las gráficas, lo que significa que el rendimiento final será inferior (lógicamente). Si has llegado a esa conclusión es que me explico como un libro cerrado en llamas. Lo que tienes que entender es que el CF funciona bien cuando ganas rendimiento al activarlo (mínimo un 50%).

Ejemplo:

Caso actual (1440x900)
No CF = 165 fps
CF = 145 fps

Futurible con mayor resolución (1920x1080)
No CF = 100 fps
CF = 145 fps

Como digo, si el CF funciona bien tienes que incrementar mucho el rendimiento. Pero claro, ganas framerate respecto a la tarjeta sola, pero como aumentas la resolución por cojones tienes menos framerate que antes.

Y el caso del Battlefront pues... o el CF no funciona o hay algo más que te está lastrando. Aumentar la resolución no arreglará absolutamente nada.

#20 No, no es un problema de sincronización. Simplemente cuantas más cosas tienes conectadas al pc, más recursos necesita la cpu para manejarlos. Poner más de XXX sólo te hará mejorar el rendimiento si XXX es el limitante. En este caso quien limita es la cpu, y no la gpu. Así que si pones una gpu extra (lo que significa más carga para la cpu) no es que no mejores rendimiento, es que lo empeoras. Ahora bien, Battlefront es una excepción pues las caídas nunca pueden ser tan grandes.

#19 No me has preguntado a mí, pero yo compraría un Dell. Tienen de largo el mejor stand del mercado, y las mejores opciones de conectividad.

A título personal... compraría un U2515H. Sí, son más de 200€ (bastante más, de hecho), pero esa resolución en ese tamaño de pantalla tiene que verse deliciosamente bien. Esa nitidez... mmmmmmm.

2 4 respuestas
STAN

#24 319 lereles para ser exactos :P

1 respuesta
sPNkKkKkKkKk

Ese monitor lo usan en el dpto de Marketing de mi empresa (dos monitores) y es la polla.

vinilester

#18 En #1 ya puse que el reloj lo bajo para tener las dos iguales. La memoria las dos van igual de serie. Eso si; respecto al voltaje, ahi si que no te puedo decir porque no tengo ni idea.

Pero es lo que dices, y por supuesto, lo de Prava. Empiezas a juntar factores y cuando todos se alinean, pam.

#24 Ok. entendido a la perfeccion. Lo del Battlefront pienso que es el juego, porque en el BF4 no es tan exagerado.

Resumiendo. Me voy a pillar un monitor como Stan porque lo cortes no quita lo valiente y ya es hora de jubilar este que lo tengo ya 10 años xD. desactivar o no el CF va a depender del juego en cuestion.

A ver si le echo un ojo a los nucleos y vuelvo a postear.

#25 El monitor lo voy a comprar en APP. Estoy como tu. Uno sencillo IPS (que no tenia ni zorra de lo que era xD porque solo me empapo de estas cosas cuando voy a comprar algo) Imprescindible conexion DVI. Dudo entre 24 o 27"

1 respuesta
vinilester

#24 Han sido solo unos segundos de juego en el BF4, campo de pruebas. Para comparar me imagino que sobra.

http://i.imgur.com/QEHLUXC.jpg

Igual tenia que haber estado mas tiempo. Espero que te sirva de referencia ;)

PD: Lo de la V del lcd es que la puse en a plantilla. Cosas de frikis xD

1 respuesta
L

#28 nah si, hazle un poco de OC y deberia cambiarte la situacion.

Las pulgadas dependera de ti, pero eso si 24" 1080p y 27" 1440p (2k).

1 1 respuesta
Prava

#27 ¿Monitor sencillo? Pero si el monitor es el nexo de unión entre el ordenador y tú, pedazo de perroflauta. Anda, arráscate un poco las rastas y estírate un poco, judío. Que en el siglo 21 tienes un monitor de cuando ibas a la mili :P

Y haz una foto más en condiciones y no esa mierda, leñe. :psyduck: Se ve justo lo que yo decía, pero cuesta poco hacerla para que se vea más o menos solapadamente la carga de la cpu con la carga de la gpu.

1 1 respuesta

Usuarios habituales