Xbox One vs PS4 - Análisis de specs

ice_wolf

He leido un articulo en EOL de radastan que me ha parecido bastante bueno y objetivo le hago un copy paste para que entendamos un poco las diferencias entre xbox one y PS4:

Bien, voy a tratar de aclarar un poco algunas cosas que he visto en comentarios y que no son del todo ciertas respecto a las comparaciones PS4 - XboxOne.

Ante todo lo dejo bien claro: PS4 tiene más potencia bruta que Xbox One, los números no engañan, pero no es oro todo lo que reluce y es eso lo que vamos a ver aquí.

En segundo lugar otra aclaración: tratar de comparar Xbox One con PS4 es tarea de chinos, su arquitectura se parece a la competencia lo mismo que una salchicha a una manzana, ambas se comen pero ahí acaba el parecido. Y del PC ni hablo, puedes comparar Fillrate y cosas similares, pero el resto es totalmente distinto.

Pero vamos al grano, empezando por el copy & paste que tanto se ha usado en plan "berrido" sin saber ni de lo que se habla:

PS4: 1152 Shaders
Xbone: 768 Shaders

PS4: 72 Texture units
Xbone: 48 Texture units

PS4: 32 ROPS
Xbone: 16 ROPS

Esto es totalmente correcto, los números son esos y no se engaña a nadie, pero hay varios matices que se omiten de forma intencionada cada vez que se menciona esta comparativa:

1) PS4 no usa su GPU al 100% para gráficos. Al ser su arquitectura mucho más simple se emplea parte de la GPU para otras tareas, por lo que esos números dantescos se verán reducidos en la práctica. Por citar un ejemplo: PS4 sólo tiene un DSP para audio, todos los efectos se deben realizar en la GPU, y en Xbox 360 por citar un ejemplo se tragaba el 30-40% de la potencia de la CPU en algunos casos. No sabemos que merma va a suponer en la GPU, pero la habrá. Aún así yo apuesto que la GPU de PS4 seguirá siendo más potente que la de Xbox One.

2) PS4 no tiene eSRAM. En esa comparativa falta algo tipo:

PS4: 0 eSRAM
Xbone: 32 MB eSRAM

La eSRAM no es un adorno, es un elemento fundamental de Xbox One. Toda la arquitectura de la GPU se ha realizado entorno a ella.

La eSRAM

Xbox 360 montaba 10 MB de eDRAM, las cuales permitieron meter el buffer Z (profundidad), y algunos juegos aprovecharon esa memoria para otros buffer más.

La eSRAM tiene muchísimas aplicaciones si se sabe emplear, y libera a la GPU de mucho trabajo. Ahora hablamos de más del doble de eSRAM (antes eDRAM, más lenta), con posibilidad de lectura y escritura simultáneas (en Xbox 360 sólo tenía escritura), y un ancho de banda muy superior (100 GB/s en lectura + 100 GB/s en escritura).

La idea de Microsoft es usar la eSRAM para acelerar de forma exponencial ciertas características de las Direct X, sobre todo las referidas a megatexturas. Xbox One puede usar tiles de texturas sin intervención de la GPU, usando la eSRAM y las unidades MMU que posee. Es decir, puede usar texturas del tamaño que le venga en gana sin que la GPU se entere.

Que si, que la eSRAM no deja de ser una memoria para hacer caché de buffers y texturas... pero evidentemente esas chaché palían mucho la velocidad del acceso a memoria, al igual que permiten trabajar con las megatexturas de forma transparente.

En PS4 la GPU tendrá que dedicar parte de su potencia a ello, nuevamente los números no son del todo reales.

Procesadores adicionales

Mucho se ha hablado de la compresión y descompresión de vídeo en Xbox One a través de procesadores dedicados, pero siempre se omite que PS4 también los incluye. Es decir, en ese aspecto ambas son exactamente iguales. No hay ventaja de una sobre la otra.

Los MMU son unidades de movimiento de memoria, Xbox One tiene estas unidades pensando en la función de "tiled resources" (las megatexturas), ya que podemos trabajar con las texturas sin emplear CPU o GPU. No dejan de ser DMAs con funciones extra, pero es que precisamente eso es lo que se necesita para acelerar lo que se quiere.

El sonido es otro tema aparte, nada que ver con la Xbox 360 o el DSP sencillo que monta PS4. Cierto es que no se emplea al 100% para generar sonido, porque se usa también para acelerar el reconocimiento de audio de Kinect (y que no use CPU), pero aún así estamos hablando de 100 canales de sonido todos ellos con efectos (PS4 tiene que realizar los efectos a golpe de GPU).

Hay más procesadores, pero si os soy franco la mayoría son de cosas adicionales que no están del todo explicadas o se sabe perfectamente su función (soy ingeniero electrónico, pero no hago SOCs).

Arquitectura general

Llegados a este punto hay que mencionar el jaleo de buses que hay en el SOC de la Xbox One. Todos ellos están enfocados a un objetivo: quitar cuellos de botella y que la información fluya de forma ligera y coherente entre las distintas partes del SOC.

El acceso a memoria es muy bruto, mucho más que en PC, pero inferior en teoría a la que tiene PS4 con su GDDR5. Nuevamente hay que matizar el asunto: PS4 tiene más GB/s a lo bruto pero ni se menciona la caché interna ni tampoco la latencia. No puedo hablar por PS4 porque no sabemos la latencia final ni toda la caché que monta, pero en Xbox One hay cachés por todas partes, y en mayor cantidad que PS4 (por lo poco que se sabe, repito). Eso se traduce en que cada área del SOC va a tener muchas papeletas de evitar tiempos muertos de espera, que se producen cuando quieres procesar datos pero tienes que esperar al BUS.

PS4 simplemente se ha basado en GDDR5, ideal para la GPU pero ineficiente para la CPU. Por ello no requiere eSRAM (los buffers y texturas se acceden directamente desde GDDR5) pero al no disponer de los coprocesadores adicionales de Xbox One lo tendrá que hacer todo a golpe de CPU o GPU (por eso me refiero a potencia bruta).

La CPU de la Xbox One sobre el papel es mucho más potente que la de PS4, aquí se invierten los papeles, ya que Microsoft ha escogido unos núcleos mejorados respecto a la competencia y les ha dado más chaché y mejor acceso a la memoria.

Resumiendo

Sony ha tirado por la potencia bruta, si, pero su GPU tendrá que dedicarse en parte a muchas funciones que en Xbox One se van a realizar de forma independiente. Ya no está tan claro ese 50% más de potencia de la GPU de PS4, aunque tampoco creo que se vayan a igualar (el fillrate de PS4 es una barbaridad al lado de la de Xbox One, 25.6 Gpixels/sec vs 13.8 Gpixels/sec).

La diferencia entre PS4 y Xbox One es que PS4 es un SOC semicustom (uno de PC con algunos cambios) mientras que Xbox One es full custom (no tiene nada que ver con uno de PC). Digo esto para que quede bien claro que el rendimiento de Xbox One no se sabrá hasta que veamos los juegos.

Meteros en la cabeza que no se puede comparar la GPU de Xbox One con la de PS4 o la que montan las gráficas de PC, porque Xbox One no se basa en GPU para muchísimas cosas y está pensada para funcionar entorno a la eSRAM. Es una filosofía diferente, que sólo la realidad de los juegos nos dirá su verdaderos potencial.

Aún así, repito por enésima vez, PS4 parece estar por encima de Xbox One a nivel gráfico, pero es totalmente absurdo decir cuanto.

De regalo una imagen que os resume la arquitectura de Xbox One de forma simple. Es anterior a todo lo revelado ayer, así que algunas cosas han variado (velocidades de buses y otras cosas), pero os puede hacer una idea de cuan diferente es Xbox One de otras arquitecturas:

La nube

Os dejo de regalo una reflexión sobre la nube.

Microsoft no va mejorar los gráficos de la consola con la nube, es técnicamente imposible, pero si va a poder conseguir mejorar los gráficos de forma indirecta en ciertos juegos o que parezcan más bestias con un poco de inteligencia.

La nube significa servidores dedicados, sólo eso, potencia para juegos online.

Cuando se usa un servidor dedicado para partidas online reducimos el lag, aumentamos el número de jugadores por partida, y hacemos que la consola que inicia la partida no tenga que gastar parte de sus recursos a hacer de servidor. Es decir, mejoramos la experiencia.

Pero de igual forma que un servidor comunica lo que hacen otros jugadores también puede hacer lo mismo con la IA. Es decir, en un juego como Forza puede aprender la forma de conducir de tus amigos y convertirlas en IA mucho más reales que además se ejecutan de forma remota en los servidores de Microsoft (la consola no gasta CPU en IA). Es decir, podemos liberar parte de la CPU de calcular lo que hace la IA y de paso mejorar esta área (un servidor es muchísimo más potente que una consola).

Otra cosa que puede mejorarse es la física, hasta cierto punto, ya que no suele requerir mucho nacho de banda pero si tiene un costo considerable de GPU.

Es decir, no se pueden mejorar los gráficos por el "poder de la nube", pero al liberarse mucho trabajo de la CPU y de la GPU (IA y físicas) puede volcarse esa potencia extra en mejorar los gráficos.

No obstante yo no soy partidario de esta solución por un motivo: sin conexión a Internet no tienes NADA, y si llega el día en que el juego deja de tener soporte... ¿te quedas sin juego aunque lo tengas en formato físico? ¿deberás jugar con peores gráficos?

Quedaros con la arquitectura de Xbox One y no confiéis en la nube salvo para juegos online.

Fuente: http://www.elotrolado.net/hilo_xbox-one-vs-ps4-analisis-de-specs_1928271

3
Jcm_jonathan

resumen las 2 son lo mismo...

1 1 respuesta
Rafyelzz

#2 Diría que el resumen es todo lo contrario. Son tan distintas que comparar specs es absurdo.

HG_Tevez

Elije la que mas te guste, y olvidate de cual es mejor o peor

3 1 respuesta
centu

Microsoft no va mejorar los gráficos de la consola con la nube, es técnicamente imposible

Hay usuarios en esta pagina que no se creen esa mentira.

3 1 respuesta
Wululu

#4 Hay gente que por algun tipo de razon son incapaces de hacer eso, necesitan soltar bilis en internet para suplir carencias de su vida real :(

alejo

1) PS4 no usa su GPU al 100% para gráficos. Al ser su arquitectura mucho más simple se emplea parte de la GPU para otras tareas

Y tras la conclusión deje de leer...

Claro, entre otras cosas para GPGPU, hUMA y demás, cosas que por ejemplo One debido a la famosa Ram embebida seguramente no podrá sacar provecho, o tendrá que tirar de trucos y curro para ello. Aventurar hasta un 40% de perdida de rendimiento suena a chiste.
En 360 nos toco comernos resoluciones subHD de developers rancios precisamente por que el tamaño del buffer de la EDram era de 10×1024×1024. Lógicamente con 32Mb ese problema no existirá, pero a lo largo de la gen, posiblemente descubramos otros nuevos. WiiU por ejemplo cuenta con 35Mb, y de momento nadie la esta aprovechando para nada mas que MSAA 2x.

De verdad, si realmente estáis interesados en los detalles técnicos de las nuevas maquinas, podéis tirar de los foros de Beyon3D, Anandtech, o incluso Neogaf en según que hilos. Sin menospreciar EOL, no creo que sean los mas indicados para llegar a conclusiones sobre las diferencias reales entre las maquinas. Mas cuando MS no ha dado datos oficiales.

8 3 respuestas
F

#7 Pienso lo mismo, EOL que se dedique a la scene y punto.

A veces se meten en demasiados fregados tontos.

1 respuesta
13500

#1 #5

Microsoft no va mejorar los gráficos de la consola con la nube, es técnicamente imposible

Seeeeeeeeeeeeeee........

1 1 respuesta
Kamail

La nube, la nube.

El que esté desconectado o quiera estar desconectado se va joder pues? xD

Al final los multis saldrán para ambas consolas y se verán casi igual como siempre.

1 respuesta
Gabrielk

#7 En ningún momento dice que la PS4 vaya a perder un 40% de la GPU con el audio, dice que la Xbox 360 en algunos casos llegaba a usar el 30-40% de la CPU (no la GPU) para eso y, si terminas de leer ese parrafo, dice que no sabe cuanto usará de la GPU en la PS4 y que aún así la GPU seguirá siendo más potente.

¿Qué importa el foro en el que lo hayan escrito? A mi me parece un analisis bastante correcto con los datos que se saben de PS4 y Xbox One.

#10 Si la utilizan para iluminación el que esté desconectado tendrá peor iluminación, si es para ia tendrá peor ia, etc... No veo el problema, si quieres tenerlo te conectas, en PC si no tienes unos componentes a la última no tienes los mejores gráficos/ia/etc y todos jugamos sin problemas.

Aunque dudo mucho que se le den ese tipo de usos hasta dentro de un tiempo, de inicio serán servidores dedicados para los multijugador, compartir datos de los jugadores y poco más.

6 3 respuestas
ice_wolf

#11 Primer comentario racional que he visto.

1 respuesta
O

#12 Primer comentario que te gusta a ti,racionales hay mas que ese :)

11
alejo

#11 ¿Podrías informarme de donde sale el dato de que Xbox360 recorta hasta un 40% la capacidad de la GPU para dedicarla a la descompresión y mezcla del Audio?

A parte de que el audio al que el hace referencia es unicamente aplicable al nuevo Kinect, y al chip SHAPE. PS4 en principio nunca va a hacer uso de semejantes requisitos de Audio, y el 99% de los mortales no apreciaría diferencias entre Mono y DTS

2 respuestas
Kamail

#11 Claro pero el PC pagas más o menos por sus componentes, son peores son más baratos, son mejores son más caros. Pero aquí pagas el mismo dinero por tener menos prestaciones si no estás online en todo momento.

Solo espero que con el paso de los años no dejen de hacer juegos offline.

1 respuesta
GaTToO

#9 graficos en la nube en españa

si, yo creo que es el futuro con 80 ms de telefónica , caídas de red, wifi, etc... , va a ser una experiencia increíble.

creo que esta gente de microsoft tienen algún tipo de problema mental no perciben el retardo, por eso sacaron kinect que tenía 123412345ms de lag

1 respuesta
RubenLionel

El poder de la nube es la clave

Gabrielk

#14 No se, pregunta al que lo escribió, yo solo te digo que en ningún momento dice que la PS4 vaya a perder un 40% como tú decías.

En cualquier caso sea un 40-30% o menos lo que necesita de la CPU en la 360 lo interesante es que la Xbox One tiene procesadores dedicados exclusivamente a eso mientras que en la PS4 tendrá que ocuparse la CPU o GPU, ¿cuanta potencia tendrá que dedicar a eso? Pues habrá que verlo, está claro que no va a perder en eso toda la ventaja que tenga pero no dejan de ser detalles interesantes a tener en cuenta.

#15 ¿Que pasa con los juegos que tienen modos de un jugador y multijugador online? Pagas lo mismo por el juego y si no tienes internet solo puedes jugar a la mitad. Si un juego utilizase la nube para mejorar la iluminación, como en el caso del video de Nvidia, tú decidirás si te interesa comprarlo o no sabiendo si tienes conexión a internet o no igual que haces ahora con un juego multijugador.

Y no creo que sea algo que solo vaya a pasar en la Xbox One, seguramente también haya juegos en la PS4 que acaben haciendolo, pero si es probable que empiece en la Xbox One porque Microsoft ya está preparado mientras que Sony no.

1 respuesta
alejo

#16 La culpa no la tiene MS, hace su trabajo. Lo peor es la peña que esta convencida de que sus juegos se verán a 4K y 120fps vía Jazztel.

3
ArThoiD

#7 #8 #14 El tio es ingeniero, algo sabrá más que vosotros, no?

2 respuestas
alejo

#18 Pero vamos a ver, que PS4 tiene también co-porcesadores dedicados a decenas de tareas livianas, entre ellas las descargas en BG, la descompresión de Audio, etc, etc, que ayudan a que el grueso del sistema pueda estar descargado para otras funciones. Su opinión, muy respetable, parece claramente partidista.

Para empezar cita como limitación de PS4 el tema de la cache entre buses, alegando que, como SONY no ha dicho nada al respecto, será una ventaja de Xbox One. Eso es falso, porque no es que no hayan dado datos, simplemente esa cache no existe en PS4, porque han conseguido evitarla (Onion+), de esta forma la CPU y la GPU trabajan directamente contra la Memoria, y esa supuesta latencia de la que habla, posiblemente sea incluso inferior a la de One.

Parte de los co procesadores que incorpora One tienen como destino dar soporte al nuevo Kinect, así que mientras no se demuestre que su uso puede destinarse a otros menesteres, creo que contar con ellos para comprarla con PS4 es un poco aventurado.

Y ya el tema de la nube...

#20 En Beyond3D también hay muchos ingenieros, y una gran parte dedicada a este negocio. Por no hablar de que ingenieros hay a patadas, ahora, competentes... Y no lo digo por este chaval, ojo.

1 1 respuesta
Gabrielk

#21 Sinceramente no entiendo por qué es tan increible darle nuevos usos a la nube, se ha visto que es posible jugar haciendo streaming a un juego con los gráficos que se quiera en una tableta o en la tele con un aparato barato en vez de un PC de 2.000€, y al hacerlo se ha visto que es infumable en juegos en los que la latencia es importante.

Ahora se están buscando aplicaciones en las que en vez de descargar absolutamente todo el procesamiento a la nube se descarguen ciertas cosas a las que la latencia no afecte tanto, Nvidia ya ha demostrado que es posible hacerlo con la iluminación y tener muy buenos resultados en maquinas con poca potencia local, a partir de ahí seguro que otros desarrolladores pensarán en otras situaciones donde es posible hacer cosas similares.

Por supuesto como ya he dicho eso mismo se puede hacer en PS4, evidentemente cualquier consola puede conectarse a servidores, pero si Microsoft le ofrece a los desarrolladores de juegos de Xbox One precios bastante mejores por usar su nube de los que pueden conseguir con Amazon, Google o quién sea es lógico pensar que se les dará más uso en Xbox One que en PS4 mientras Sony no ofrezca algo parecido.

1 respuesta
Wallcroft

Resumen, compraros una ps4 antes que la xbox one

Kassie

#20 esto es mediavida, aqui el que menos tiene su carrera terminada en Harvard

1 respuesta
alejo

#24 Tú la de relaciones publicas y marketing la has tenido que sacar Cum Laude, amigo.

#22 PS4 esta igual de preparada que XboxOne para prestar servicios en la famosa nube. Nvidia tiene desarrollos relacionados con este tema, tanto para aplicación directa como para streaming (Nvidia Grid). Eso no quiere decir que este cerca de ser aplicable al mercado domestico.

No vamos a repetir los argumentos de que cualquier elemento gráfico que sea sensible a las latencias es impracticable con una conexión estándar, nos vamos a la logística directamente. MS no tiene actualmente 300.000 servidores, ese es el objetivo a lo largo del ciclo vital de XboxOne. Pongámonos en el supuesto de que XOne es un éxito moderado, y vende, digamos 80 millones de consolas. Entre esas consolas hay 8 millones de jugadores de Call of Duty Ultra Modern Warfare in the Space 14; ¿vas a ofrecerles mejoras gráficas a digamos 2 millones de jugadores simultáneos?

Yo lo siento mucho, pero no cuela. Cuando haya algo palpable y real sobre las aplicaciones que se le puede dar a esa supuesta granja de servidores, mas allá de alojar toda la infraestructura del Live y los servidores dedicados, me lo creeré.

3 1 respuesta
NeV3rKilL

La nube puede utilizarse también para cálculo de iluminaciones y sombras.

1 respuesta
Gabrielk

#25 Está claro que no va a pasar nada de eso al principio pero no creo que haya que ignorar que es muy probable que se le vayan dando usos interesantes, en los que no importe la latencia, a lo largo de la generación y que, si Microsoft cumple lo que dijo de ir metiendo servidores de forma que haya 3 veces la potencia de cada consola que se venda en la nube, acabará siendo una gran ventaja si Sony no se pone las pilas.

De momento ya se están viendo los primeros resultados sin siquiera darle usos nuevos a la nube, Titanfall saldrá en Xbox One, 360 y PC porque Microsoft les permite usar la nube a un precio razonable en vez de lo que costaría hacer lo mismo con AWS, Google Apps o lo que quieras usar y el nuevo Call of Duty ya han dicho que tendrá servidores dedicados en Xbox One aprovechando lo mismo.

No tiene que colar o no, simplemente es una posibilidad que está ahí por la que Microsoft está apostando y Sony no, si es una apuesta acertada o no lo sabremos dentro de unos años. Igual que en su momento Sega apostó por ponerle un modem a la Dreamcast o Microsoft por ponerle un disco duro a la Xbox o Nintendo por usar mandos que hay que menear en la Wii.

#28 Nvidia parece pensar que no es imposible mejorar la iluminación usando la nube para aplicaciones en tiempo real y sin ningún problema para mover la cámara:

2 respuestas
Prava

#26 La nube en consolas no se va a utilizar para nada útil, porque no puede utilizarse. El tema del cálculo de iluminaciones y sombras tampoco tiene mucho sentido... por el mero hecho de que es algo que tiene que hacerse en tiempo real (a menos que hablemos de juegos con cámara fija en las que, por cojones, las sombras e iluminación son constantes), y la nube NO PUEDE UTILIZARSE PARA ESTE TIPO DE COSAS.

Además, ¿qué pasa si te quedas sin conexión?


El texto de #1 me parece una animalada.

1) A día de hoy no sé sabe exactamente por qué MS eligió ESRAM (no confundir con la EDRAM que montaba X360, no es una "evolución", sino algo diferente), porque están aquellos que creen que MS fue directamente a por un diseño con ESRAM, y se quedó con DDR3 y no GDDR5 porque podría haber problemas de aprovisionamiento... o querían meter algo más de ancho de banda y con DDR3 no les daba, así que añadieron la ESRAM para compensar.

Cada cual puede especular lo que quiera, pero no sé sabe todavía qué es lo que hará la ESRAM exactamente ahí. En cualquier caso no deja de ser más memoria para el sistema, que sea más veloz y tenga menor latencia habrá que ver exactamente qué es lo que puede aportar.

El artículo en cuestión lo señala como "super positivo", y que "aligerará la carga de la consola". Eso son especulaciones puras y duras.

2) El artículo menciona que la gpu de PS4 correrá tareas que no son de gpu... pero ni menciona cuales (¿procesar sonido en gpu? ¿Teniendo 8 cores de cpu detrás?), ni da fuentes ni nada de nada.

A día de hoy, por ejemplo, una tarjeta de sonido no mejora un pedo el rendimiento del ordenador (nota, si hablamos de Windows XP, que en Vista y 7 el audio va todo por hardware salvo cosas super extrañas), motivo por el cual no entiendo qué importancia le dan a tener que trabajar el audio con lo que hay.

3) La nube... ¿¿¿otra vez??? La nube es un puñetero apaño para tapar agujeros y vender un poco. Seguro que puede usarse de algo, pero para cosas que no requieran de interacción en tiempo real (o sea, que para nada que sean juegos... a menos que sean juegos como el ajedrez que son por turnos)

4) ¿La cpu de XB1 sobre el papel es más potente que la de PS4? Pero si es la misma... :palm:

En fin, yo veo un artículo con ganas de defender lo cuasi-indefendible, basándose en suposiciones, amén de inventarse cosas.

2 2 respuestas
Rubios

Mother of god... no hay ni por donde empezar.

Prava

#27 NVIDIA es una empresa que vende tecnología. Lo que ellos han mostrado es que están trabajando en formas de implementar los usos de la nube, pero lo que se ve ahí es que estamos MUY MUY LEJOS de conseguirlo. Pero mucho.

Hacen falta conexiones muy, muy buenas para que la latencia sea medianamente aceptable, amén de que en algunas soluciones hace falta una gpu más o menos potente para poder reconstruir la imagen.

1 respuesta

Usuarios habituales

  • Gabrielk
  • Prava
  • bammargera
  • alejo
  • Rendy
  • ice_wolf
  • NeV3rKilL