IA de reconocimiento facial distingue con un 72% la afiliación política

Drakea

#47 Menos mal que he dicho una moneda tirada al aire + sesgos adicionales y no solo una moneda al aire, ¿eh?

#58 Bueno si hay consistencia algo habrá pues, pero ese porcentaje es prácticamente inservible sin supervisión humana en cualquier entorno.xd No es muy impresionante.

1 respuesta
Frave

#61 a ver es simplemente una prueba de qué se podría hacer, y además teniendo en cuenta que un humano acierta un 55% o menos... pues es sorprendente.

1 respuesta
aqem

#60 el problema es que uk/us es bipartidista y canada sin serlo el bipartidismo acumula el 80% de los escaños, por lo que identificando grupos obvios puedes tener una tasa de acierto alta.

Ejemplo:

un soyboy-> democrata
cateto desdentado-> republicano
pelo de colores->democrata
karen->republicana

1 respuesta
Drakea

#62 Depende, hay mucho periolisto que se emociona con IA y da las noticias así reportando un paper dando a entender que esto significa que una accuracy perfecta es posible y solo hay que meter datos y evolucionar, cuando lo que suele ocurrir es que este es el máximo con el mejor modelo que han encontrado, y es la accuracy a la que converge independientemente del tamaño del dataset (que siendo ya de un millón es probable que así sea), haciendo al algoritmo un fracaso en sí. Por lo que veo lo destacable es que es mejor que el acierto de algunos cuestionarios o predicciones de personas random y ya.

El mundo del ml está lleno de humo.

1 respuesta
Frave

#64 opino igual, pero justo en este paper, que me lo he leido entero, no usan para nada lo mas óptimo y en este caso si creo que hay potencial de mejora en varios aspectos, como usando mas inputs por persona ademas de usando una red específica.

Cryoned

#63 repetimos, el estudio usa reconocimiento facial y el dev evita específicamente caer en esas trampas. Análisis facial, no sombrero de cowboy o color de pelo.

joder, leed el estudio antes de buscarle fallos que están explicados en el propio estudio que no existen xD

Craso

Esa IA no detecta la ideología de la gente por la forma de su cara. Nuestra ideología, personalidad y orientación sexual no tienen nada que ver con la forma de nuestra cara. La frenología se desmontó hace un siglo, no nos flipemos.

Lo que hace esta IA es comparar muchas caras e identificar patrones que sí pueden dar pistas de la ideología. Por ejemplo: color de piel (grupo étnico), arrugas (grupo de edad), cejas depiladas (moda estética), botox (poder adquisitivo), etc. La IA mete todo eso en la batidora y saca un porcentaje.

Luego el resultado se publica con un titular sensacionalista y ya tienes un artículo listo para llamar la atención de la gente y recibir muchas citas.

#60 La IA no saca esos resultados con polvos mágicos. Los humanos aciertan en un 51% y la IA en un 72% porque la IA es capaz de comparar muchas más caras sistemáticamente. Nosotros a la tercera cara ya nos hacemos un lío, la IA registra todo.

Pero es que además el estudio tiene un problema, y es que clasifica a la gente sólo en liberales y conservadores. Es absurdo, ahí están metiendo a comunistas, anarquistas, socialdemócratas, socioliberales, etc como liberales XD. Y a fascistas, anarcocapitalistas, etc como conservadores. Está hecho a brocha gorda.

2 respuestas
Cryoned
#67Craso:

Por ejemplo: color de piel (grupo étnico), arrugas (grupo de edad), cejas depiladas (moda estética), botox (poder adquisitivo), etc.

Repetimos, el estudio obvia cualquier característica de ese tipo y en grupos de edad sigue acertando casi un 70% con una foto.

seguís tratando de desmontar un estudio sin haberos parado a leerlo.

#67Craso:

La frenología se desmontó hace un siglo, no nos flipemos.

ese es el problema. Se desmontó una frenología, está por ver y parece, que existen otros tipos similares existentes que sí dan pistas de por dónde va el tema. Igual que se puede saber la orientación sexual con porcentajes altísimos, aún más altos que estos.

Al final podría ser que no seamos independientes que el libre albedrío no sea tan alto como se pretende sino como nuestro genoma nos deja.

3 respuestas
Litt
#67Craso:

botox (poder adquisitivo)

Y quienes tenemos la cara perfecta sin tener poder adquisitivo, qué?

Craso

#68 El estudio no puede obviar esas características porque entonces se queda sin nada que analizar. Cualquier rasgo facial puede indicar la pertenencia de la persona a un grupo de edad, étnico, económico, a alguna moda, etc. Hasta las bolsas de los ojos dan información de ese tipo.

En el mismo grupo de edad mantiene un 70% de acierto, claro, es normal. ¿Por qué iba a cambiar el resultado?

1 respuesta
Cryoned

#70 cuando lo leas vuelves

JonaN

#68 tú que te lo has leído, cómo interpretas que han controlado para la demografía? Pone que han usado 'face pairs' de la misma raza, género y edad. Mi interpretación es que esas parejas son 1 liberal/1 conservador, no? Y ahí se mantiene ese 69%

O sea, que si de los 100 latinos de 20 años, 80 votan liberal, han cogido un sub grupo de los 20 liberales y 20 conservadores y el algoritmo acierta 69%.

1 respuesta
Cryoned

#72 face-pairs implica que han buscado hacer el estudio comparativamente con gente del mismo género, edad y raza dando un 71% de exactitud en la predicción.

básicamente buscaban ver si se desmoronaban los resultados de alguna forma como pretendían decir algunos en el hilo para ver si era ruido y no real, pero no lo ha hecho, las predicciones seguían siendo igual de certeras.

1 respuesta
JonaN

#73 ya ya, me refiero a como se hace eso en la práctica. Entiendo que es haciendo subgrupos con 50-50 de output como digo en #72.

Porque si no seleccionas para que sea 50-50 y coges por ejemplo el subgrupo de mujeres menores de 30, un algoritmo que sea output = liberal también andará por el 70%.

1 respuesta
Cryoned

#74 lo pone

We employed Face++ estimates of these traits, as they were available for all faces. Similar accuracy (71%) was achieved when using ethnicity labels produced by a research assistant and self-reported age and gender (ethnic-ity labels were available for a subset of 27,023 images in the Facebook sample).

con la automatización de face++ y con las características auto asignadas por las propias personas del estudio.


1 respuesta
JonaN

#75 ahí pone cómo agrupan, no cómo usan esa información para controlar.

Que tengo claro el objetivo, lo que creo que entiendo pero no estoy seguro es lo de 'face pairs'.

1 respuesta
Cryoned

#76 Ah vale, dices pre-seleccionar antes 5050 y luego pasarle la analítica? Podría ser una forma, pero si lo haces igualmente para muchos rangos de edad y razas deberías poder segmentar igual sin cogerlo a mano.

1 respuesta
Craso
#68Cryoned:

ese es el problema. Se desmontó una frenología, está por ver y parece, que existen otros tipos similares existentes que sí dan pistas de por dónde va el tema.

No, lo que hay son intentos de llamar la atención de la gente dando "pruebas" de la validez de la frenología. No hay ni un sólo científico serio que la acepte.

#68Cryoned:

Igual que se puede saber la orientación sexual con porcentajes altísimos, aún más altos que estos.

Por el mismo procedimiento. Aparte de que la orientación sexual no se sabe a qué se debe, quizá sí que sea genética y por eso no cambia a lo largo de la vida, pero eso no quiere decir que se pueda detectar porque la persona tenga ojos grandes.

#68Cryoned:

Al final podría ser que no seamos independientes que el libre albedrío no sea tan alto como se pretende sino como nuestro genoma nos deja.

Es que el libre albedrío no existe, eso ya lo demostró Skinner hace 70-80 años. Pero la ideología no depende del genoma, está determinada por el entorno en el que vive la persona y su posición económica. Por eso puede cambiar a lo largo de la vida. Un obrero es muy posible que sea de izquierda, pero si le toca la lotería seguramente se vuelva de derecha. Y ese ex-obrero seguirá teniendo los ojos del mismo tamaño. Eso sí, quizá se meta botox, se depile las cejas y se broncee más en la playa. Y eso es lo que detecta esta IA.

JonaN

#77 eso es, es la forma que se me ha ocurrido. Haciéndolo para muchos grupos no tengo tan claro que funcione, porque puede ser que todos y cada uno de los grupos voten 70%-30%, y el algoritmo sea:

Blanco y viejo: conservador
Mujer y joven: liberal

Y así sucesivamente xd.

1 respuesta
Cryoned

#79 es una propuesta interesante la verdad, lánzasela por mail o twitter a ver qué te responde, si no lo hago yo mañana a ver.
https://twitter.com/michalkosinski?lang=en

1 respuesta
JonaN

#80 no uso twitter jajaja, pero si lo haces ya me dirás, me interesa.

1 respuesta
A

Tanto estudio inutil si con saber que tipo de leche consume valdría

1 respuesta
Craso

#82 El tipo de leche que consume no (o sí, ojo, quizá dé pistas del poder adquisitivo, por ejemplo), pero si a una IA le das datos de dónde trabaja la gente, su edad, su grupo étnico, sus creencias religiosas, lugar de nacimiento y residencia actual, estado civil y número de hijos te digo yo que la IA lo clava mucho más que con una foto. Ahí veríamos en qué queda la frenología.

1
rackinck

Mola, aunque me preocupa un poco que haya podido haber selección del sample a la hora de escoger las categorías, o que no haya habido más robustness checks en ese sentido. Por ejemplo, para la sample del dating website omiten todo lo que no sea liberal o conservador (por qué no intentar predecir centrismo?). Para el facebook sample la orientación política se crea de una forma un poco cuestionable, y se descartan observaciones sin dejar claro cuál es el efecto de hacerlo...

Frave

#81 cuando dividen en grupos de edad, etnia etc lo harán de forma balanceada ya que hablan siempre de que el aleatorio en esos subgrupos es del 50% (ya que piensa que si un grupo tiene 70% clase A y 30% clase B un clasificador aleatorio entrenado con este desbalanceo acertaría el 70% de A). Otra forma de verlo es que usan el AUC (area debajo de una curva ROC) que calculado correctamente(osea en datos balanceados) es equivalente al test de winconxon (esto lo mencionan en el texto) este test estadístico mide la capacidad de diferenciar cualquier muestra compuesta por un par de datos diferentes de un conjunto.

Vamos básicamente tu duda es si balancean las clases para los subconjuntos y es lógico que lo harán ya que no hacerlo es un error muy muy muy gordo y dado el nivel de pruebas que hacen dudo que no lo hayan hecho.

1 respuesta
JonaN

#85

ya que piensa que si un grupo tiene 70% clase A y 30% clase B un clasificador aleatorio acertaría el 70% de A

Igual hablo desde el sueño que me entra depués de comer, pero un algoritmo aleatorio A o B acertará en torno a 50% independientemente de la distribución. Lo que acertaría el 70% sería un algoritmo que sea output = A.

Y sí, no pretendía dar a entender q hayan cometido un error, era para saber si mi interpretación del proceso era la adecuada, porque no me dedico a hacer estudio.

1 respuesta
Frave

#86 si tienes razón me he expresado mal me refería al caso en el que entrenas el algoritmo con un dataset desbalanceado y asigna normalmente el valor de la clase mayoritaria y si no lo tienes en cuenta obtienes un 70% de acierto cuando en realidad estas en el aleatorio.

Usuarios habituales

  • Frave
  • JonaN
  • Craso
  • Cryoned
  • Drakea
  • aqem
  • jacare