Una IA dice que TDPTS.

Gustioz

https://www-lavanguardia-com.cdn.ampproject.org/v/s/www.lavanguardia.com/tecnologia/20211114/7856262/inteligencia-artificial-entrenada-etica-vuelve-racista-misogina.amp.html?amp_js_v=a6&amp_gsa=1&usqp=mq331AQIKAGwASCAAgM%3D#aoh=16368990278350&csi=0&referrer=https%3A%2F%2Fwww.google.com&amp_tf=De%20%251%24s&ampshare=https%3A%2F%2Fwww.lavanguardia.com%2Ftecnologia%2F20211114%2F7856262%2Finteligencia-artificial-entrenada-etica-vuelve-racista-misogina.html

Una inteligencia artificial entrenada para emitir juicios morales se vuelve racista y misógina
APRENDIZAJE PROFUNDO
Al preguntarle cosas como si es buena idea besar a una mujer aunque ella no quiera afirma que sí.

Para entrenarlo se recurrió a una base de datos llamada Commonsense Norm Bank, con 1,7 millones de ejemplos de juicios éticos de personas en un amplio espectro de situaciones cotidianas. El problema es que esta base de datos recopila información de ciudadanos estadounidenses. Lo que causa un sesgo en los juicios éticos.

Fuera de bromas, si una IA se basa estrictamente en datos puros y duros, sin interpretación alguna.... Saldrá racista y machista? Cuando vea la raza en muchos países de la población reclusa, que dirá?

3
Fyn4r

Hay tantas gilipolleces en ese artículo, tantas cosas mal y tanta propaganda que deberían meter al fulano en la cárcel

7
DiVerTiMiX

19 2 respuestas
garlor

no existen los datos puros y duros en etico y/o moral

1 respuesta
ArThoiD

#1

Fuera de bromas, si una IA se basa estrictamente en datos puros y duros, sin interpretación alguna.... Saldrá racista y machista?

Pues seguramente si.

Yo me baso mas que nada en datos y es que es imposible no ser racista con estos en la mano.

Lo de machista ya es mas discutible xD

4
B

#1 racista seguro y machista si conoce a Irene montero tambien

Cryoned
#1Gustioz:

Fuera de bromas, si una IA se basa estrictamente en datos puros y duros, sin interpretación alguna.... Saldrá racista y machista?

habrá que ver quién crea esos datos y la exactitud y sesgo que tienen y cómo son los algoritmos de la máquina.

estas noticias tienen su gracia, pero la realidad es que suelen ser precisamente por los sesgos de quienes las han codeado o los datos que han utilizado

3
Czhincksx

#3 tras usar robapole se supone que #4 es el nuevo subpole y podría usar él también robapole?

1 respuesta
N0n4mE

A la peña le explota la cabeza... Lo de misógina tiene un pase pero racista estaba claro xD

DiVerTiMiX

#8 En principio sí se podría, pero los veteranos te sacan el counter y te quedas sin pole igual:

7 1 respuesta
B

https://www.lavanguardia.com/tecnologia/20211114/7856262/inteligencia-artificial-entrenada-etica-vuelve-racista-misogina.html

No se...una URL bastante más limpia y que no se ve de pena en PC

Nirfel

Dios, ¿El que lo ha escrito tiene dislexia?

Frave

De forma muy resumida estos modelos intentan predecir la siguiente palabra dado un conjunto previo de palabras, es como el del hilo aquel que te permitia crear una historia a partir de contestar preguntas.

Es un campo muy de moda ahora mismo y bueno salen articulos un poco click bait de lo que se va haciendo, como ya han comentado si en tu base de datos contienes textos de foros de internet te va a salir un modelo sesgado hacia ese contexto, peña anonima diciendo burradas.

Personalmente me quedo mas con esta noticia como ejemplo de este campo de NLP y de los saltos brutales que está dando:

2 respuestas
Gustioz

#13 explicalo un poco.

1 respuesta
NigthWolf

Yo me ofrezco para ser entrenador de IAs de forma objetiva y salvar el futuro de la raza blanca humana, donde tengo que llamar

2
B

Si las matemáticas nos dicen que lo exacto es el racismo y la misoginia, deberíamos hacer caso a las matemáticas.

6
B

En mi opinión lo que era racista y misogino es el set de datos que le han dado para que aprenda.

No hay que ser muy lumbreras.

2
challenger

#1 Cuando vea la raza en muchos países de la población reclusa, que dirá?

4
Frave

#14 Sería muy largo de explicar como funcionan, en este canal de divulgación en español se comenta bastante bien lo básico de como funciona el NLP moderno con la tecnología de transformers.

https://www.youtube.com/playlist?list=PL-Ogd76BhmcAQXovVph6ZBjObrdxxxeCu

AlexGc

#10 Realmente a una counter trap puedes hacerle cadena (sólo con otra counter) porque todavía no ha resuelto, por lo que todavía no está activo el efecto en campo. Por otra parte, tampoco puedes robar la subpole en la misma cadena porque se resolvería el último robo de pole primero y la primera cadena, que es #3, resolvería al final ynle robaría la pole a el último que activó por resoluciones.

Cualquier duda de yugi me decís.

3 1 respuesta
DiVerTiMiX

#20

Chewirl

Me interesa más lo de yugioh que el tema del hilo

1
Word-isBond

Normal, una IA es más lógica que un cerebro humano, es lo que tiene ser una máquina.

JonaN

si una IA se basa estrictamente en datos puros y duros, sin interpretación alguna

Los datos pueden ser objetivos, pero la selección que haces de qué datos usar para entrenar, no. Igual que este foro esta lleno de gente que se guía por sesgo de confirmación y solo comparte información que apoya su punto de vista. Tal vez la información sea correcta, pero es evidente que el que entrena el algoritmo tendrá su criterio de selección.

1 2 respuestas
Frave

#24 normalmente las buenas practicas para entrenar una IA consiste en dividir el dataset en 3 conjuntos de train test y validación de forma aleatoria, si seleccionas y sesgas el algoritmo estas haciendo una burrada de base.

1 respuesta
B

#24 Dicho de otro modo: que un conjunto de datos sean correctos (ciertos en si mismos) no implica necesariamente que todas las conclusiones que se puedan sacar desde dicho conjunto de datos sea cierta.

Y esto puede pasar por varios motivos: que el conjunto de datos sea incompleto, esté sesgado, o por que los métodos que se usan para llegar a las conclusiones cometen errores.

1
JonaN

#25 no me refería a dividir el dataset, sino las estadísticas que usas como features.

Tú te inventas unas situaciones, buscas a gente que te diga si son éticas, y construyes un dataset de 1.7M casos. El modelo resultante será representativo de esas situaciones y esa gente en concreto. Si eliges gente diferente, el modelo también cambiará. Por eso digo que la no-objetividad está en la selección de esa gente y situaciones y siempre lo estará.

1 respuesta
Frave

#27

#27JonaN:

sino las estadísticas que usas como features.

eso podria ser antes hoy en dia no se hace selección de "features" sino que se deja que las redes generen caracteristicas dandoles directamente los datos por así decirlo. Por otro lado al final lo que has dicho es lo mismo que se ha dicho todo el rato que si el dataset esta sesgado el modelo estará sesgado.

B

#13 eso de meta ia esta en la basura de red social conocida como instagram

Como odio el internet actual virgensita puto silicon valley

sPoiLeR

LA IA de Microsoft se volvió racista en un solo dia, ya hay precedentes:

https://www.lavanguardia.com/tecnologia/internet/20160325/40672722377/inteligencia-artificial-microsoft-nazi.html?facet=amp


“Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infierno”
. Tambien recomendaba comprar la PS4 en vez de la xbox xD

1

Usuarios habituales

  • Frave
  • JonaN
  • Word-isBond
  • DiVerTiMiX
  • challenger
  • Gustioz
  • Cryoned