Big data & toma de decisiones

c0b4c

Comparto por aquí un texto publicado en The Guardian que habla por encima del aspecto central del libro "Don't Trust Your Gut: Using Data to Get What You Really Want in LIfe" escrito por Seth Stephens-Davidowitz: https://www.theguardian.com/books/2022/jul/25/the-big-idea-should-we-be-using-data-to-make-lifes-big-decisions

El texto lo voy a traducir rápidamente con DeepL:

spoiler

En líneas generales lo que el libro defiende es que a día de hoy existen herramientas que nos permiten tomar decisiones correctas sobre cuestiones existenciales. Es decir; tradicionalmente estas decisiones se tomaban a través de la intuición o la educación, pero estos métodos han quedado anticuados porque ahora conocemos mucho mejor el comportamiento humano gracias a las nuevas tecnologías (por ejemplo, big data). El texto dice que hay gran cantidad de evidencia que indica que los algoritmos y las matemáticas son mucho mejor que las personas a la hora de tomar decisiones difíciles; incluso llega a decir que estos algoritmos serían mejores jueces o doctores que los humanos. Por supuesto no se queda ahí, y hace publicidad de una empresa que ha desarrollado métricas de felicidad, por lo que ahora se podría diseñar un algoritmo que maximizase esa métrica.

Abro este hilo aquí porque sé de varios usuarios que verían con buenos ojos un mundo gobernado por funciones matemáticas. Que estos algoritmos no se limitasen simplemente a cadenas de producción o control de tráfico, sino que invadiesen todos y cada uno de nuestros espacios vitales para saber qué comprar, cuándo dormir, con quién estar, y dónde trabajar; porque si obedecemos el algoritmo diseñado para maximizar nuestra felicidad, seremos lo más felices posible.

Bajo mi punto de vista esto es un dislate, y muy a mi pesar en los ambientes en los que me muevo (academia, estadística, análisis de riesgo...) este es el paradigma actual: la mayoría son acérrimos defensores de Bayes con fe ciega en los datos y algoritmos.

4
Fit1

9
T0X1C1TY_

No

Ulmo

Pero al final no deja de ser un humano el que lo construye y toma las decisiones, el algoritmo solo busca la optimizacion sobre decisiones ya tomadas por humanos.

Que con datos suficientes y bien entrenada un algoritmo toma mejores decisiones es innegable. Que nosotros tenemos que decirle en base a qué criterios queremos que lo tome tambien.

No se trata de que gobierne el Dios Máquina, se trata que nosotros elijamos el comportamiento y un algoritmo analice las variables.

1 respuesta
Aidanciyo

Yo le hago preguntas a dalle2 como si fuera un autómata de feria

Kike_Knoxvil

Somos incapaces de saber con exactitud como se comporta un fluido en régimen turbulento, me voy a fiar de unas métricas que intentan adelantarse a un sistema no tan conocido como es el cerebro humano

2 1 respuesta
TripyLSD

Quién no te dice que no se esté haciendo ya?

G4tts

#4 depende, si lo entrenas en un sistema donde el humano no indica cual es la respuesta correcta pueden salir maravillas.

Busca aprendizaje no supervisado.

El aprendizaje no supervisado es una de las formas en que Machine Learning (ML) "aprende" los datos. El aprendizaje no supervisado tiene datos sin etiquetar que el algoritmo tiene que intentar entender por sí mismo.

2 respuestas
ElJohan

Estaría muy bien si fuéramos máquinas que se movieran a partir de datos contrastados tomando decisiones desde el más puro raciocinio, lamentablemente somos seres humanos con sus traumitas y sus correspondientes problemas emocionales.

1
garlor

quien vigila al que hace el algoritmo?

2 1 respuesta
Kike_Knoxvil

#8 Hasta donde recuerdo, el aprendizaje no supervisado solo se puede dar en sistemas convergentes; o mejor dicho, que el propio sistema te dice si el resultado es correcto o no (por ejemplo el sistema de navegación de un coche al seleccionar las rutas para llegar a tu destino)

Un sistema en el que no hay una respuesta correcta sino multiples (y que encima pueden dejar de ser correctas en cualquier momento) no es el mejor para este tipo de aprendizaje

O al menos hasta donde yo sé

1 respuesta
G4tts

#11 de ahí el peligro de que salga skynet y crea que lo mejor para los seres humanos es extinguirlos :D si la respuesta lógica a 1 problema es eliminar al ser humano... sería curioso estudiarlo.

1 respuesta
Ulmo

#8 El no supervisado es que no tiene entrenamiento, pero sigue siendo un humano el que le dice si acierta y falla y se sigue maximizando la misma fórmula.

En ese aspecto no hay diferencia.

Fyn4r

Si veo una vez más el término algoritmo usado de forma aleatoria creo que me va a dar un ictus

1 1 respuesta
Wei-Yu

Tecno optimismo puro y duro; no sólo proyectamos nuestros sesgos sobre sistemas computacionales (amplificandolos dada su intrínseca escalabilidad) si no que encima obviamos los corner cases que evidentemente aparecen a escala. Si además añades que al confeccionar el diseño de dicho sistema estamos condenados a simplificar la realidad apaga y vámonos.

La mitología y religiosidad son intrínsecas a la naturaleza humana. Estas situaciones en las que abstraemos sistemas y situaciones complejas en conceptos simples no son más que otra materialización de preceptos seculares.

2
Kike_Knoxvil

#12 El mayor problema no es que salga la extinción humana, el problema es que la inmensa mayoría de respuestas que posiblemente vas a tener sin un humano que lo supervise es del estilo "la cura para el cáncer es hacer una silla de dos patas y tres velocimetros en la orbita baja de Plutón"

Eikasia
1
Headhunt

#10 una empresa de marketing

Kaiserlau

Pues yo acabo de diseñar un algoritmo que predice los ictus

ReibenN

Creo que de esas presuntas cuestiones existenciales subyacen otras que no son susceptibles de ser valoradas por esos parámetros.

Calzeta

Necesito un tochopost del puto Tabris en este hilo, joder.

1 respuesta
Elinombrable

#6 Bueno, de hecho la IA puede ayudarnos a predecir ciertos comportamientos o estructuras naturales en base a lo que conocemos:

https://www.eldiario.es/sociedad/sistema-inteligencia-artificial-google-predice-estructura-proteinas-conocidas_1_9208347.html

1 respuesta
Kike_Knoxvil

#22 Pero fijate que ahí es una problematica de combinatorias: los mecanismos base se conocían pero la cantidad de posibilidades era inabarcable. Y por lo que veo que se hizo fue darle una cantidad ingente de muestras para entrenarla y para identificar aquellas que se les podía haber pasado a los investigadores.

No le quito mérito ni nada por el estilo a la IA, me parece encomiable; pero no me parece que sea aplicable a un sistema afectado por tal cantidad de variables además del desconocimiento que aún se tiene sobre el cerebro.

z4eR

#14 Chupito por cada nuevo proyecto que lo diga.
Antes de Navidad cirrosis.

1
-Shaydund-

Los algoritmos pueden bajar la incertidumbre en la toma de decisiones, pero no la eliminan.
Por otro lado, el problema es que se basan en conocimiento inductivo por lo que fallarían mucho en situaciones nuevas inicialmente.

1 respuesta
Atrus

Pues depende, si es solo el big data, este depende de cuan buena es la fuente de los datos y que tipo de limpieza se haga de los datos para luego tratarlos y como presentarlos. El big data simplemente es la pala para cavar en la montaña de información. Si está bien afinada y no se ha metido cocina, es muy fiable.

Otra cosa es el aprendizaje automático y sus variantes, por su naturaleza y por simplificarlo un poco, solo darán resultados más o menos mediocres según las muestras que se haya usado en su entrenamiento. Y digo mediocres porque, en general, es lo que hacen esos sistemas, intentan encontrar una generalización de todos los valores de una muestra e ir ajustando todo lo posible según lleguen nuevos valores a analizar. Como han dicho anteriormente, se pierden todos los "corner cases" ya que estos impiden la generalización y ralentizan el algoritmo.

Al contrario de lo que se piensa el problema de los sistemas basados en AA, el problema no está en el algoritmo en si, si no en la variedad del juego de datos y la parametrización inicial que se le haga al algoritmo. Los sesgos del algoritmo vienen por esto 2 factores.

Del Big Data me puedo fiar más o menos, del aprendizaje automático, meh. Si fuese un sistema de consejos y no tengo ni idea del tema del que los da, quizás, pero con muchas reservas. Para que sean realmente buenos, necesitan de cantidades ingentes de datos y estar bien afinados.

1 respuesta
Huk

Os aconsejo huir de cualquiera que utilice el término "big data", de corazón.

T0X1C1TY_

Pa los frikis del machine learning, big data y toda esa mierda.

Si no son capaces de saber con certeza si va a llover en 2h usando sus algoritmos. Y mi tío pastor de toda la vida sí.

El machine learning sigue siendo más tonto que una persona especializada para escenarios complejos.

1 respuesta
Ulmo

#28 Es precisamente al revés, en escenarios simples donde la intuición va bien es donde al ML más le cuesta, por ejemplo identificación de objetos.

En escenarios complejos con muchas variables es donde el ML es sobradamente mejor a cualquier estimación humana, ahí tienes a los algoritmos de ajedrez.

1 respuesta
T0X1C1TY_

#29 el ajedrez es un escenario bastante poco caótico, pero bueno, que no voy a discutir. Ya he dado antes un ejemplo que ni mencionas.

1 respuesta

Usuarios habituales