Un ordenador gana por primera vez a un experto al Go

DarkRaptor

Yo cuando leo que lo subjetivo se puede aproximar con lo aleatorio se me queda una cara de "po vale" impresionante.

Si las AI del futuro van a funcionar "engañando" en este aspecto a un observador, de forma que este confunda sus procesos internos con algo genuinamente humano, podemos dejarnos de ML y pollas y, para lo subjetivo, cebar una base de datos muy amplia. Que para lo más común ya vale.

En este sentido, básicamente #240. Las veremos mucho antes de entender cómo funcionamos nosotros, porque para engañar en lo cotidiano tampoco hace falta mucho más.

Que #238 me corrija pero, no sé, pienso que la gracia de aplicar la teoría de la AI en esta cuestión es precisamente emular unas funciones humanas de forma que aunque el sustrato estructural sea diferente, sepamos de ante mano que el comportamiento será idéntico dentro de un rango, como todo lo biológico.

Antes he señalado que la neocorteza es prácticamente única. Las implicaciones de esto a la hora de formarse conceptos humanos como amor, inteligencia o imaginación son bastante importantes como para tenerlas en cuenta a la hora de una futura AI GP.

Si precisamente es ahora cuando la psicología trata de conseguir unos modelos que valgan para algo más que satisfacer las necesidades del lenguaje -como lo han sido durante milenios los conceptos de amor, sentimientos o creatividad- ¿con qué va a compararse una AI GP? ¿Lo decide un humano?

O dicho de otra manera, cómo compruebas que tu emulación da el resultado deseado si ni siquiera tienes un modelo medianamente fuerte de muchas de nuestras características.

2 respuestas
B

#241

Totalmente de acuerdo. Especialmente con tu último párrafo. Cómo no sabemos de que va el tema, pero sí "lo que debería" salir, pues se emula cómo se puede, como por ejemplo "aproximando" subjetividad con aleatorierdad xD.

1 respuesta
Zerokkk

#241 #242

Es que modelar conceptos como esos me parece algo que se nos escapa mucho a día de hoy, es demasiado subjetivo, demasiado propio de cada persona y su educación. Dicho esto, no me parece descabellado, ni excesivamente poco riguroso, el dejar que funcione como una caja negra, y centrarnos más en el output que en el "cómo" de la cuestión, siempre y cuando los mecanismos objetivos que conocemos, guarden relación con los que suceden en el ser humano.

Vamos, que si tenemos a 1000 humanos y 1000 AI GP, y comparásemos los conceptos abstractos (amor, sentimientos o creatividad, como dice Darkraptor) entre ambos grupos, no debería haber diferencia si se ha hecho bien. ¿Estamos emulando a la perfección cómo se producen estos mecanismos en el cerebro humano? No, lo más probable es que no, pero si la variabilidad entre las distintas conceptualizaciones que vayan naciendo de estas IAs, no es sustancialmente mayor (ni menor) que en los seres humanos, habremos logrado crear una inteligencia artificial con comprensión humana, ¡al menos a nivel funcional!

3 respuestas
DarkRaptor

#243
Eso ya lo puedes hacer, pero no estás aprendiendo nada nuevo... que es de lo que se trata. Engañar a 1, 2 o 400 observadores -o imitarlos si lo prefieres- en 4 conceptos definidos a priori para tí será suficiente rigor para llamarlo AI GP, para mí es un BOT curioso. Y desde luego propósito general no es. Es propósito amplio en el mejor de los casos.

Yo no he dicho eso que tú me estás atribuyendo. Nótese el término "proceso" y no resultado. La gracia no es que el resultado sea el mismo, sino que el proceso lo sea, dentro de un rango -puesto que no hay dos personas con el mismo cerebro-. Cógete el modelo que quieras: inteligencia humana, la de un primate superior... y replica sus procesos mentales para llegar a tener en silicio lo que otro tiene en neuronas.

2 respuestas
B

#243

Eso que propones, en mi opinión ya se puede hacer. Precisamente porque se pueden imitar resultados razonablemente bien es por lo que hay un hype desmesurado sobre la IA.

1 1 respuesta
Zerokkk

#244 No, replicando algo como los sentimientos (por ejemplo) no consigues una AI GP ni de lejos xD. Necesitas conseguir simular ese tipo de funciones de alguna manera, pero no son una ni dos, sino muchas, si quieres que una máquina pueda resolver un problema cualquiera con todas las herramientas de las que disponemos los humanos.

Aún en el post de antes puse un ejemplo de compañía que está intentando conseguir recrear la imaginación en las máquinas, algo súper importante, sin duda. Pues probablemente haga falta mucho más trabajo que el de Vicarious para lograr una AI GP, incluso si les sale de maravilla xD.

Sobre tu segundo párrafo, no confundas construir una IA con simular un cerebro. Son dos cosas muy distintas. El campo de la inteligencia artificial trata de crear una inteligencia, y vuelvo a recordar por quincuagésima vez: NO todas las inteligencias son humanas, de hecho hay dos frentes mayoritarios que buscamos a día de hoy: IAs racionales (de funcionamiento radicalmente distinto al de la mente humana) y IAs de interacción humana (que comprenden y se comunican fácilmente con humanos). Ninguno de estos dos tipos de inteligencia tiene que ser un modelo exacto del cerebro humano para ser exitoso y cumplir su propósito, ni siquiera para ser consideradas "inteligencias" (aunque aquí como bien diría Kartalon o SeuroN también puntualizó alguna vez, depende de tu concepto de "inteligencia").

Luego hay otro campo que sí intenta simular a la perfección un cerebro humano, a lo bestia: simulamos un montón de neuronas, replicamos su funcionamiento más básico, y que por detrás suceda todo el tinglado (sin entender del todo bien qué está realmente sucediendo). Esto ya se hace a día de hoy para simular cerebros de ratones, y parece que está funcionando bastante bien, aunque lógicamente esta es una técnica de fuerza bruta que necesita una cantidad de procesamiento que da miedo.

Estas son las estimaciones de potencia requerida para simular una cierta cantidad de neuronas, entre otras hazañas computacionales:

Esto sí tiene que ser exacto al cerebro humano, pero es que he ahí precisamente su distintivo xD. En esta interesante pregunta explican un poco la movida: http://worldbuilding.stackexchange.com/questions/9875/how-powerful-of-a-computer-do-i-need-to-simulate-and-emulate-a-human-brain?noredirect=1&lq=1

#245 Depende de en qué xDD. Ya hay mucha gente que se dedica a sesgar brutalmente a las IAs (como pasó con Tay de Microsoft) para "estropearlas". Además de que como ya dije, hay cosas bastante básicas para el cerebro, como reconocer una figura desde varios ángulos diferentes, que le cuestan tres pares de cojones a los bots actuales que se rigen por ML. Ahí el trabajo de Vicarious va a tener mucho peso, pues la capacidad de imaginar se cree que es un pilar básico de la inteligencia de propósito general.

1 respuesta
B

Os montais unas cabalas guapas aqui jaja, me hace mucha gracia el Zerokkk estructuralista ( #243 ya te has leido a Wolfram?). Hay una cosa en particular que me resulta graciosa: "que sea capaz de reconocer imagenes sin entrenar con millones de imagenes previas", y como creeis que reconocemos imagenes nosotros?

Es mas, si os pongo la base de datos de ImageNet y os digo que me clasifiqueis todas las imagenes (os dejo entrenar con 15000 imagenes primero, como a las CNN) sin descansar, quien nos asegura que hagamos menos errores que una maquina?

1 1 respuesta
Zerokkk

#247 Es algo que tendré que hacer cuando acabe unos títulos de marketing con los que estoy ahora, pero terminará tocando!

Sobre lo que dices, es un argumento que ya he leído más de una vez y al que no le falta razón, pero no olvidemos que falta mucho por mejorar para que los mecanismos de reconocimiento funcionen tan bien como el ser humano medio.

Hace no mucho postearon en OT una herramienta (un bot que creo que usa el Bot Framework de Microsoft) a la que subías una foto, y te la describía. Y pese a que acertaba bastante, tenía errores ridículos que no cometería ningún humano. Yo soy el primero que confía en que la IA está en una buena posición, pero también creo que le falta mucho trabajo de por medio para que llegue a tener todas esas herramientas mentales de las que disponemos los humanos.

1 1 respuesta
B

#248 pero es que nosotros hemos tenido decadas para aprender a hacerlo, mas toda una historia de miles de años jaja. Hay estudios (dijo esto Tabris en algun sitio?) donde se ve que los tecnicos de laboratorio y medicos de diagnostico cometen mas errores (falsos negativos) conforme avanza su jornada. Esto es algo que no podemos (ni creo que querramos) simular con un ordenador.

Personalmente me mola mucho mas la idea de HCI y tener el ordenador como ayuda, por ejemplo tener un programa de ordenador que no necesariamente detecte todos los tumores en una imagen, pero que cuando el medico haga su diagnostico el programa le diga "veo que no has señalado esto como tumor, quieres mirartelo mejor?". Pero esto es gusto personal, claro.

edit: Valga decir que no digo con esto que seamos más o menos inteligentes que las máquinas actualmente, simplemente mi opinión es que no son comparables las inteligencias y por tanto una GP AI como dices tú, sería algo extraño de hacer.

2 respuestas
Zerokkk

#249 Vamos, que el aprendizaje reforzado es lo que ves fuerte. A día de hoy no cabe duda de que es así, pero va a ser necesario llegar a un punto en el cual las máquinas "se saquen las castañas del fuego" ellas solitas, al menos a partir de un punto de su aprendizaje (me imagino que desde el principio esto es virtualmente imposible). Que ellas mismas sepan analizar un problema y buscar posibles soluciones, sin que nosotros les tengamos que programar toda la red neuronal y estructurarla de forma súper específica a un único problema, vaya.

1 respuesta
B

#250 no, me refiero al ordenador como asistente y no como sustituto. Respecto a lo que buscas, en Londres creo hay un equipo de Google que tiene un programa que juega a juegos de ordenador (antiguos) sin saber las normas ni las teclas, solo probando, y lo unico que sabe es si pierde o si gana... Y acaba ganando! Realmente es curioso todo esto, pero vaya, creo que para lo que tú dices hay dos cosas importantes:
1. Que la máquina sea capaz de resolver y entender problemas autónomamente.
2. Que los humanos sean capaces de confiar en que lo que la máquina hace es correcto.

1 respuesta
Zerokkk

#251 Ahora mismo esa forma de actuar es necesaria, creo yo. Quitando cosas muy, muy básicas, no creo que se deba delegar al 100% ninguna actividad a ninguna máquina basada en ML a día de hoy, pero la idea es que en futuro así sea. Cuando tengamos IAs más avanzadas y una IA-cirujano no cometa ni el más mínimo error en 10.000 operaciones, ¿seguirías prefiriendo que te operase un cirujano humano?

Lo que dices de Google no lo sabía, ¿podrías dar más info? Suena interesante, y desde luego en Google saben lo que hacen. AlphaGo ha sido una jodida pasada y no me extrañaría para nada que tengan buenos métodos de análisis de problemas para sus bots a día de hoy.

1 respuesta
B

#252 estamos hablando de cosas distintas... La cirugia (con permiso de #244 ) es bastante heuristica y empirica, además de depender del cansancio. Así que sí, seguramente me fiaría más de una IA cirujana, pero desde luego no sería el primero en ir a quirofano xD. Ahora te devuelvo la pelota, si una IA saca un artículo donde demuestra P!=NP en 3000 páginas de matemáticas incomprensibles e inalcanzables para el ser humano, ¿te lo crees o no te lo crees? Lo consideras demostrado y por ende un problema a no mirar más?

http://www.nature.com/news/game-playing-software-holds-lessons-for-neuroscience-1.16979 no he dicho nada :P aquí hablan de ello, Google DeepMind.

3 respuestas
Zerokkk

#253 Hombre, esas matemáticas con toda seguridad se basarán en las matemáticas humanas, así que no veo por qué iba a ser imposible contratar a un equipo de matemáticos para darle la vuelta a la tortilla y ver cómo es de válida la demostración xD. Aunque oye, siendo las matemáticas algo tan sólido y "computable" (nótense las comillas por esos casos no tan fácilmente computables xD), yo la verdad que me fiaría antes de una demostración así de una IA que de un matemático con la medalla Fields.

Parece que están haciendo buenos avances en decission making, eso sin duda es una buena noticia (a menos que creas en Skynet).

2 respuestas
B

#254 jaja mucha fe tienes tú en los equipos de matemáticos, si la conjetura abc ahora mismo está en el limbo porque nadie entiende las teorías interuniversales de Teichmuller de Mochizuki, y lleva años así.

2 respuestas
B

#254 #255

Ya lo discutimos hace meses. Yo lo que veo es que Zerok hace conjeturas basadas en conjeturas que a su vez están basadas....

al final es cuestión de fe. Esto es un foro y no una revista científica claramente. Pero si es cierto que algo de rigurosidad o ser más preciso sería adecuado cuando hay discrepancia en el tema. A mi no me vale de nada el 'falta mucho', 'hay que usar más herramientas', 'hay que tener en cuenta más cosas'.... No, hay que decir, qué es lo que falta, cuales son esas herramientas y cómo son esas cosas que faltan.

Si no, yo con un mínimo de conocimentos en cohetes, puedo afirmar que se puede viajar en cohete a otra galaxia, pero que para eso me hace falta.... y hago una descripción vaga o poco precisa, por no decir de ciencia ficción.

2 respuestas
Zerokkk

#255 Muy interesante lo de las teorías de Mochizuki, acabo de leer sobre ello y es una historia de lo más curiosa. Pero vamos que si programas una IA capaz de una hazaña así, malo será que no esté programada para explicarla de una manera más secuencial y didáctica que un tío que ni siquiera sabe dónde está la clave de su teoría para resolver la conjetura abc xD.

#256 Creo que hasta ahora he sido el único que ha citado artículos y puesto datos sobre la mesa, no es por mal eh. Cuando digo que "faltan herramientas", me refiero a que tenemos que mejorar mucho nuestros algoritmos de procesamiento de lenguaje natural, la comprensión semántica, mapeado de los caminos semánticos que relacionan unos conceptos con otros, toma de decisiones, capacidad de abstracción, y un largo etcétera de módulos que ya existen en muchas IAs de hoy en día, pero que están literalmente en pañales.

1 respuesta
B

#256 por eso me gusta el HCI, creo que ahí tienen mejor definido lo que esperan de un ordenador y todo es más sólido. Pero sí, todo esto son conjeturas y haríamos mucho mejor en, por lo menos, ser capaces de formularlas con la mayor precisión posible.

DarkRaptor

#253
Hombreee, la robótica y la cirugía. Qué ganas tenía yo de hablar de esto. A ver, nadie duda de la capacidad de un robot para ejecutar estas tareas con gran precisión, inalcanzable para un humano. Otra cosa es que de rutina sean necesarias. No voy a extenderme mucho en aparatos complicados.

La pregunta es: ¿el análisis de riesgo de un robot en medio de una cirugía es mejor que el mío? Hoy por hoy ya usamos, como bien dices, asistentes a la hora de ejecutar diagnósticos. Llevamos años haciéndolo xD. El asistente nos indica anomalías y nosotros decidimos si concederles o no valor integrando información clínica, empírica e intuición.

#246
No confundo nada. Lo que te estoy intentando señalar es que el resultado es lo de menos. Lo importante es el proceso.

Vamos a ponernos rigurosos:

  1. No existe definición universal de inteligencia.
  2. Hay quien opina que existen variantes o subtipos de inteligencia.
  3. No nos ponemos de acuerdo en caracterizar esos subtipos.
  4. El sustrato estructural, que podría orientarnos, es prácticamente único.
  5. No es cuantificable con métodos actuales.

Sólamente el hecho de tener una teoría unificada y sólida de qué es la inteligencia, cuántos tipos hay -si es que los hay- y qué límites tienen -aceptamos rangos eh- es para darle el Nobel al genio. Es más, solamente responder a una de las preguntas menores es ya para subirlo a un altar.

Explicar cómo se generan, desde los constructos más simples, abstracciones, empatía, arte o estética es para que te den otro Nobel. Por supuesto correlacionándo con el funcionamiento del sustrato, de la estructura subyacente.

Una vez esto esté resuelto, entonces te puedes poner a emular de verdad la inteligencia y decir con garantías: Sí, este programa es inteligente. Otro Nobel.

4 respuestas
B

#257

No es a malas hombre! Jaja, faltaría más. #259 lo ha explicado mucho mejor que yo. Antes de hacer mil y un conjeturas, hay que concentrarse en lo que hay y lo que se necesita para el siguiente paso. Todo lo demás no es muy riguroso tío, es hablar de las nubes. Que no es nada malo por supuesto! Pero si es cierto que nos están vendiendo la moto por otros canales cómo puede ser meter pasta en investigación, compañías, mass media... y habría que calmarse un poco, sobre todo cuando entras al detalle y te das cuenta de #259

1 respuesta
B

#259 yo lo único que sí que opino es que una máquina no se cansa y un cirujano o un médico sí (y más con los ciclos larguísimos). Respecto a lo diagnósticos, me dijo un médico que ahora mismo lo que se hace es mirar la foto de una biopsia y "el libro de los tumores" y comparar y decir si hay un tumor o no y de qué tipo. Este mismo médico quería empezar una startup con un software que aconsejase diagnósticos y tal. No sé si en Europa se hace distinto ya...

Mucha razón en la necesidad no obstante, por qué hace falta una máquina que tenga un femtómetro de precisión cuando con milímetros ya los resultados son óptimos? En este caso yo sí me decanto más hacia las máquinas por el tema del cansancio, pero estoy abierto a otras opiniones por supuesto...

2 respuestas
Zerokkk

#259 #260 Entiendo (y desde la discusión de hace meses) a qué os referís. La cosa es, ¿a dónde queréis llegar?

  • ¿Que no se puede, ni ahora ni se podrá jamás, ni con un oráculo sabelotodo, modelar el funcionamiento de un cerebro humano?
  • ¿O que no se puede modelar la inteligencia?
  • ¿O que ésta sólo es alcanzable por mecanismos biológicos?
  • ¿O quizá, que la IA actual está lejos de seguir dicho supuestamente perfecto modelo del cerebro y/o la inteligencia?

Si es el último caso, por supuesto: la IA actual trata de imitar algunas cosas del cerebro humano, pero va muy por su cuenta y una cosa tiene poco que ver con la otra, ya mismo el funcionamiento de un ordenador es súper diferente al de un cerebro, por lo que es algo que ya damos por supuesto.

Pero, ¿hace falta tener ese modelo perfecto para considerar una máquina, "inteligente"? Quizá desde una perspectiva puramente rigurosa sí, pero sinceramente, si a una máquina le presentas cientos de problemas distintos, y ella se las apaña para arrojar una solución, todo con una perfecta interacción con el humano como si fuera ésta también humana, para mí, es suficiente para considerarla inteligente.

Ya haría más que muchos humanos, y eso que a éstos se supone que hay que considerarlos inteligentes xDD.

En definitiva: creo que ponerse tan riguroso con un concepto que ni siquiera conocemos me parece buscarle las tres patas al gato.

1 respuesta
DarkRaptor

#261
Si estamos de acuerdo en más de lo que te crees. Con respecto a lo de tu amigo, yo he cursado AP y te puedo decir que ni los profesionales ni yo lo vemos tan fácil. De todas formas vamos a dejarlo en el ámbito de lo posible, porque tampoco conozco la idea que tiene ese médico e igual es perfectamente factible. No hay murallas insalvables en ese aspecto.

Vamos al diagnóstico general: ya tenemos asistentes que al igual que hacemos nosotros, REPLICANDO lo que hacemos, sugieren su versión del diagnóstico, basándose en una BD mucho más exacta que nuestra memoria.

¿Pueden reemplazar hoy por hoy a un médico? Como bien apuntas todo tira más hacia un asistente, que sugiera y complete aquello que se haya podido escapar. Valore usted esto por favor.

Con respecto a cirugía, te sorprenderías. Estás hablando con alguien que no se cansa de decirle a los cirujanos que mucho "bla bla bla artesanal" pero acabarán tragando con la mecatrónica como tragaron en su momento con la laparoscopia, videotoracoscopia... Al principio mucha resistencia, ahora todos encantados.

La máquina será una extensión de su mano, reduciendo el cansancio físico -que no mental- permitiendo operar a distancia y por supuesto ejecutando maniobras mucho más finas.

ArThoiD

Bastante interesante lo que planteáis, aunque para mi una característica importantísima de nuestra mente y por tanto debería tener una IA potente es el caos.

Estoy seguro de que si enseñas lo mismo a 2 máquinas con la misma IA, acabarán desarrollando las mismas capacidades. Si una se enamora de algo, la otra hará lo mismo, si una desarrolla odio por algo, la otra también....

Acabarán siendo exactamente lo mismo, por mucho aprendizaje hayan pasado y conocimiento hayan adquirido.

Y no me vale meter parámetros pseudo-aleatorios (que, de hecho, los números aleatorios generados por una CPU son deterministas) para tomar decisiones distintas, eso no es una IA.

Pienso que jamás se podrá simular al completo algo así.

1 respuesta
Zerokkk

#264 Para simulación de sentimientos y funcionalidades de ese palo, necesarias para la interacción humano-máquina, hay mucha pseudoaleatoriedad y dicen que funciona bastante bien, lo cual es todo un logro si tenemos en cuenta que nos queda muchísimo por aprender en cuanto a temas como los que nombré en #257. Que los números pseudoaleatorios sean deterministas no tiene importancia alguna; de hecho se cree que todo lo que sucede en tu cerebro es determinista también xD.

Al fin y al cabo si tomas una decisión sobre otra, hay un gran componente emocional detrás (por ejemplo nuestras decisiones a la hora de comprar un producto son entre un 85 y un 90% irracionales, y no me estoy inventando la estadística, léete Buyology de Martin Lindstrom y fliparás). Esas emociones, esa subjetividad, son básicamente premisas cuyo valor no tiene razón objetiva de ser, sino que tiene que ver con nuestras experiencias, genética... ¿En qué puedes diferenciar esto de un algoritmo que tenga una parte ínfima de aleatoriedad para recrear ese background emocional?

Es algo off-topic, pero hay un algoritmo de generación de aleatoriedad a través de la incertidumbre cuántica que sí se considera 100% aleatorio!

2 respuestas
B

Un contador geiger es aleatorio y es una manera muy sencilla de obtener dichos números xD.

DarkRaptor

#265
Rigor please:

#265Zerokkk:

se cree que todo lo que sucede en tu cerebro es determinista también xD.

Fuente de eso. Porque solo se lo he leído decir a Hawking y aportando unas pruebas que era para reirse de él. Y quiero ver el enlace a una revista de referencia.

#265Zerokkk:

¿En qué puedes diferenciar esto en términos funcionales de la aleatoriedad controlada?

En que irracional y aleatorio no son lo mismo. Los pensamientos irracionales tienen una razón de ser (ba dum tss) que te permite comprender por qué se producen y les da sentido en el contexto en el que se generan. A diferencia de un número aleatorio. Hasta para la irracionalidad hay contextos más óptimos que otros.

Eso de que cuando tomamos decisiones hay un gran componente emocional... ¿fuente de eso? Porque a veces ocurre, otras no. ¿Cuándo sí y cuando no?. ¿Cómo se integra todo eso? Es que ahí es dónde está el meollo.

Voy a tener que abrir un hilo y explicar por encima cómo se produce algo tan básico como la nocicepción. Iban a caer muchos mitos visto lo visto xD.

2 respuestas
B

#265 #267 este es un buen artículo que resume un poco lo que se sabe sobre cómo tomamos decisiones (no está todo). Hay un equipo bastante grande aquí en Princeton que trabaja en ello, dirigido por Cohen y Leonard.
https://webapps.pni.princeton.edu/ncc/publications/2002/NEURO.36_2_193.911.pdf

2 1 respuesta
DarkRaptor

#268
Ya la conocía :). Fíjate que empiezan hablando de estímulo-recompensa. No me extraña, es de los mecanismos que tenemos más dilucidados: conocemos la estructura sobre la que asienta, el árbol de conexiones y está muy conservado entre especies.

1 1 respuesta
B

#269 pues toma dos tazas (por si te interesa), estos son más algorítimicos:

Modeling Human Decision-making in Generalized Gaussian Multi-armed Bandits
Parameter estimation in softmax decision-making models with linear objective functions
Information centrality and ordering of nodes for accuracy in noisy decision-making networks

1 respuesta

Usuarios habituales