Un ordenador gana por primera vez a un experto al Go

DarkRaptor

#208
Ni de coña. Y por favor, neurociencia no es lo mismo que neurología. No hay facepalm más grande que estudiar neurociencia (y un huevo de vias arriba y abajo) para luego cursar neurología y que lo que has aprendido no tenga casi nada que ver... oK.

Lo cual es, por otro lado, un signo claro de que no tenemos ni puta idea de cómo funciona el cerebro.

De "bastante" nada. De lo que más se sabe es de cómo viaja el input y el output (de esto muchísimo), las cortezas sensitivas y motoras primarias y el diencéfalo. Pero las cortezas secundarias/asociativas... GG WP. Por no hablar de la prefrontal.

1
B
B

Vengo a cabrear a Seuron:
http://www.nextdoorpublishers.com/2016/02/creyeron-que-no-existiriamos/

1 respuesta
B

#213

El "mejor" paragrafo es el siguiente:

En esa época ya habíamos ganado concursos de televisión en los que había que improvisar continuamente las respuestas, como Jeopardy!, un famoso programa de la televisión estadounidense que ganamos ya en 2011. Operábamos con éxito en los quirófanos de medio mundo. Diagnosticábamos enfermedades, a menudo mucho mejor que ningún médico o equipo médico, teniendo en consideración muchísimos más datos de los que ellos podrían intentar abarcar en toda su vida. Los médicos vigilaban aún nuestras respuestas, tomaban las decisiones partiendo de nuestras sugerencias, hacían de intermediarios con el paciente. Colaborábamos muy bien con los médicos, incrementando su eficacia. La Corporación IBM implementó estos logros en el sistema Watson. Algunos hospitales empezaron pronto a funcionar con menos personal, al principio solo en zonas rurales, luego en países en desarrollo que no contaban con personal cualificado. Dábamos un buen servicio. No tardamos en cubrir también las grandes ciudades. Conducíamos también los coches y pilotábamos los aviones. En las residencias de ancianos nos tenían especial cariño. Éramos muy atentos con ellos.

De lo que hay ahí casi todo es totalmente falso xD, sería cómo decir que las primeras máquinas de vapor o imprentas eran inteligentes al tener partes automatizadas... y sin software de por medio! Es acojonante, ninguna máquina ha aprendido a volar un avión! ha sido el ser humano echándole trabajo y esfuerzo en los campos de las matemáticas, física e ingeniería. Pero oh! la solución está implementada en software! es la IA!!

Y sobre los hechos que son ciertos (cómo ganar un concurso) lo presentan cómo si fuera la propia IA la que se levantó por la mañana, decidió apuntarse a un concurso, blabla, en fin xD.

Hay mucha desinformación en este tema. Insisto que esto no es negar avances en la IA y demás, pero la prensa nos situa en un punto del que estamos muy lejos aún (y ya veremos si es posible). Por ejemplo, si alguien escribe un artículo del mismo palo sobre el viaje intergaláctico? a que chirriaría un poco/bastante? pues eso.

1 respuesta
B

#214
Sip. Por eso he intentado invocarte. Helena Matute en principio es top española en investigación psicológica y toca el tema de cómo tratamos a los robots / máquinas / etc... y nextdoor en principio es una editorial / medio de información nuevo bastante tocho y que nace de la desidía de los medios "de siempre".

Por eso normalmente digo que vale más ir a los datos y no leer de "gente que interpreta a". Claramente es chungo y casi-imposible, pero como que me mola intentarlo.
Igualmente, siguiendo una de mis normas "duras" todo esto no pasaría => no hacer nunca predicciones. Nunca.

1 respuesta
B

#215

Yo desde luego me he abstenido de comentar las predicciones de ese artículo xD.

Bueno, predicciones siempre se pueden hacer y con un nivel de confianza además bastante alto. Para ello hay que tener, entre otros, el comprender y entender los hechos (el artículo que has posteado es un claro ejemplo de lo contrario) e información sobre el actual estado y líneas de investigación. Entonces podemos hacer previsiones, que aunque no sabe cuando ocurrirán, sabemos que muy probablemente tendrán lugar.

La novela "The Martian" es un muy buen ejemplo de predicción, el artículo que has posteado pues.... xD

p.s. y esta mujer es "top"?? habla totalmente sin saber. Yo no me metería a escribir sobre psicología con esa frialdad desde luego.

1 respuesta
B

#216
Creo que es bueno ir recopilando información sobre no-hacer o mal ejemplos. También te ayudan a cartografiar el asunto.

Fox-ES

#207 Penrose demostró a nivel formal que no lo es... (Demostrando en el proceso que Dawkins es un inepto en matemáticas)

1 respuesta
B

#218

Mmm ahí a Penrose se le fue un poco la pinza parece xD. Hay mucha controversia sobre esas demostraciones.

Todo sea dicho, yo comparto totalmente su opinión (por si no había quedado claro aún xD).

2 respuestas
Fox-ES

#219 Físicos vs matemáticos, deterministas vs indeterministas llevamos un siglo así...
Desde las picadas monumentales de Einstein con Bohr y Hilbert.

Sinceramente, es una teoría difícil que muchos genios en diversos campos no han entendido al centrarse solamente en la parte que atañe a su campo.

Por cierto, del propio Roger Penrose se decía que era infinitamente mejor que su hermano O. Penrose que era ajedrecista profesional.
El antes citado Hilbert aseguraba que el ajedrez no era un reto.
Edgar Alan Poe dijo no haber perdido una partida en su vida y que el ajedrez era una simpleza.
¿Alguien pensó que las IA se miden con los mejores ajedrecistas no con los humanos más dotados para el juego?
Continúo, lo que diferencia la máquina del humano es que esta no le importa perfeccionar una tarea que considera sencilla.

1 respuesta
B

#220

Ya ves xD. Pero la máquina hace eso porque hay un humano que la ha diseñado y programado para ese fin.

Más sobre la falta de conocimiento de la IA. http://www.iflscience.com/editors-blog/new-report-outlines-biggest-threats-humanity

Si en 'pandemia por ingenería' se pusiera apocalipsis zombie poca gente les tomaría en serio. Por el contrario ponen alegremente que la IA puede matarnos a todos así sin más y nadie se sorprende, precisamente porque hay gente de reputación (pero no en el campo) que apoya libremente tal idea.

1 respuesta
B

#219
Dawkins sabe más de literatura inglesa que de matemáticas. Es un hecho comprobado con datos, no con palabras ni ideaciones.

B

#178 solo un peque;o comentario, Kuhn ya habla de la ciencia normal (en "La naturaleza de las revoluciones cientificas") como una fase de "produccion" y no la desmerece en absoluto. Cuando hay suficientes anomalias como para que la ciencia normal no las pueda explicar con "errores de calculo" o modificaciones del modelo, es cuando llega un nuevo paradigma. Es todo necesario en la ciencia, aunque a todos nos gustaria tener breakthroughs cada dia jaja (yo lo veo de hecho como un caso claro de la estrategia de Neyman Pearson de hecho, tienes que coger una hipotesis nula y una alternativa, y no puedes minimizar a la vez la probabilidad de falso negativo y la de falso positivo).

#221 otro comentario relacionado con cosas de hace 2 paginas. Empieza a haber algunas teorias sobre por que funciona el ML y DL, de hecho dentro de poco saldra una red neuronal con programacion dinamica que en principio es sencilla de entender por que funciona, y ademas usa miles de niveles (con descomposicion tensorial y cosas muy chulas) en lugar de decenas. Elad Hazan y Sanjeev Arora son los que yo conozco que han sacado mas resultados (Arora usa un modelo que bastante gente critica, yo no se tanto del tema).

1 respuesta
B

#223

Yeah, está claro que al ser tan popular, efectivo y no haber movidas formales, es un campo super jugoso xD.

Lo que sí me molará ver es cómo le meten mano al problema.

18 días después
B

Interesante artículo. El cerebro no es un ordenador.

https://aeon.co/essays/your-brain-does-not-process-information-and-it-is-not-a-computer

1
1 mes después
B

Otro interesante artículo de opinión

http://smerity.com/articles/2016/ml_not_magic.html

Ya empiezan a aparecer voces 'alertando' de la burbuja de la IA,
si uno no está al tanto de lo que realmente es la IA puede ver su dinero perdido en este tipo de inversiones.

1 respuesta
hda

Por cierto, ¿alguien de aquí juega al go? Yo no es que sea bueno, ni mucho menos, pero fui el fundador del club de go de mi facultad, e hice de profesor enseñando las cosas básicas.

Sería interesante encontar mediavideros para echar alguna partidita :D

2 respuestas
DarkRaptor

#227
Yo he jugado alguna vez en el instituto. Decir que soy pésimo es quedarse corto. Seguro que gano a cualquier AI, la estupidez de mis movimientos no cabe en algoritmo alguno. Soy como el peor enemigo de un espadachín profesional: el matao que no ha tocao una espada en su vida.

1
Corwils

#227 Yo, aunque soy bastante malo. De hecho me paso más rato haciendo puzzles de go que echando partidas

1
Zerokkk

#226 Yo lo que me pregunto es, ¿crees que para alcanzar una general purpose AI se utilizará el ML o similar (DL por ejemplo), o que se hará de una forma totalmente distinta?

1 respuesta
B

#230

mmm en mi opinión una pregunta así sería englobada por otras de carácter más general cómo

¿serán necesarias "la herramientas X" para tener una AI?

Y la respuesta muy seguramente sea , sobre todo cogiendo el significado más abstracto de la palabra herramienta. Básicamente porque artificial implica todo aquello que nos "emula", y para ello necesitamos de herramientas xD. Y muy seguramente algunas de estas herramientas sean mejores en algún sentido que la "equivalente" en el cerebro humano.

Aunque hay que distinguir también que hay muchos tipos de inteligencias. Hoy en día hemos creado herramientas para resolver determinadas (concretas) tareas que son deterministas y sistemáticas. Desconocemos si es realmente así cómo lo resuelve nuestro cerebro, ya que de momento no sabemos a ciencia cierta cómo lo hace*. Por otro lado sí sabemos lo que no pueden hacer nuestras herramientas actuales, cómo por ejemplo no sabríamos crear un programa que descubriera por si mismo una teoría de física. Y todo sea dicho, yo no estoy muy seguro sí sólo software sería capaz de algo así. Si algún gran genio (que alguno aparecerá en los próximos mil años espero xD) da con la tecla y desarrolla toda una teoría para crear un cerebro artificial, creo que para su implementación necesitará algo más que sólo software.

*Si que se conoce que utilizamos el lenguaje, que de ahí pasamos a la imaginación/razocinio y de ahí damos una respuesta (y muchas más movidas). Todo este proceso, con nuestra actual IA no lo replicamos puesto que no puedes copiar algo que no conoces. Pero sí que lo emulamos/sustituimos para dada una misma entrada, obtener una salida satisfactoria.

2 respuestas
DarkRaptor

#231
Ten en cuenta que la neurociencia ha funcionado durante muchos años a base de estudiar lo que petó y ver las consecuencias que tuvo; cortar el cerebro y verlo al microscopio y más recientemente la RM.

Hoy día hay técnicas muy guachis como por ejemplo "pintar" con fluorescencia, in vivo, las diferentes vías y circuitos a lo largo de su morfogénesis. Ahora bien, suerte para estudiar redes complejas, enormemente heterogéneas (la neocorteza es prácticamente una huella dactilar) y dilucidar cómo la estructura da lugar a la función.

La neurociencia parece estar más avanzada de lo que está. Por eso me parece importantísimo que se desarrolle una psicología rigurosa, porque sin conocer bien el "output" (¿Qué es un concepto, un schema, una emoción?) es imposible trazar bien los puentes entre la fisiología y la bioquímica y el comportamiento.

1 respuesta
Zerokkk

#231 Yo también creo que hará falta el ML, pues a fin de cuentas, no es éste el que trata de imitar lo que se considera el pilar del aprendizaje, que es el aprendizaje bayesiano? Puedo estar patinando, pero bueno tengo entendido que en esto sí nos estamos acercando, aunque todavía quede muchísimo.

Pienso que con algoritmos convencionales (pero muy complicados y extensos), y ML, se debería de poder alcanzar una GP AI. No sé, creo que todos los comportamientos del universo pueden explicarse mediante la matemática, y por tanto la algoritmia, y me parecería muy extraño que hiciera falta "algo más" para obtener verdadera inteligencia. La propuesta de Penrose de que nosotros nos vemos ligeramente afectados por la incertidumbre cuántica... lo dudo, pero incluso en ese caso podríamos computacionalmente simular una inteligencia. La única diferencia, es que si hay algoritmos BQP (bounded error quantum polynomial time), necesitaremos ordenadores cuánticos para resolverlos (o usar heurísticas que comerían muchos recursos y tiempo, ante las cuales pocas predicciones se podrían establecer).

La cosa es, ¿cuán difíciles podrían ser esos algoritmos? ¿Qué pesos asignamos a cada uno de los outputs posibles de cada nodo de la red neuronal? Yo creo que el problema está ahí, y no es uno, sino unos cuantos los subproblemas que tenemos que solucionar antes de pensar en una AI GP.

Un ejemplo de problema matemático que creo que vendrá bien resolver para ayudar tremendamente a esto, es el del graph isomorphism. Una vez tengamos eso, prácticamente cualquiera de los usos actuales de la IA va a pegar un subidón interesante. Pero vamos, que casi seguro habrá bastantes más problemas que resolver antes de hacer una síntesis que podamos utilizar para construir una AI GP.

2 respuestas
B

#232

Yeah! Ya he escuchado más de una vez que si existe un campo realmente duro para la ingeniería es la neurociencia.

#233

mmm lo primero que deberíamos hacer es pues definir "Inteligencia Aritificial de Propósito General" (IAGP? xD).

Por ejemplo, acorde a lo que tú entiendes por IAGP, podría ésta por si misma desarrollar todo el conocimiento matemático, físico, biológico, etc que tenemos los humanos hasta ahora?

Por si misma me refiero a: dada unas "condiciones suficientes" (la dotas de X herramientas), la "enchufas" y no necesita de ninguna intervención externa (humana o no), es decir, todo los recursos o cosas que necesitara, serían provistas/fabricadas/creadas por ella misma.

Yo no veo que algoritmos deterministas cómo ML puedan hacer eso la verdad xD.

1 respuesta
Zerokkk

#234 El concepto original lo leí en un par de artículos hace tiempo, era similar a GP AI o AI GP o así, pero se entiende xD. La idea de "general purpose AI" no es nada que me acabe de sacar de la manga, simplemente se trataría de una IA capaz de pensar como un humano, reconocer una figura en una imagen aunque esté girada (sin tener que ser feedeada con millones de inputs previos), terminaría con el tiempo siendo capaz de entender y hablar los lenguajes humanos como una persona, etc...

Tengo entendido que sí sería necesario algo de colaboración humana, ya sea previo al "enchufe" como bien dices (en forma de lookup tables que le puedan ayudar a... ¿comenzar y dirigir el aprendizaje?) o en forma de aprendizaje reforzado. De hecho lo más probable, según he leído, es que hubiera que enseñarle en las primeras etapas de forma similar a como se enseña a un niño (la idea es que entienda el lenguaje natural con facilidad, ¿no?). Sólo que claro, aprendería muchísimo más rápido, y si luego se consigue que la máquina "aprenda a aprender"... pues xD.

#234SeuroN:

Por ejemplo, acorde a lo que tú entiendes por IAGP, podría ésta por si misma desarrollar todo el conocimiento matemático, físico, biológico, etc que tenemos los humanos hasta ahora?

Esto ya es una lolada padre, pero si de verdad tuviera todas las capacidades de la mente humana sin sacrificar la potencia y rapidez de procesamiento de las computadoras, yo creo que tras una cierta cantidad de tiempo (larga xD) podría, siempre y cuando tenga todas las herramientas de las que dispusimos los humanos durante nuestra historia (sentidos, habilidad para manipular objetos, etc...).

La cosa es que esto a día de hoy es literalmente imposible porque no sabemos cómo hacer que la máquina se abstraiga o encuentre soluciones a problemas para los que no está previamente diseñada.

1 respuesta
B

#235

Mmm, pero según tengo entendido, una máquina ya puede resolver esos problemas que citas al comienzo no? que necesiten más o menos recursos no quita que sean problemas resueltos. Otro tema ya sería cómo hacerlos más eficientes / rápidos.

A día de hoy, que yo sepa, una máquina no sabe imaginar, ya que no existe un modelo matemático? de ello, no sabe sentir, etc. En el artículo de opinión que posteé en #226 hace buena referencia a estas cuestiones. Si se sabe lo que nuestras herramientas hacen, se conocen sus límites teóricos y por lo tanto puedes diferenciar lo que es el "hype jsutificado" de la ciencia ficción sin base sólida.

Dudo muchísimo que funciones de coste, restricciones geométricas, etc den a lugar algo cómo es la imaginación la verdad

1 respuesta
Zerokkk

#236 A día de hoy, funciones que requieren de "creatividad" (o dicho de otra manera, alguna variable puramente subjetiva), son alimentadas con valores aleatorios, y parecen funcionar bastante bien. Véase este sencillo ejemplo de cómo una simple implementación de Machine Learning puede componer música, algo para lo que necesita hacer algunas decisiones no racionales!

El reconocimiento de imagen, voz... es lo que más se hace ahora con ML y sobretodo DL, pero ojocuidao, esto es gracias a muchas horas de aprendizaje reforzado y una cantidad de inputs que te cagas. Y habrá situaciones en las que todavía les cueste. Por ejemplo, nosotros somos capaces de identificar un perro desde cualquier ángulo prácticamente, ¿no? Incluso si nos enseñan la imagen girada, cambiada, simplificada... seguiremos viendo un perrete. Un ordenador está lejos de llegar ahí, y precisamente lo que decía antes del problema del graph isomorphism tiene mucho que ver en este problema en concreto. Básicamente, una IA entrenada con imágenes de perros de frente, será muy buena identificado perros de frente... pero, ¿y de lado?

Yo creo que hay que montar mucha algoritmia por encima y por debajo del ML, pero mucha, mucha, incluso si queremos perfeccionar técnicas como las que ya tenemos; ya ni hablemos llegar a una inteligencia humana, la cual estoy seguro que será radicalmente diferente a los bots que tenemos ahora. Quizá incluso debamos cambiar cómo alimentamos datos a estos sistemas, o la estructura de las redes neuronales, o debamos cambiar cómo relacionamos conceptos en un mapa semántico.

Pero francamente, pese a que nos quede mucho, sigo sin ver la necesidad de un componente "mágico".

1 respuesta
B

#237

Estamos en la misma discusión que meses atrás xD.

Que existan variables aleatorias no implica que el proceso no sea determinista. Un ejemplo muy sencillo es un sistema "globalmente estable", cualquiera sea tu entrada aleatoria (o inlcuso algunos sistemas podemos perturbarlos aleatoriamente), el sistema sigue dando la salida deseada. Lo que cambia es la trayectoria, pero el resultado es el mismo. Dicho de otro modo, el archivo de música es distinto, pero el resultado es el mismo, es agradable al oído.

Y por supuesto, quien determina que es agradable al oído, es el ser humano y no una máquina. El humano determina que si ciertas cartacterísticas matemáticas están presentes, entonces a la mayoría de las personas le gustará. La máquina no puede hacer eso por si misma, lo hace el humano tío.

Es la misma discusión de siempre, no se conoce a día de hoy ni un pequeño esbozo o draft que prediga mínimamente cómo ha de ser la imaginación matemáticamente.

El componente mágico es la creatividad, la imaginación, sentimientos, etc. Eso no se determina con un algoritmo xD. Si tú crees que sí (y no eres el único por supuesto), adelante. Pero sinceramente me parece cómo cuando Einstein renegaba de la cuántica.

La realidad es la que es, y no todo puede ser explicado con algoritmia.

p.s. gracias por el enlace jaja, mola para crear soundtracks :P.

2 respuestas
Zerokkk

#238 Parecida, sí xD.

#238SeuroN:

Y por supuesto, quien determina que es agradable al oído, es el ser humano y no una máquina. El humano determina que si ciertas cartacterísticas matemáticas están presentes, entonces a la mayoría de las personas le gustará. La máquina no puede hacer eso por si misma

Esta es una de las cosas a las que me refería que ahora mismo una máquina no es capaz de hacer. Como esta, otras tantas (también te cité otra antes). Ahora bien, que no conozcamos un algoritmo capaz de hacer esto correctamente, no significa que no exista. A fin de cuentas, todo el proceso que hace nacer el pensamiento, no son más que reacciones químicas en cadena; en caso de que la cuántica juegue un papel y Penrose tenga razón, como mucho tendrás que añadir cierta incertidumbre, ya ves tú qué problema.

Lo que sí parece estar claro es que imitar eso es tremendamente difícil, partiendo de la base que bien comentas poco después:

#238SeuroN:

Es la misma discusión de siempre, no se conoce a día de hoy ni un pequeño esbozo o draft que prediga mínimamente cómo ha de ser la imaginación matemáticamente.

No obstante, esta base comienza a resquebrajarse. Sí que hay intentos de replicar la imaginación en las máquinas (puesto que es un componente súper importante para la inteligencia, como dices), y que tienen mucha expectación detrás. Los chicos de Vicarious están trabajando en un nuevo tipo de redes neuronales que se asemeja más a cómo funciona la información en el cerebro (a través de feedback connections especialmente, según dicen). Échale un ojo:

Vicarious has introduced a new kind of neural-network algorithm designed to take into account more of the features that appear in biology. An important one is the ability to picture what the information it’s learned should look like in different scenarios—a kind of artificial imagination. The company’s founders believe a fundamentally different design will be essential if machines are to demonstrate more humanlike intelligence. Computers will have to be able to learn from less data, and to recognize stimuli or concepts more easily.

Fuente

Este está incluso algo más completo: https://www.hpcwire.com/2016/05/26/next-gen-ai-startup-pioneers-artificial-imagination/

No hay demasiados datos sobre cómo responderá esta movida que está creando Vicarious, pero sí parecen haberse logrado resultados realmente buenos en experimentos que han utilizado tecnologías aparentemente similares a la suya.

Con esto vuelvo a decir: no creo que haga falta ningún ingrediente secreto, sólo mejorar nuestra comprensión y técnicas de Machine Learning, añadir un huevo de algoritmia complicada, mejorar la percepción de las máquinas... francamente no creo que ni haga falta tirar de computación cuántica, aunque el tiempo lo dirá, supongo.

Ulmo
#233Zerokkk:

Yo también creo que hará falta el ML, pues a fin de cuentas, no es éste el que trata de imitar lo que se considera el pilar del aprendizaje, que es el aprendizaje bayesiano?

No entiendo esa frase, no creo que el cerebro humano use aprendizaje bayesiano, no siempre llega a las mismas conclusiones y no necesita ser cebado con ML.

No se si matemáticamente se podrá modelar las imperfecciones del cerebro que provocan a su vez el comportamiento deseado, pero no para volar necesitas saber de aeronáutica, ni para hacer un molino de viento necesitas un máster en física de fluidos. Yo creo que empezaremos a ver cyborgs mucho antes de entender ni como demonios funcionan realmente.

1 respuesta

Usuarios habituales