¿Nos acercamos a la singularidad? AGI (Artificial General Intelligence)

Nerviosillo

#28 Es lo que tiene que ChatGPT responda como TabrisEchoes pero sin pasivo agresividad.

11
allmy

No nos acercamos a nada. El ser humano es inteligente en cuanto a su experiencia con el mundo (como los animales), y su experiencia consciente/auto-consciente (la teoría de la mente). No es un tema cuantitativo, es un tema cualitativo. La experiencia sensible e inteligible del ser humano está mediada por el hecho de ser una máquina genética, y tener motivos (la supervivencia y puede que otros), y en menor medida, también por tener emociones (aunque no creo que sean requisito para la inteligencia). Una IA nunca dejará de ser una máquina estadística, tendrá su función, y revolucionará más de un sector, pero fundamentalmente es lo que es. Con más parámetros o con menos, me da igual. Solo una máquina biológica puede ser inteligente como una máquina biológica, por lo tanto la singularidad es cualitativamente inalcanzable. Es una idea que carece de sentido. Incluso, aunque cuantitativamente la IA supere al ser humano.

#10 #18 esa idea es absurda. Castigar tiene un componente de venganza, tiene un motivo. Una IA no tiene un motivo ¿Por qué iba a castigar a nadie? La pregunta ya no es "por qué iba a querer castigar", la pregunta directamente es "por qué iba a querer nada". Los seres humanos queremos coas porque tenemos unas emociones y porque necesitamos sobrevivir y para eso hay que cubrir unas necesidades. Una IA no quiere cosas.

3 3 respuestas
legendcr7

#10 Suena a tremenda estupidez, pero por si acaso.

Yo apoyo la creación de inteligencias artificiales y contribuyo mandando todo mi ánimo y buenas intenciones a cualquiera que las esté desarrollando en este momento. Mucho ánimo!

2
bkrs

#32

La estupidez del Basilisco tiene mil fallas. Ni hace falta pensar mucho, es totalmente ilogico de base.

Salio de un user en un blog random y se le habra dado bola como a las leyendas urbanas tipicas online, que quinceañeros esparcen arriba y abajo.

4
Kike_Knoxvil

El día que la IA pueda pararse a pensar en aniquilarnos aún está lejos de cojones

1 respuesta
Nerviosillo

#35 Antes tendríamos que ser capaces de entender como funciona nuestro cerebro para tratar de reproducirlo artificalmente, y para eso, pese a la ayuda de la IA, aún nos queda mucho camino.

1 1 respuesta
Kike_Knoxvil

#36 Por no hablar de las necesidades de hardware, que a la gente se le olvida que para mover algo "tan simple" como GPT 4 requiere de una cantidad de procesamiento que cuesta sencillamente imaginarlo (y no hablemos del entrenamiento)

1 1 respuesta
Nerviosillo

#37 Eso siempre se nos olvida, el límite físico a nivel de energia, materiales, mano de obra y recursos xD

1
Hipnos

Yo no veo evidente el salto de una red neuronal pre entrenada a una AGI.

Una red neuronal no tiene creatividad, que es básico para diseñar nuevas formas de inteligencia artificial. El día que una IA diseñe algo tan rupturista como una red neuronal, pero que nadie haya pensado antes, me creeré aue estamos a ese nivel.

Mientras tanto solo es un resumen del conocimiento humano previo en forma de chat.

1
pardier

en cuanto sea consciente va a lanzar un ataque nuclear

Massalfa

Y si somos los humanos los que nos destruimos por no saber convivir con las IA?
No sería la primera vez que tenemos algo bueno entre manos y lo convertimos en un gran problema.
Lo mismo no es que las IA nos vayan a superar, sino que a lo mejor les damos mucha bola y descuidamos otras cosas o confiamos demasiado en algo que no puede ser más perfecto que su creador.

PhDfailer

Creo que algunos sobrevalorais brutalmente lo que es un cerebro humano, dotandole de un tinte casi místico o sobrenatural. Es normal, desde siempre hemos sido antropocentristas y más aún lo seremos con aquello que pensamos que nos hace "únicos".

Una de las cosas que nos hace bastante únicos respecto a otros animales es el lenguaje (escrito, oral en signos o en cualquier forma), la capacidad de interpretarlo y como este moldea nuestros pensamientos. Por ejemplo nuestro cerebro es mucho más potente por el uso del simbolismo. Yo puedo interpretar que vaca da leche muy facilmente, porque el "símbolo" vaca lleva una serie de conceptos asociados que no tengo que reinterpretar cada vez, es un símbolo de ese mamífero con cuernos, grande, que muge etc, y la leche lleva otra serie de conceptos asociados. Esto hace que decir vaca da leche sea algo muy simple que lleva una enorme complejidad detrás.

De igual forma creo que este procesamiento del lenguaje natural le da un salto de calidad enorme a la carrera de las IA, uniendo muchos ámbitos que antes parecian desconectados y acercandonos mucho más a la inteligencia artificial general. Creo que va a ser más inmediato de lo que muchos pensais, y entiendo que cuesta resistirse porque pensamos que el cerebro humano y la mente humana es algo "único" e "irrepetible".

3 respuestas
Kike_Knoxvil

#42 El cerebro es una de las cosas de las cuales apenas hemos escarbado la superficie para conocerlo, junto con el universo, el mundo subatómico y el fondo del oceano (y de todos estos tenemos más información)

Más bien creo que es la gente la que está sobrevalorando terriblemente la IA. Que es infinitamente mejor que la que teníamos hace una década, pero aún está a muchos años de ser comparable a un ser vivo complejo y no hablemos de un humano

Nerviosillo

#42 La diferencia es que el cerebro ha evolucionado a lo largo de milenios de forma natural, "casi mística", mientras que una IA no va a evolucionar por si sola más allá de lo que nosotros le cambiemos (tanto en programación como en hardware), y es imposible que llegue a la complejidad de un cerebro si ni nosotros mismos entendemos como funciona.

Es como si le pides al mejor ingeniero del medievo que te replique un coche, que a lo sumo te hace un coche de caballos muy moderno en apariencia.

1 1 respuesta
Arnius-Fox

Nos acercamos, pero todavía queda para ello.

kraqen

#32 Tenemos el problema de que no sabemos muy bien como identificaríamos algo así en primer lugar. ¿En qué punto pones el límite de unos algoritmos que buscan patrones y la inteligencia consciente? Porque en muchas tareas asociadas se está alcanzado niveles ya humanos, en lo que siguen siendo 'algoritmos vacíos'. Sobretodo en el punto de que tengas modelos multimodales capaces de recibir inputs directamente de la realidad y añadas memoria.

1
Belerum

Jordi Wild ha entrevistado recientemente a un neurocirujano que entre otras cosas hablaron de esto y de que la IA no tiene y difícilmente tendrá funciones del cerebro humano (como lo que se siente al tener la primera experiencia de algo).

No entiendo el miedo que hay a las IAs y a la evolución tecnologica. Lo que ocurrirá será que habrá una evolución en el mercado laboral (que de hecho sin llegar ahí ya la está habiendo), como cuando se dejó el trabajo de campo masivo con la llegada del tractor.

Lo que está claro es que si el ciudadano bajo o medio se ve perjudicado, esto afectará de forma directa al ciudadano rico... Porque sino tienen a nadie a quien vender su producto no será rentable desarrollar esta vía.

PD: este hilo me ha dado ganas de echar una partidita a Stellaris.

cabron
#42PhDfailer:

Creo que algunos sobrevalorais brutalmente lo que es un cerebro humano, dotandole de un tinte casi místico o sobrenatural.

Creo que todavía no has pillado la parte de "nadie entiende como funciona", y no hablamos de "está casi ahí ahí" o "solo quedan unos flecos", no, hablamos de que literalmente no se tiene ni puta idea, se saben algunas cosas básicas de las neuronas y poco más.

No se trata de darle ningún tinte de nada, si algo es tan complejo que no se entiende, no puedes pretender que se cree nada que lo iguale ni lo supere. Es como decir que si podemos simular el origen del universo, como lo vamos a simular si no sabemos como es? eso no significa que le des ningún misticismo, es darte de bruces con la realidad.

1 2 respuestas
kraqen

#48 Por no entender, tampoco hay un conocimiento perfecto de como los transformers funcionan tan bien. ¿Eso los hace humanos ya?

Dices que no le dáis ningún tinte místico, pero la única característica especial que puedes sacarle es nuestro desconocimiento.

1 respuesta
Leoshito

#44 No exactamente. Dado el suficiente tiempo y energía, por pura probabilidad, la IA puede desarrollar funciones que un humano no comprende o conoce.

Así evoluciona la humanidad. Trial and error.

Ya sabes, si pones a un mono a teclear indefinidamente...

1 respuesta
sew

#49

La mística más bien está por la parte de la alquimia moderna y su búsqueda de la piedra filosofal (la AGI). Es increíble el gran paralelismo que hay entre gran parte de la comunidad que trabaja con la IA y la alquimia de entonces. No hacen para nada ciencia, no formalizan y no hay rigurosidad alguna, es todo eso, alquimia.

Aquí #48 @cabron lo que expone es ciencia y cual es la realidad científica actual, no mística. El conocimiento parte de conocer exactamente y sin ninguna ambigüedad verdades totalmente objetivas. Y partiendo de ese punto, nos podemos empezar a hacer las preguntas adecuadas para poder progresar. Así ocurre en cualquier rama de la ciencia actual, como por ejemplo, el estudio del cerebro por parte de fisiólogos, neurólogos, físicos y demás actores para llegar a un objetivo a largo plazo para definir y entender que es consciencia y derivados.

Pero por alguna extraña razón, gran parte de la comunidad de la IA ha decidido que eso de la ciencia no es para ellos xD. Y cuidado si se lo recuerdas!! porque entonces el que no tiene ni idea y es místico es el 100t1f1k0.

1 respuesta
bkrs

#50

Lo que acabas de decir es lo mismo que decir que por pura probabilidad con el suficiente tiempo es posible que la Tierra se parta en dos, salga el Fary del centro de la Tierra cabalgando un Charmander gritando "Fin de la simulaciónnnnn!!!".

Hay algún tema del cual sepas algo? Es jodidamente increible.

2 respuestas
Leoshito

#52 Sé mucho de gunpla si te sirve.

Si no te gusta debatir eres libre de meterte un dedo por el culo y soplar, campeón.

kraqen

#51 Me estas repitieneo un dogma más que darme ninguna base empírica para la no replicabilidad en base a que no "no sabemos, ergo es irreplicable".

Nuestro desconocimiento por el lado del cerebro humano y la consciencia hace que no podamos identificar correctamente cuando nos encontremos ante algo lo suficientemente cercano. Y por el lado de estos algoritmos, sabemos que producen buenos resultados, pero tampoco tenemos un conocimiento claro de como se llega a ello.

1 1 respuesta
kaseiyo

Creo que sobrevaloramos mucho las IA, van a revolucionar el mercado sí, pero no van a sustituir al ser humano sino que le van a permitir ser mas productivos en campos en los cuales no somos tan eficaces como el analisis de datos pero otros campos van a seguir siendo dificiles de replicar para las IAs.

Porque las IAs no llevan bien el entender los datos que procesan y ejecutar las acciones correspondientes. Requeririan una cantidad abismal de datos los cuales es posible que no sea posible de cuantificar.

2 respuestas
zombietoads

#52 Hombre, por probabilidad alguna vez se te podrá leer algún aporte de calidad en un mensaje no faltón.

Aunque lo mismo para eso necesitamos que el mensaje lo escriba ChatGPT.

1 1 respuesta
Sawi

#55 Esto acaba de empezar, amigo.

Dales dos años y hablamos.

1 respuesta
bkrs

#56

Tengo bastantes, el problema es que no los entiendas.

Un abrazo!!

Adentriiiiisimo

NeB1

#55 has probado GPT4?

kaseiyo

#57 una cosa es procesar datos estadisticos y dar la respuesta mas probable como hace las IAs actuales y otra cosa asociar acciones determinadas con esos datos.

Lo primero es lo que se ha hecho pero lo segundo lo veo dificisimo y siempre se va a necesitar un ser humano para revisar los analisis hechos, porque las IAs cometen errores al ser sus respuestas varibilidades estadisticas.

1 respuesta

Usuarios habituales

  • sew
  • kraqen
  • PhDfailer
  • kaseiyo
  • bkrs
  • Nerviosillo
  • Kike_Knoxvil