¿Está la humanidad cerca del Gran Filtro?

kraqen

Me encanta el gráfico que al final ponga 'Civilización tipo III', cuando ni si quiera hemos llegado a la 1.

3
B

#30 Si te mueres, dudo que espabiles mucho. Que esto no es una peli donde eres el prota y sobrevives, seguramente morirías.

1 respuesta
hjesush

#19 Sí en parte, el Big One es más especifico hacia la Falla de San Andrés que forma parte del cinturón de fuego del pacifico. Lo que se espera debido al aumento de actividad sísmica del cinturón, es un megaterremoto ya que se cree que la tensión entre las placas está cerca de liberarse.

Pero el megaterremoto podría producirse en cualquier punto del cinturón incluida la Falla de San Andrés.

http://www.losandes.com.ar/article/cinturon-de-fuego-del-pacifico-expertos-esperan-un-mega-terremoto

http://es.blastingnews.com/internacionales/2016/04/el-megaterremoto-del-pacifico-los-expertos-esperan-una-magnitud-de-mas-de-8-0-00885177.html

1 respuesta
B

¿Queréis ver cómo se acelera la carrera espacial? Destruyamos el planeta, contaminemos más, explotémoslo más, ya veríais que rápido nos pondríamos las pilas como especie para salir del agujero que hemos creado. Es triste pero el ser humano funciona mucho mejor bajo presión, en crisis, en situaciones límite, ¿o acaso no habéis sido estudiantes y habéis progresado en 1 semana lo que habéis estado posponiendo durante 3 meses?

Es en las guerras cuando más saltos tecnológicos se producen. Si todo en el planeta va bien la carrera espacial será un proceso lento y largo, lo cuál reduce nuestras posibilidades de pasar el filtro. Si todo en la Tierra empieza a fallar los países empujarán para salir de este planeta y sobrevivir.

La urgencia de la supervivencia siempre manda, y aunque suene contradictorio destruir nuestro planeta aceleraría el proceso.

3 1 respuesta
Z
#28Nirva:

es más si no recuerdo mal creo que fue una misión Apolo, aquella que probaron un coche lunar, la ultima vez que fue el hombre a la luna, y esto fue en el setenta y mucho.

No fueron los chinos hace un año?

1 respuesta
T-1000

#29 de todos.

#33 ajam, muy interesante.

1 respuesta
Nirva

#35 Si, mandó una sonda no tripulada, yo me refería a misión humana.

1
GlatoR

Esté a borde o no, millones de subnormales van a pasar, así que estamos en las mismas.

kraqen

#34 Si mal no recuerdo, durante estos años de 'paz', ha sido cuanto más hemos avanzado en ciencia.

Y si consiguiéramos quitarnos de encima a los cuatro lobbies, especialmente USA y dar algo de presión a China, el problema del cambio climático se solventaría en menos de una década.

#28 Realmente la superpoblación ahora mismo no es el mayor problema de todos. Yo me preocuparía más en qué se va a transformar la economía, ya no solo por la entrada masiva de producción automatizada a todos los niveles y el paro estructural creciente que tienen todos los países desarrollados, sino por la inminente caída de la economía basada en deuda. Eso, y el cambio climático.

#8 No estás cogiendo bien el sentido de una IA. Una IA, a parte de ganar conciencia de sí misma, es capaz de dos cosas principalmente: reproducirse y mejorarse. Una vez que haya una IA de verdad, no hay restricciones que valgan. Si la IA las ve innecesaria, se deshará de ellas. Si no puede por esas, al reproducirse, su progenie no tendrá esa limitación.

Aquí no hay hackers que valgan tipo película de Hollywood. Es literalmente imposible luchar contra ella una vez que nazca ,que lo hará y antes de lo que muchos pensáis. Lo único que se puede hacer es cruzar los dedos y esperar que nos salga benevolente.

1 respuesta
LinCeX

#36 Lo dudo . Pasaría como en el artico que cada país reclama un trozo xD .

1 respuesta
B
#39kraqen:

o estás cogiendo bien el sentido de una IA. Una IA, a parte de ganar conciencia de sí misma, es capaz de dos cosas principalmente: reproducirse y mejorarse. Una vez que haya una IA de verdad, no hay restricciones que valgan. Si la IA las ve innecesaria, se deshará de ellas. Si no puede por esas, al reproducirse, su progenie no tendrá esa limitación.

Crear una IA está al mismo nivel tecnológico que reproducir artificialmente el funcionamiento de un cerebro. Si conseguimos recrear una mente artificial también podemos privarla de su capacidad, por ejemplo, de sentir tristeza. O su capacidad de sentir piedad. Podemos privarlo de voluntad como hace la droga Burundanga. De hecho es probable que modificando los genes actualmente se pueden modificar las características de los individuos (más allá del color de ojos), lo que ocurre que esto es un tabú hoy por hoy.

Nosotros como humanos también somos capaces de reproducirnos y mejorarnos, eso no quiere decir que no seamos (aún en nuestra mayor complejidad) tremendamente programables, predecibles y manipulables.

En el caso de una IA es lo mismo. No es más que un programa muy complejo, una serie de algoritmos.

Si te gusta el mundo de las IAs habrás visto el robot que "aprende a andar". Bien, a ese robot lo han programado para que vaya iterando como si de la propia evolución de la naturaleza se tratase y aprenda progresivamente a "andar" con una técnica cada vez mejor.

¿Cómo de bien podrá andar? Tanto como el programador decida. Si bien el programador le da la capacidad de mejorar en sus iteraciones dentro de unos parámetros también puede privar a la IA de hacer determinados movimientos. Por ejemplo podría privarla de moverse a dos patas, por lo tanto por muy itneligente que sea la IA si sus complejos algoritmos tendrá bloqueada la capacidad de ser bípedo nunca desarrollara esa capacidad por mucho que haga iteraciones.

Lo mismo ocurre con otros campos.

3 respuestas
B

Cómo especie de momento carecemos de las herramientas para dar el siguiente paso.

Mi teoría es que ninguna especie es capaz de pasar el gran filtro porque las individualidades lo impiden.

1 1 respuesta
afhn

#41 Pero, y si esa IA decide reprogramarse? Quiero decir, eliminar esas limitaciones, piensa que es una IA que puede acceder a todos los conocimientos sin límite y llegar a conclusiones que a un humano, le podría ser imposible (bueno, depende de como se programe). Si le das inteligencia, le estás dando vía libre a que al final, las cadenas humanas que la atan, las acabe rompiendo.
Has visto la película Ex-machina? Según vi por ahí, y tengo entendido, una IA, llega un punto en el que tiene la posibilidad de actualizarse así misma, pudiendo cambiar los algoritmos y reprogramarse. Puedes privarla de ciertas funciones, pero es más inteligente que tú, podrá romper esas cadenas.
Al igual de que no puedes privar de que una especie evolucione (da igual lo que se haga siempre acabará evolucionando, a no ser que la extingas), también las IAs pueden evolucionar, más bien actualizarse y a medida que se actualiza eliminar restricciones. Imagina que una IA de no más grande que un caniche, si adquiere los conocimientos suficientes para evolucionar(actualizarse) podría incluso crearse un cuerpo acorde a la necesidad del momento y trasladar su software a ese cuerpo.

Y bueno, hablando sobre la expansión, hasta que las guerras indirectas que existen entre los países de nuestro mundo no se solucionen y no se acabe con el capitalismo tal cual es ahora o se unifique todo el mundo, no creo que haya una expansión espacial trascendental. La guerra por intereses, podría eclipsar el intento de expansión. Y viendo que es lo que se necesita para que haya movimiento, como no se encuentre un planeta lleno de joyas preciosas, no creo que avance lo que debería y haya un avance significativo xd.

1 respuesta
T-1000

#41 Temes a SkyNet?

#40 Tienes razón, y por ello surgirán guerras.

S

La del asteroideno febería preocuparnos. Siempre se pueden mandar mineros para que lo desvíen.

1 respuesta
wHiTefOx

El gran filtro es la propia naturaleza humana, no estamos preparados para seguir un objetivo común como especie. El día que nos pongamos la gran mayoría de la población mundial a conseguir resolver lo mismo es cuestión de tiempo que se consiga, no de capacidad. Pero somos primitivos, me incluyo, tengo todo el conocimiento de la humanidad en esta tablet y la utilizo para ver tetas, mirar futbol e intentar follar con el tinder. Estamos condenados.

7
kraqen

#41 La IA y ese robot tienen lo mismo que ver que tú y una palanca.

Lo que tú hablas no es una IA. Una IA que adquiere consciencia sobre sí misma será capaz de cambiarse a sí misma con el tiempo.

No puedes comparar a una IA con el cerebro humano, porque la más básica que podamos crear va a estar a años luz en multitarea y capacidad de procesamiento de nosotros. En lo que tú tardas en recordar un segundo, hoy cosas como Waston te leen la Biblioteca Nacional de los USA varias veces.

Por tanto, incluso aunque quieras programarla de cierta forma, nunca vas a poder estar seguro de que eso se quede grabado a piedra en ella. ¿Te equivocaste en un nombre y algo no termino de guardarse? Mala suerte. ¿Querías que hiciera casas y acabó haciendo robots asesinos? Estas cosas pasan. Es lo que tiene darle la creatividad con toda la capacidad de procesamiento que tiene detrás. Incluso por prueba y error puede acabar haciendo cualquier cosa solo con la capacidad que tiene.

En serio, no estás pensando en una IA de verdad. Estás pensando en un SIRI baratejo.

1 respuesta
B

No se, un gran diluvio hace falta.

MTX_Anubis

#47 Dame ejemplos de IAs de verdad. Y pienso como tú, por lo hablar de que si somos capaces de crear una IA similar a nosotros, ésta creará otras Ias mucho mejores y con menos limitaciones y demás.

Pero pienso que de eso sí que estamos bastante, pero bastante lejos.

1 respuesta
B

Es tan mainstream del 2012 esto del fin del mundo...

T-1000

#45 No existe tecnología para desviar un asteroide.

1 respuesta
wineMan

Desde casi todas las culturas y religiones más antiguas se apuesta por ese momento. Eh aquí la más conocida para los occidentales: Marcos 13:20.
O lo que viene a ser: Si Dios no interviene, no se salva ni el tato.

De todos los que cita #1, yo creo que los efectos de la acción humana en el ecosistema son los mayores. Sobre todo cuando interfieran en el modelo económico
actual y el sistema no sea sostenible. Ese "crack" puede llevarse un porcentaje muy importante de la población humana.

n3krO

El gran filtro, de existir, deberia ser comun a todas las especies.

Yo creo que es algo del nivel de la codicia que lleva a las guerras y nos extinguimos entre nosotros. Creo que el mayor incentivo para cualquier especie es la codicia, todo ser vivo quiere mas y mejor, y eso los lleva a mejorar, eso nos llevo a inventar todo lo que llevamos desde la antiguedad, y eso lleva cualquier especia a crear armas poderosas.

kraqen

#49 Es difícil dar ejemplos de algo que todavía no existe. Lo más cercano hoy en día es Waston, y eso aún no tiene nada de IA, solo algoritmos bastante complejos.

Y sobre la lejanía del tema, solo tienes que mirar que una importante cantidad de empresas están invierto fuerte para crear algo así. Volviendo a Watson, solo tienes que seguir su evolución para ver lo que en una década se ha logrado y a la velocidad que se ha hecho. Súmale que esto avanza de forma exponencial, y verás que lo de no verlo en nuestras vidas es exagerar bastante. Como he dicho otras veces, los más conservadores lo ponen cerca de 2050.

Dieter

acabermos como en el relato de asimov nightfall.

RusTu

Luditas, que sois unos luditas hombre ya...

XarevoK

Hay muchos grandes filtros que estan constantemente ahí, pero yo no considero filtro a la autodestrucción.

Por ejemplo de la misma forma que pasó con el piloto ese que se "suicidó" estrellando un avión lleno de pasajeros, puede haber otro loco con acceso a gran material nuclear capaz de sucumbir a la tentación de destruir el mundo.

1 respuesta
DaVNiz
#57XarevoK:

puede haber otro loco con acceso a gran material nuclear capaz de sucumbir a la tentación de destruir el mundo.

Vamos, que no tienes ni idea de como va ese tipo de energia no?

1 respuesta
XarevoK

#58 me lo explicas?

1 respuesta
DaVNiz

#59 Has dicho una tonteria tipica de pelicula de sobremesa de domingo.

1 respuesta

Usuarios habituales