Piden pausar 6 meses desarrollo de IAs (nivel GPT-4 o superior

P

#119 Un clarisimo ejemplo.

Tira de utopias pero no da soluciones a esas cosas que plantea

Por ejemplo:

Ingreso básico universal: Un ingreso básico universal garantizaría que todas las personas reciban una cantidad mínima de dinero para cubrir sus necesidades básicas, independientemente de si tienen empleo o no. Esto podría dar a las personas la libertad de buscar trabajos más significativos o dedicar tiempo a actividades como el voluntariado o la educación.

Simplemente te cita la definición propia de ingreso basico universal, pero cuando le preguntas como hacerlo viable sin llevar paises a la quiebra no lo sabe, y no lo sabe porque no lo sabe quien ha creado dicha inteligencia.

1 respuesta
Erterlo

#120 Que la escriban a mano xD

eXtreM3
#12allmy:

Nunca podrá igualar a un humano en la percepción que un humano tiene del mundo

Qué afirmación más atrevida a la par que ignorante.

Mariox93

El problema principal lo veo con la gente que se dedica directamente a trabajos de datos, contabilidad seguramente y sobre todo informática. Ahí sí que puede haber bastante destrucción de empleos. De todas formas, el tema de la informática era algo previsible, era una burbuja que en algún momento tenía que explotar

El resto de la sociedad y de los trabajos no creo que se vea tan afectada por este tipo de IAs.

2 respuestas
elsonyer

yo pienso que tiene sentido que un gobierno regule esta tecnologia

Luego pienso en los politicos que tenemos en españa y se me pasa.

desu

#118 Estas mezclando varias cosas. Tu piensa en el resultado. En este caso le estas pidiendo a un modelo de lenguaje por una opinion. Y eso es muy complejo.

La respuesta en si de ChatGPT ya es un resultado del modelo, la interpretacion de textos de input que le han dado ya es otro resultado, el leer tu input e interpretarlo correctamente es otro resultado y asi habra varias capas. No se como funciona ChatGPT porque no me lo he mirado pero generar una "opinion", seguro que no esta entrenado para generar opiniones.

Porque para empezar es uno de los problemas mas dificiles de resolver, es mucho mas facil REFUTAR una opinion. Tu podrias tener un ChatGPT entrenado para REFUTAR opiniones facilmente a partir del conocimiento que el aprende. Y entonces te explicaria porque algo esta bien o mal citandote fuentes. Y esto indirectamente, en base a aprender a interactuar con usuarios como un chat de ayuda, ya lo hace.

Y en el roadmap esta el tener plugins especializados de ChatGPT como el wolframalpha. Con ello ChatGPT accedera a todo el conocimiento de la herramienta y de esta manera si tu le pasas una formula matematica, te refutara o te correjira porque esta mal. Y tambien te ayudara a resolver lo que quieras. Y el generar una "nueva teoria" podria ser capaz, aunque es mas dificil. En esto aun se experimenta.

Lo que si te puede hacer el ChatGPT es que si le enseñas matematicas y le pides que resuelva un sistema de ecuaciones, lo haga de la manera distinta a la que lo haria un humano, porque ha encontrado maneras mas eficientes. Y eso ya lo hacen y es "inventar". Igual que se "inventa" imagenes a partir de cosas que ha aprendido.

El tema de refutacion, ya hace años se hacia con logica sobre hilos de twitter para demostrar automaticamente quien tenia razon en un arbol de discusion. Asi que estoy seguro que hay modelos y gente trabajando en ello.

1
B

#121 Prompt: ingreso basico universal, como hacerlo viable sin llevar paises a la quiebra.

spoiler

Al final solo queda que haga pruebas virtuales usando datos reales y a funcionar, quizás un CHATGPT 6 te haga una buena gestión y el 7 te cure el cáncer :confused:

1 respuesta
TripyLSD

Madre mía.

En serio, que está muy bien leer sobre singularidad tecnológica y es tope interesante, hasta Stephen Hawking se metió en el ajo, pero ya. Las teorías hablan sobre tecnología que aún estamos lejos de alcanzar y, sobretodo, comprender (por eso se teoriza hasta límites loquisimos donde todo vale), casi como un juego de fuertepensadores para pasar el rato en su club de campo entre descansos de su actual desarrollo de física cuántica.
OpenAI se fundó un poco sobre esas bases de cara a la galería bonita y el refuerzo positivo de que "hay que invertir en esto y vamos a hacerlo accesible a todo el mundo" -porque nos va a dar mucha pasta a largo plazo, pero esto no lo decimos porque queda feo-. En cuanto vieron que desarrollar esta tecnología sale muy MUY caro (wikipead un poco) y era hora de atraer donaciones imagino que vieron necesario seguir en su línea narrativa del "AI Safety", especialmente para aquellos temerosos de que los reyes de la tecnología punta del momento no sean los norteamericanos because reasons.
Y obviamente detrás de todo ese telón de I+D+I de fake caridad tecnológica está el "ojo que Microsoft es la única empresa que está sacando más tajada de todo esto, y nosotros no podemos por A o por B" (que, personalmente, a mí es lo que más me preocupa. Un proyecto que comenzó con la bandera de "desarrollo tecnológico para todos" teniendo como su mayor partner a la empresa del código cerrado y monopolio por autonomasia... Hmmmm)

En cualquier caso, si hay algún temor real que pudiéramos tener a la tecnología de IA actual es a tragarnos fakes, al impulso general que hay hoy en día de publicar y defender a muerte LO QUE SEA (para muestra, un botón)y a la absoluta incapacidad de los medios de comunicación de contrastar noticias y explicarlas de verdad frente al impulso de ser los primeros en hacer echo del primer titular sensacionalista.
Me imagino, por ejemplo, a inversores teniendo pesadillas porque un día se difunda un deepfake bastante creíble de Elon Musk diciendo que compra o vende otra empresa o cryptomoneda volviendo a los cryptobros e inversores locos y transformando artificialmente los valores en bolsa aunque sea por unas horas.
Y creo que si, de verdad, pretenden hacer una moratoria, debería ser para enseñar a los medios de comunicación, y posiblemente legislar, para que la difusión de noticias fake y titulares sensacionalistas estén controlados.

Pero ya.

1
Dredston

¿Estáis ready para depender 100% de papá Estado?

1 respuesta
TitoBurns

Ya me veo las futuras generaciones quejarse de que nosotros pudimos hacer mucho dinero porque aun no habían IA que hiciesen mejor el trabajo que nosotros. Ellos seran pobres siempre porque dependerán de la paguita, que a duras penas les dará para llegar a final de mes.

Nos vamos a la puta B señores. Suerte que en verano sale cs2 y podré olvidar las penas.

1
Ulmo

Como dicen, pararlo es absurdo, China no va a parar y la mayoría de los que ahí firman no lo hacen por altruismo, sino porque se están quedando rezagados y necesitan esos 6 meses para ponerse al día y sacar el anuncio de la IA en sus propias plataformas.

Las IA van a ser un monstruoso desafío para la sociedad y gobiernos, en este hilo ya se han dado varios motivos. Primero los delitos: falsificación de audios y videos, ataques masivos de hackeo, suplantación de identidades a absolutamente todos los niveles, etc. Pero también va a ser un desafío en cuanto a cómo van a transformar la sociedad: mucha gente se va a ir al paro porque unos pocos ahora van a poder hacer el trabajo de muchos.

Yo cada vez veo más evidente que nos vamos a un futuro a lo cyberpunk (no necesariamente con armas), pero en donde las IAs lo hagan prácticamente todo, un grupo pequeño de humanos trabajen tomando decisiones, arreglando, supervisando y actualizando dichas IAs para grandes corporaciones, mientras que el resto recibirá un sueldo mínimo vital que gastará en opciones de ocio. A mi es un futuro que me da algo de medio, y creo que lo único que puede salvarnos de él es la conquista del espacio.

1 respuesta
Kirbos

Pero qué gilipollez es esta de pedir pausar el desarrollo? Estamos tontos o qué?

1 respuesta
TitoBurns

Curiosamente los trabajos más manuales y que requieran más trato humano serán los más complicados de remplazar. Creo que estamos de acuerdo que los riesgos de comprar una web hecha por IA son menores que recibir un masaje por un robot .

Nerviosillo

#131 Y ni esas.
Te saldrá más rentable mandar robots al espacio que no envejecen, que no necesitan alimento ni interacción social ni sufren problemas mentales por estar aislados del resto del universo.

El juego está servido.
Al final del día el mundo será de las 5 empresas de IA puntera que surjan y de los gobiernos que legislen sobre ellas y tengan el monopolio de las armas (que a su vez usarán estás tecnologías).

La libertad como tal está sentenciada de muerte.

1 respuesta
Ulmo
#132Kirbos:

Pero qué gilipollez es esta de pedir pausar el desarrollo? Estamos tontos o qué?

No sería algo nuevo, ya se hizo en su momento con la utilización de células embrionarias y células madre humanas. La tecnología dio un salto repentino que pilló desprevenidos a todos los gobiernos y prohibieron su uso durante unos años mientras se desplegaba toda una normativa sobre su uso.

1 1 respuesta
n3krO
#12allmy:

Nunca podrá igualar a un humano en la percepción que un humano tiene del mundo, porque simplemente no tiene características humanas ni intención alguna.

xdddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddddd

1 respuesta
Ulmo
#134Nerviosillo:

Te saldrá más rentable mandar robots al espacio que no envejecen, que no necesitan alimento ni interacción social ni sufren problemas mentales por estar aislados del resto del universo.

No pensaba tanto en una nave tripulada para dar una vuelta por una de las lunas de Saturno como el hecho de, por ejemplo, montar una colonia en Marte. Sería mucho más barato mandar ahí a una población humana autosuficiente que no intentar gestionar todo desde la Tierra, creo yo. Por supuesto que esa colonia marciana también tendría poderosas IAs, pero habría igualmente un grupo de humanos con ellas.

Ahora, ¿cuántos planetas necesitaríamos para dar "trabajo" a los millones de humanos que somos? No hay suficientes al alcance, obviamente la Tierra va a acabar sufriendo una enorme crisis demográfica, que tampoco le irá mal que la humanidad reduzca bastante su población.

Nerviosillo

#136 Explica a la clase por qué la percepción de una máquina puede ser igual a la de una persona cuando la máquina no posee necesidad de nada y una persona si, por favor.

1 respuesta
n3krO

#138 Las personas son maquinas. La "necesidad" puede emergir naturalmente al avanzar las IA hasta el punto de que cobran consciencia.

>inb4 las IA jamas van a tener consciencia porque carecen del misticismo que le ortogamos al cerebro humano.

1 respuesta
Nerviosillo

#139 Una máquina con consciencia no tendrá impulsos de dopamina, por lo que nunca hará nada que le dé placer, si no eficiencia.

Una vez alcance dicha eficiencia, no evolucionará más.

Un ser humano es diferente y creará necesidades en todo momento, lo que impulsará su creatividad hacia dichas necesidades.
Es lo que tiene que la diferencia entre un ser orgánico y uno sintético.

Por muchas vueltas que le des una máquina nunca dibujaría un cuadro pues no lo necesitaría, ni nunca probaría nuevos sabores.
Lo único que trataría de optimizar un ser sintético es su consumo de energía, quizás su velocidad de proceso (tiene todo el tiempo del mundo, no vería sentido en optimizar esto) y quizás su autoreplicación.
Ni siquiera crearía armamento.

3 respuestas
desu

#140 No pienso igual.

1 respuesta
Nerviosillo

#141 Por?

1 respuesta
B

Somos información en diferente formato, ambos estamos abocados al mismo destino

1 respuesta
desu

#142

#140Nerviosillo:

Es lo que tiene que la diferencia entre un ser orgánico y uno sintético.

No creo que haya diferencia entre un ser organico y uno electronico.

Pero esto es filosofia.

#143 cant escape the entropy :(

1 1 respuesta
Nerviosillo

#144 Una máquina orgánica responde a necesidades materiales diferentes que una mineral, por lo que si habría diferencia.

Y como he dicho antes, sólo por la ausencia de dopamina, unas diferencias bien grandes.

De hecho pongo en duda que se llegue jamás a la consciencia de una máquina por si misma a no ser que un ser humano le programe el concepto de consciencia o que lo haga una máquina a la que el ser humano le ha enseñado el concepto de consciencia.

Más que nada porque no hay necesidad y la búsqueda de esa respuesta no es eficiente, mientras que a un ser humano la búsqueda de esa respuesta le estimula a nivel de dopamina y placer.

Repito lo de antes.
¿Por qué una máquina querría dibujar de forma intencionada un cuadro?

TripyLSD

Cuántos follamoñecas van a salir dentro de unos años

Eso es lo que nos va a matar como especie con las IAs

tada

Que lo pidan personalidades como Elon Musk le quita credibilidad y seriedad a la petición xD

Ulmo
#140Nerviosillo:

Una máquina con consciencia no tendrá impulsos de dopamina, por lo que nunca hará nada que le dé placer, si no eficiencia.

Bueno, es que precisamente la eficiencia es peor que la dopamina, ya que es una droga de la que la máquina no puede escapar, lo tiene gravado en su código y sí o sí es un jonki obligado a ella.

De todas formas creo que estamos confundiendo cosas, que sobre un papel teórico una IA pueda llegar a ser igual que un humano. Es un hecho que muy difícilmente admite discusión.

La revolución que estamos sufriendo ahora no está ni cerca de alcanzar esa logro. La revolución de IAs que estamos sufriendo actualmente es de utilización de conocimientos, no de generación del mismo. La IAs solo repiten lo que ya existe en nuestra basta base de datos de conocimiento pero no son capaces aún de generar nuevo conocimiento, pese a que puedan pintarte un cuadro nuevo, en realidad no es un nuevo conocimiento. No pueden soñar, hipotetizar, etc. Están totalmente fuera del proceso de generación de hipótesis.

Eso deberemos dejarlo para otra revolución de las IAs que ni sabemos cuándo llegará. La revolución actual es la de la optimización y automatización de procesos. Esta revolución no genera ningún planteamiento moral sobre la humanidad de las máquinas.

1
Tras
#135Ulmo:

No sería algo nuevo, ya se hizo en su momento con la utilización de células embrionarias y células madre humanas

Cierto, pero no lo pondría como un ejemplo positivo. Por culpa de eso hoy hay muchísima gente anclada a una silla de ruedas que podría caminar. Pero lo que hay son programas experimentales en los que hay que tener o muchísima pasta o muchísima suerte para entrar en ellos.

Por suerte la IA ha salido en 2023, si sale 20 años antes tendríamos a gente pidiendo comités de ética con curas para "controlar" las I.A.

B
#77Madein:

FIN.

Claro, los expertos están preocupados y el mismo CEO de Open AI dice "es una posibilidad que una AGI decida matar a todos los humanos", pero tú sueltas tu patochada y acabas con un "FIN", como diciendo "y no hay nada más que discutir". Pues nada, chico, avisa al CEO de la IA de que no tiene ni puta idea.

¡CHIM-PON!

Usuarios habituales