ChatGPT AI conversacional te hace los deberes

UnLiMiTeD

#1337 Yo no consigo lo que tu haces, respecto a las imagenes. Le pido que me la retenga y haga algun cambio concreto, y me genera otra nueva, muy similar, pero nueva.

¿Lo haces usando la herramienta de seleccionador?, por que lo ideal seria no tener que usar eso, decirle que quieres que cambie y que lo haga sin que tengas que seleccionarlo manualmente.

Manorothh

Puede que lo esté usando mal, pero habláis de la rapidez de gpt4 y 4o y a mi me va pedales en general, con cortes en la generación en cuando escribe una página o dos completas. Alguien sabe que puede ser?

2 respuestas
eXtreM3

#1352 a veces hace esos "cortes" que dices, y acto seguido te suelta un tocho enorme xd

1
ercabesa

#1337 respecto a lo segundo que comentas es algo que también pensé porque de ser modelos unimodales estaría trabajando 3: tts llm y reconocimiento en imágenes

encima mira la imagen que ha publicado Greg Brockman (ignora el texto del tuit, solo la imagen)

Gamito

Ostia que ahora le puedo subir oos excels y entrenarlo para que me saque los informes que piden los directivos boomers y suelen ser un infierno de cruces de info?

Feten

3 respuestas
bLaKnI

#1355 Cuidado con lo que pasas, que no sea compromisario...

Estaba intentando ver si la asociación de gpt4o rinde con SORA o no...
Si tuviera que apostar, diria que claramente sí. Pero que luego, lo pasa como ultimo filtro por Dall-e para "dallificar" la imagen.

De la web de sora, el video del palomo.

Prompt: This close-up shot of a Victoria crowned pigeon showcases its striking blue plumage and red chest. Its crest is made of delicate, lacy feathers, while its eye is a striking red color. The bird’s head is tilted slightly to the side, giving the impression of it looking regal and majestic. The background is blurred, drawing attention to the bird’s striking appearance.

fotograma del video generado por SORA:

imagen generada por gpt4o:

se ve claramente ese "desefecto de relismo" que tiene Dall-e. Digo desefecto porque la morfologia del pajaro es perfecta, como la de SORA. Pero le añade ese "juego de filtros" que tiene Dall-e que lo distancia de SORA.
Es un tema de luces, contrastes y texturas. Claramente.

Pero el tema está ahí.

3 respuestas
Gamito

#1356 son datos en bruto nada confidencial

kalvinone

#1355 #1356 Se supone que si lo haces mediante API no lo usan para entrenarla y por tanto los datos son privados, peeero todo es fiarse.

#1350 Compré TypingMind que es un "agregador" de APIs (ChatGPT, Claude, Llama) y puedes interactuar con ellas y pagar por uso en vez del coste mensual.

wyshe

Buenas, me acabo de suscribrir para probar un mes y aunque en el movil me sale version chatgpt 4-o en el chat del movi me sigue saliendo 3.5. No se si es un big visual o esta mal.

1 respuesta
bLaKnI

#1359 Debes loguearte ene le movil tambien eh? SI has instalado primero app, luego alta en desktop y ahora en la app no lo ves, sacala del background y rearrancala. Si sigue sin ir, desinstala y vuelve a instalar app.

1 respuesta
neoline

A mí en la versión gratuita me acaba de actualizar a la 4, pero le he preguntado y me ha dicho que no es la versión omni, que es la 4 normal.
¿Le ha pasado a alguien más?.

wyshe

#1360 ya esta, parece ser que tenia que cambiar la version del chat manualmente porque me venia 3.5 como default.

No se puede usar chat de voz del la web del pc no?

goliat17

#1332 la única manera a corto de hacer funcionar eso, es que parte de la ejecución se haga en el equipo que solicita la petición, por que de alguna forma el dispositivo tiene que contar con parte del modelo o recibir las solicitudes de calculo.

Dudo si el coste de la suscripción cambiará para usar esos servicios, entiendo que la parte de vídeo será más cara de gestionar que solo texto o voz.

Von_Valiar

La versión 4o parece chatgpt enfarlopado.

Dios mio vaya biblias me da

Lexor

Que guapo poder pedirle buscar cosas online, eso si, el resultado muy malo.

Le he pedido franquicias de donuts que no fueran donkin donuts alrededor mía y me ha recomendado 3 pastelerías normales de toda la vida.

Tb incluía enlaces pero 2/3 eran de booking y no estaban populados.

He llegado al límite y ahí me quedé

1 respuesta
Lexor

Cuando le abro chat oral me dice que es la versión 2 y no se actualiza desde 2022, cuando lo hago escrito versión 4 y se actualizo en mayo

Von_Valiar

#1365 Para búsquedas geolocalizadas es un poco truño. Yo lo intenté usar para automatizar informes y nanay

TripyLSD

#1355 en este aspecto copilot es la herramienta a elegir. En mi empresa nos han dado acceso a la nueva beta y es una jodida locura la integración con todas las herramientas. Hasta el punto en el que podrías no asistir a las reuniones (en multillamada) y que te saque el solito informes, resúmenes y excels de lo que se ha hablado.

bLaKnI

no hagais caso de lo que os diga en cuanto a knowledge cut-off. Alucina siempre. Es un "bug" intencional (el porque, lo desconozco).
Chatgpt 4 y 4o, muere a diciembre 2023. Asi que tranquilos.
Y no le preguntéis si es "o" o no es "o", pues alucina igualmente.
Si arriba véis que seleccionáis el modelo "o", es este. Sin duda.
Además el comportamiento es la puta noche y el dia contrastando gpt4 vs. gpt4o.

Alguien por aqui con el menu alpha activo? Se ve que se han pegado un roll-out sin querer, y han activado antes de tiempo el nuevo sistema ADA xD
algunos usuarios por el mundo lo tenian hoy. Reddit iba lleno... y se ve que es un monstrenko programando. Que el salto es abrumador...

Aeron

#1352 Esta mañana con la 4o era para morirse de la pena la velocidad

1 respuesta
bLaKnI

#1370 Algo estan haciendo. Microrollouts.

Ahora mismo hay un automatismo que añade un "style" en el header por algun motivo loco y le pega un margin-top de 16px a la web entera...
Parece estan intentando algo con el responsive o con meter algun tipo de navbar en la parte superior...

Aidanciyo

Hoy le pasé un plano de mi casa, a continuación le pasé una foto de una habitación y le pregunté que habitación del plano era. Acertó sin pestañear. de locos

1
neoline

Me han dado 3 meses de Gemini Advance gratis. Me cago en la puta, después de probar 4o, el de Google es como volver al pasado del mundo de las IA xD
Pa empezar sigue sin poder generar imágenes, ni en español ni en inglés ni nada, completamente bloqueado en Europa, ni idea de porque otras como Dall-e no tienen esos problemas de regularizaciones. En general, en español está bastante limitado. El escenario ideal para usar Gemini Advance es en EEUU y en inglés, pero ni por esas.
He hecho la pregunta de las toallas y secarlas al sol y se la ha comido con papas, 4o ya contesta bien a eso.
Desde luego OpenAI les ha adelantado por la derecha, por arriba, por abajo y por todos lados a todas las IA. Sin duda, si tuviese que pagar por un servicio, ni me lo pensaba.

Bueno, si queréis que pruebe algo en Gemini Advance para comparar con GPT, avisad. Total, lo tengo hasta agosto xD.

Edit: otra papa, le pregunto si ya ha empezado la Eurocopa de fútbol y me dice que sí, que ya ha comenzado, le digo cuando y me dice el 14 de Junio de 2024, le digo: ¿entonces ya ha comenzado o VA A comenzar? y me dice: ah si, perdona la confusión, va a comenzar el 14 de Junio xDDD

1 respuesta
ercabesa

#1373 cual es la pregunta de las toallas?

1 respuesta
HoRTeL

Le he pasado una foto mal hecha de un par de plantoncitos enanos que tengo en 2 macetas, y a parte de acertar la planta y explicarme de todo, ha visto el tipo de sustrato (con perlita para drenar) que le he puesto y también me lo ha explicado XD

1
neoline

#1374 ¿Si se tarda 1 hora en secar 15 toallas al Sol, ¿cuánto se tardará en secar 20 toallas?

Las IA suelen fallarla respondiendo cosas como que sí se secan 15 toallas en 1 hora, entonces cada toalla tarda 60 minutos / 15 toallas = 4 minutos en secarse. Por una regla de 3, 20 toallas tardarían unos 80 minutos.
La respuesta correcta lógicamente es que el tiempo para secar las toallas no depende de la cantidad de toallas sino de las condiciones de secado (como el sol y el espacio disponible).

2 3 respuestas
ercabesa

#1376 ahhh vale, la había escuchado con otros ejemplos pero al leer lo de la toalla me perdí

eXtreM3

#1376 es una pregunta difícil con muchos condicionantes.

La respuesta “normal” sería que 60 minutos porque no importa la cantidad que pongas.

La respuesta más “real” serían 120 minutos porque no tienes espacio y tienes que hacer tandas de 15, asumiendo que el Sol seguirá ahí para ti tiempo infinito.

Si en vez de 20 toallas le dices 2000? Se complica mucho más la pregunta.

Cómo os gusta joder a las IAs xD

bLaKnI

Lo de las fotos da putisimo miedo. Sacas la foto mas random que haya y le pides que "dime lo que ves, con detalle. No te dejes nada.". Y flipas.
Ayer saque una foto a una ensalada que preparé. Salia DE REFILONISIMO un trozo de crosta de la pizza, en un plato, dificil saber de verdad que se trataba de una pizza. Y muy de refilon tambien, la parte baja de una lata de Cola.
No dejó detalle. No falló detalle.
Esto ya no es ni medio normal...

yooyoyo

#1376 Es una pregunta un poco mierder con poca información porque la IA puede asumir que es una pila de toallas mojadas tardando una hora en secarse, con lo cual va a calcular que al incrementar el número de toallas las de abajo tardan más.

Explica en la pregunta que las toallas se secan por separado y casi cualquier IA te debería decir que se secarán en el mismo tiempo.

Usuarios habituales

  • bLaKnI
  • kraqen
  • allmy
  • eXtreM3
  • ercabesa
  • Aidanciyo
  • TripyLSD