Comunidad de Machine Learning / Deep learning

Jastro

#208 #209 #210 Muchas gracias!

Me voy a poner a estudiar, cuando consiga hacer algo potable, vendre por aqui y os lo enseño <3

1 1 respuesta
ercabesa

#211 de RL hice un mini proyecto del juego 2048 mas simplón y estaba gracioso ver como iba sacando mejores puntos

dentro de ML, RL es de lo que más interesantes me parece

1 respuesta
Jastro

#212 Comprendo que no es lo mas "practico" en cuanto a aplicacion, pero si, me llama mucho la atencion de ver como va evolucionando y tal :D

1 respuesta
desu

#213 a ver, no me seas pussy y haz pacman clásico, debería tomarte 2-3 semanas, en la uni se tarda 2-3 meses... tienes la GUI montada y los tests para comprobar las soluciones.

habia otra web que era el gym: https://github.com/openai/gym

que de hecho esto es de openai, pero esto del gym lo usabamos hace 10 anos jaja cuando openai no lo conocia nadie claro, no se como de bueno sera hoy en dia o si esta mantenido, pero ahi tendras cosas ya montadas en entornos controlados para solo picar algoritmos

edit: mira si es que hasta pone en github que ahora esta aqui https://github.com/Farama-Foundation/Gymnasium

tu eliges jastro, el camino del fpero, el camino del top 0.001%

mi objetivo es ganar a @hda jeje

he pensado en partir los videos con ffmpeg, asi https://nickjanetakis.com/blog/create-video-clips-with-ffmpeg-in-seconds echale un ojo porque quizas te tarda mucho en consumir un video de 1h, lo partes en videos de 5 minutos por ejemplo e iras volando. asi puedes tener videos en local y no depender de youtube. y solo te guardas los fragmentos que quieras.

2 2 respuestas
D

#214 Pregunta sin acritud, tienes algo en contra de los que estudian fp?, en cada post que te veo 4 de cada 5 haces referencia 'fpero', 'fperos' en plan despectivo.

1 respuesta
hda

#215 no le hagas puto caso, es parte de su personaje. Un personaje con el ego muy subido y clasista; donde el dinero lo es todo, y la gente sin formación superior es una hez. Brau, brau. Yo no lo trago, la verdad. En alguna ocasión lo he tenido bloqueado. Solo quédate con que es un personaje insidioso del foro y santas pascuas. También es cierto que hace cosas interesantes, pero muchas veces da pereza acercarse a lo que dice que hace o lo que hace por el personaje tan repulsivo que resulta.


#214 te pasas de puto amo JAJAJA


Yo estoy teniendo algunos problemas; la verdad es que ayer fue bastante frustrante. Resulta que para una parte de la pipeline que tengo (uso langchain), la librería no está del todo implementada. De hecho, esto es respecto a indicar las referencias exactas a los documentos del RAG cuando es mencionado en la salida del LLM. Básicamente la compatibilidad con el structured output. Como uso ollama corriendo con llama3, me está costando que me de las referencias. Exception: NotImplementedError XDDDD

Así que me puse a jugar con Llama3-ChatQA-1.5-8B, recién salido del horno desde Nvidia. Junto con dragon-multiturn-query-encoder y dragon-multiturn-context-encoder. Lo cierto es que las métricas son acojonantes para QA, pero no he avanzado mucho más.

A ver si consigo sacar más chicha y me decido a montar el diario.

1 respuesta
desu
#216hda:

De hecho, esto es respecto a indicar las referencias exactas a los documentos del RAG cuando es mencionado en la salida del LLM.

No entiendo, estás generando el markdown (indicar las referencias a los documentos) con la LLM?

Entiendo el problema que tienes con el structured output, pero no veo en que paso te falla.

Creo que estás tratando de hacer algo mediante la LLM que no hace falta. No entiendo el que.

1 respuesta
hda

#217 Mi intención es crear apuntes a partir de los subtítulos. Único objetivo. Unos apuntes de calidad que sinteticen la información de 70 h de subtítulos, dándole muy poca "creatividad" al llm. Sobre esto, en tanto que partes importantes de los apuntes, la idea es que indique la referencia del RAG. Luego, procesar toda esta salida en un md para obsidian de tal modo que al hacer click en la referencia (procesada) reproduzca automáticamente el vídeo embebido en el tiempo en cuestión. Pero, insisto, mi intención es componer unos apuntes de estudio fiables a partir de un RAG (en este caso proveniente de subtítulos).

1 respuesta
desu

#218 El tema del LLM como asistente como lo usas exactamente? Es que para tu caso de uso no necesitas un LLM, no me queda claro como lo usas. De hecho para ningún "RAG" necesitas el LLM. Un "RAG" por si solo es funcional, entendiéndolo como búsqueda de embeddings. Y en tu caso, estos resumenes en markdown que dices con referencias yo lo haria sin usar ninguna LLM.

Entiendo que la LLM la usas para generar el resumen.

Para tu markdown, si lo usas para generar resumen, y ese resumen necesitas las referencias, no necesitas pasar esas referencias a la LLM, puedes usar place holders sintácticos que la LLM se tragara mejor y luego rellenarlo con la referencia del RAG. Tambien depende de como estructures el markdown claro, entiendo que quieres referencias in-place. Un resumen de un video de 1h sera: resumen primeros 5 min (referencia) + resumen segundos 5 min (referencia) y asi...

Resumen Video (video original 1h)
==============================

Resumen primeros 10 segundos(referencia al video, timestamp segundos exactos)
Resumen primeros 20 segundos(referencia al video, timestamp segundos exactos)
Resumen primeros 30 segundos(referencia al video, timestamp segundos exactos)
Resumen primeros 40 segundos(referencia al video, timestamp segundos exactos)
...

Yo visualizo que quieres algo asi, donde el tamaño de los batch y tal, pues depende.

Entiendo el caso de uso, no estoy seguro el paso exacto que lías, puede ser este. Si tienes un place holder, {{REFERENCE_#ID}} por ejemplo, en tu resumen, después puedes añadir tú las referencias a la entidad del RAG que has utilizado para ese subtítulo.

Como digo, no hace falta que el resumen final sea hecho con una LLM.

No se, entiendo que estas haciendo esto o algo parecido, porque lo que dices no tiene mucho sentido.

hda

¡ @desu muchas gracias por molestarte! De momento no estoy buscando consejo ni ayuda. Estoy jugando, por entretenimiento, con montarme un RAG (nunca me he acercado a uno). Es posible que haya muchas, muchísimas mejores maneras de acometer mi proyectito, no lo dudo. Quizás lo que comentas sea una de ellas. Por mi lado, lo veo y lo acometo de otro modo. No es necesario que sigamos esta conversación. Si monto diario es posible que tus aportaciones sean de agradecer; sobre todo porque ahí hubiere un contexto y una explicación más precisa del proyecto.

1 respuesta
Slowbro

Vengo a recordar que no queréis tocar TensorFlow a no ser que toquéis ML en edge.

Si hay interés de esto último (edge ML) puedo contar mis aventuras.

2 1 respuesta
desu

#220 no worries, si te respondí porque da la casualidad que comentaste que hacías lo mismo que yo jaja. ya es casualidad. por eso te pasé el link de aws el otro día, y ahora que ya lo he hecho te digo donde meabas fuera.

tu sigue dándole tranquilo, no te preocupes, aunque te recomiendo dejar el ego a un lado y estudiar más la teoría, porque darse de cabezazos para aprender está bien cuando te das cabezazos con el muro correcto, pero si vas en otra dirección, no llegarás a buen puerto nunca.

la primera vez que haces algo, es bueno estudiar la teoría y seguir los pasos de los demas. experimentar por experimentar, sin guias ni saber a donde vas, no progresaras.

si te falta el structured output, por que no lo implementas tu en longchain? seria una buena manera de aprender tambien. en mis tiempos de juventud hice muchos aportes a estas herramientas tambien.

me lo voy a mirar esto que te quejas, a ver que problema tienen y porque aun no esta implementado. no deberia ser mucho trabajo.

edit: https://github.com/langchain-ai/langchain/blob/master/libs/experimental/langchain_experimental/llms/ollama_functions.py patchea
edit2: https://stackoverflow.com/questions/78404535/langchain-python-with-structured-output-ollama-functions

1 1 respuesta
hda

#221 hay curiosidad, cuenta, cuenta :D

#222 muchísimas gracias por tus consejos. Intentaré aplicarlos.

Dr_Manhattan

No he visto forma más correcta y educada de decirle a alguien que te suelte el brazo xddd

3
desu

Cosas que he aprendido hoy de ML.

Librerías que usan los bindings de C++ de libtorch, y te diria que hasta ONNX... Ganas de matar gente aumentando. Aumentando. Aumentando. 4.5GiB de dll.

Doy gracias a Dios por no trabajar más en ML y aguantar estas cosas.

Pero bueno, me toca tragar para iterar más rápido con varios modelos y no preocuparme mucho de los shapes y estructura de los tensors.

1 respuesta
hda

#225 mi pan de cada día. Ahora suma que cada venv necesita sus librerías. Y, obviamente, tienes un venv por cada proyecto. Yo voy con conda hasta el final, y la duplicidad en librerías es una barbaridad, pero necesaria por el versioning de Python, como seguramente ya sepas.

Sin olvidar que a veces quieres upgradear algún paquete concreto pero puede hacer que explote algo, así que lo ideal es hacer un backup del venv antes del upgrade. ADEMAS, no nos olvidemos de las propias versiones de Python. Justo estaba leyendo ahora mismo sobre la 3.12.

Luego tiro SS de mi carpeta de environments.

A lo que hay que sumar el base, y por algo voy con miniconda (en vez de con anaconda).

1 respuesta
desu

#226 Próximamente sacaré un hilo tutorial que estoy trabajando, "ugly organization - how to share and maintain local environments" o algo en estas líneas. Te lo recomiendo.

No solucionará la mierda que es trabajar con diez proyectos y tener diez arboles de dependencias, pero sí que simplifica algunas cosas y sobre todo explica como trabajar en equipo en el año 2024 y como va a ser el futuro.

Creo que para los data scientist puede valer para deshaceros de conda y entornos virtuales de una vez por todas.

1 respuesta
hda

#227 Deseoso estoy por verlo. Para el caso de uso que comentas, entiendo que tirarás de imágenes docker para compartir el mismo env entre todos los del grupo de trabajo. Aunque es posible que mi cegera fpera (DAI) no me deje ver más allá y ni me aproxime a la luz que habrás de brindarnos.

Jastro

Mirando un poco el RL, me hace gracia esperaba algo mas complejo y basicamente estan aplicando lo mismo que se aplicaba a los loros en los parques

Haces movimientos, procesas que movimiento es mejor y le das a una recompensa, mejor recompensa mejor lo haces, aka galletita de loro xD

En mi cabeza me esperaba otra cosa, de momento solo he usado un ejemplo de un super mario que ya venia con el gym de open ai, ahora probare a hacer mi propia idea e implementarlo

1 3 respuestas
desu

#229 jeje y cuando descubras que ML es hacer if/else multiplicando matrices ya flipas

yo voy a retomar mi proyectito hoy un rato, que he estado liado con otras cosas

he probado vario modelos de LLM y ninguno me gusta, la verdad el LLM es puro hype y los resultados son nefastos, la cantidad de participantes humanos necesario para hacer que algo como chatgpt sea "medio funcional" ni os lo imagináis

pero bueno, voy a probar ahora a extraer información de pdfs y hacer resúmenes, en lugar de videos y subtítulos.

2 respuestas
Maaarc

#229 Para mi es de los subcampos más complejos para aprender. Ya que son modelos que cuestan iterar por los tiempos de entrenamiento que tienen. A mi me frustro mucho y abandone la disciplina por completo xD

#230 Porque defines el area como hype y humo? Que te hace pensar eso? Me sorprende que vayas tan a contracorriente de todo el mundo y descalifiques el area sin haberle dedicado más de cuatro tardes porque no seas capaz de sacar tu idea adelante.

1 respuesta
hda

#229 es que es una pasada lo intuitivo que es; pero la verdad es que las mates que hay en el Deep Learning, sin ser extremadamente complejas, han supuesto esta revolución práctica.

En concreto, por si te apetece meterte en la madriguera de conejo, recomiendo leer sobre el concepto de gradiente descendente (ideal si tienes la intuición de gradiente, que bebe de la idea de derivada en varias dimensiones) y backpropagation. Luego, han sido las capacidades de cálculo vectorial desbloqueadas por las GPU actuales las que han permitido que estos cálculos fuesen operativos. Y de ahí que las acciones de Nvidia STONKS.

Pásate, si quieres, por mi hilo de recursos de redes neuronales, donde pongo alguna bibliografía sobre los fundamentos.


#230desu:

la verdad el ML es puro hype y los resultados son nefastos,

¿Qué consideras resultados nefastos? En mi startup para una cierta tarea logramos unos scores F1 por encima del 86%. Obviamente, evaluamos y compensamos los resultados habiendo acotado los FN y los FP. La cosa es que esta tarea de clasificación de millones de objetos al mes, en concreto, no es operable a mano.

Por ponerte otro ejemplo, y ya antiguo, de los primeros, tienes el OCR por machine learning (MNIST), típico caso de uso que estudias cuando te metes en el área. Y ahí ves que tiene un acierto del 98,6% (cifra de memoria), mayor que el humano. Otro ejemplo es Alphafold2, que rompió la barrera de todo lo conseguido por otras tecnologías, y de forma sustancial.

Me resulta un poco simplista decir que el machine learning es todo hype cuando de facto está ayudando mucho a la investigación y desarrollo (se me viene a la cabeza el hito en algoritmia para la mayor eficiencia de multiplicación de ciertas matrices, hallada mediante machine learning). No te niego que haya un hype train de cojones y un neopositivismo exaltado, pero al papa lo que es del papa.

1 respuesta
Dr_Manhattan

hda, cuando despegue tu startup te mando cv jajajaj Tengo dos años y medio de experiencia demostrable en Azure Databricks y spark con Scala y pyspark. Y 13 años currando de picateclas, además, hago un café de puta madre

1 1 respuesta
desu
#231Maaarc:

descalifiques el area sin haberle dedicado más de cuatro tardes porque no seas capaz de sacar tu idea adelante.

a ver que yo llevo trabajando en cosas relacionadas con AI y ML desde 2015 jaja tanto entrenar modelos y hacer matemática pura, a ponerlos en producción que hago ahora

las LLM me parecen que a nivel de producción, COSTE EN EUROS + ESFUERZO EN EUROS + TIEMPO DE INGENIEROS, no sale rentable

las empresas que hacen estas cosas tienen dinero de inversores para quemar, pero si tienes que poner pasta de tu bolsillo... la cosa cambia

he hecho los números muchas veces, mas arriba hice unos números por ejemplo del curro... si a ti 50k euros por "test" te parece algo que se puede hacer fácilmente... nose

yo 50k euros, 6-7 veces por quarter, 4 * 6 = 24, 24 veces * 50k = 1M de euros y 200k...

YO NO TE VOY A APROBAR ESE PRESUPUESTO y mi JEFE TAMPOCO

Te voy a dar 1 oportunidad de que tu modelo funcione o 2 y ya es MUCHISIMO DINERO

#232hda:

machine learning es todo hype

hablo de las LLM en concreto, no de machine learning

openai, meta, google tienes a miles de personas cada minuto refinando resultados, que empresa que ofrezca chats puede pagar tanta gente? aunque sean indios?

1 respuesta
hda

#233 si despega hablamos, jajaja, pero todavía no tengo claro que lo vaya a hacer tras dos reuniones con la DEA, la del FBI y la de Homeland security. Hijosdeputa, si me estáis leyendo comprad el producto, que es bueno XD


#234 has sido tú quien ha dicho que el ML es puro hype. De todos modos, el F1 del que hablo arriba lo logro usando NLP, en concreto usando DeBERTa v3 fine tunned por mí.

1 1 respuesta
desu

@Maaarc hagamos el ejercicio del reves.

Te voy a dar 1.000.000 euros para que entrenes un modelo y lo pongas en producción durante 12 meses.

Como aseguras el ROI de esa pasta con tu modelo? Solo tu modelo ha costado 1 kilo... Como me garantizadas un 5% de beneficio? Y en cuanto tiempo?

La ML por si sola no hace dinero... el dinero lo da la publicidad, los porcentajes de transacciones, las subscripciones... etc La ML puede aumentar los clicks i el trafico, pero 1M de euros? Demuéstramelo.

1M de euros invertidos en campanas de publicidad da muchísimos mayores resultados que mejorar tus algoritmos de búsqueda.

Otro tema es que me digas que cuesta 10k euros, y que en 2 anos el trafico orgánico aumentara 8% y el retorno otro 5%... Pues te voy a dar 10k y otros 100k si quieres.

Tienes dos opciones:

  • Subscription a tu modelo como chatgpt, Claude, gemini etc y startups similares
  • Que tu modelo haga tu producto mejor

Y en ambos casos me tienes que devolver 1M de euros + beneficios. Explícamelo tu, porque yo no lo veo y no me salen los números, que los hago muchas veces jaja.

No lo digo de malas eh, lo mismo vosotros tenéis otra manera de pensar y estare encantado de leerla.

1 respuesta
hda

#236 1M, macho, tienes mentalidad de mileurista, panza y cruasán.

¿5% de beneficio? Ni dios va a invertir por un 5% de beneficio. Cero capital riesgo.

1 respuesta
desu

#237 No se, una LLM es muchísima pasta tanto para entrenar, incluso si solo hablamos de refinar el modelo, como desplegar, como trabajadores... que es lo que yo estoy hablando, tiene unos costes que se van a melones, y no los de la Sidney esa que os gusta tanto.

#235hda:

has sido tú quien ha dicho que el ML es puro hype

Tienes razón, lo he escrito sin querer, me refería a las LLM que estamos hablando y tocando estos días. Como arriba he puesto ML, luego he puesto ML XD

Disculpad.

El ML obviamente es hype, pero como todo, el ML si que es rentable en muchísimos casos. No hacer ML es de tontos.

Ya me parecia raro que os pusieses tan agresivos por decir que las LLM son una mierda jaja

Y a mi que haya empresas quemando dinero de VC sacando modelos que el resto podemos robar me parece de puta madre jaja STEAL THE RICH.

Prefiero que no sea mi empresa ni mi dinero a poder ser. Que luego echan a media plantilla a la calle porque se han gastado el dinero en entrenar modelos.

1 respuesta
hda

#238 entiendo. Si partes de cero, si vas a crear un modelo, diseñarlo, el cómputo y etc, se te va el coste al cielo. O eres FAANG o no lo haces. Tienes razón.

Otra cosa es partir de un modelo preentrenado (crearlo es lo costoso) y meterle 10k€ para hacerle el fine tunning, que es lo que hemos hecho nosotros. F1 > 86%, siendo esta una parte integral y diferencial de nuestra metodología. ¿Nuestro aporte de valor? Ser los primeros en hacerlo, así que para poder competir tenemos que seguir añadiendo valor y haciendo i+d.

1 respuesta
desu

#239 si yo siempre que hablo de entrenar es fine tunning, los números que pongo siempre son de FINE TUNNING tambien...

es que solo en transmisión de datos son unos 50k euros. big data baby jeje todos quieren tener big data para luego usarla, pero ahora que llega el momento nadie quiere ni puede, pagarla jajaja y no se, yo cuando entrenaba (o fine tunning) un modelo le tenia que dar varias vueltas a los hiperparametros... probar un par de técnicas... hacia decenas de intentos... a 50k euros creo que no me dejarían hacer muchos... jajaja

bueno el jefe, los data scientist y cto claro que quieren, como no es su dinero y no es su presupuesto... pues claro jajaja sino a la puta calle todos jaja

1 respuesta

Usuarios habituales

  • hda
  • refresco
  • desu
  • ercabesa
  • gonya707
  • Dakka
  • NocAB