lo puedo añadir a este foro sin problemas, quiero ver si puedo arreglar alguna de las incompatibilidades pero en principio hay que usar doble escape en las formulas \\[ \\] o \\( \\)
Otro que se apunta por aquí a hacer el curso #1 . Llego un poco tarde, pero quería probar la primera semana antes a ver que tal.
Alguién tiene un ppt o pdf sobre reglas de asociación. Es algo que no se usa mucho pero lo necesito para un compañero.
Pues hoy solo he podido hacer el Welcome y la introducción. A ver si mañana puedo ponerme con el resto
#122eXtreM3:perfecto, avisa cuando esté disponible por aquí ^
When \(a \ne 0\), there are two solutions to \(ax^2 + bx + c = 0\) and they are
$$x = {-b \pm \sqrt{b^2-4ac} \over 2a}.$$
Resultado:
When \(a \ne 0\), there are two solutions to \(ax^2 + bx + c = 0\) and they are
$$x = {-b \pm \sqrt{b^2-4ac} \over 2a}.$$
Es posible que haya algún que otro bug por culpa del markdown, ya me decís a ver si puedo arreglarlo
Edito: he solucionado el problema del escape, se pueden usar los delimitadores normales de TeX
Yo ayer vi el video de regresión lineal y me daba un poco de miedo porque donde más cojeo son las mates, pero la verdad es que el tio explica muy bien.
#133 está genial.
#133Beavis:Es posible que haya algún que otro bug por culpa del markdown, ya me decís a ver si puedo arreglarlo
De momento he detectado que en el símbolo del sumatorio no aparece el rango, y al poner varios subíndices en la misma línea se peta. Ejemplo:
$$θ0:=θ1:=θ0−α1m∑i=1m(hθ(xi)−yi)$$
$$θ1−α1m∑i=1m((hθ(xi)−yi)xi)$$
sale así:
$$θ0:=θ0−α1m∑i=1m(hθ(xi)−yi)$$
$$θ1:=θ1−α1m∑i=1m((hθ(xi)−yi)xi)$$
y debería ser así
Igual no es el hilo adecuado para hablar sobre esto y podríamos abrir otro para no desvirtuar más xD que @hda se nos pone nervioso.
pd: hosti qué ida de olla al pegar la fórmula, voy a editar un momento.
$$\theta_0:=\theta_0 - \alpha\frac{1}{m}\sum{i=1}^{m}(h\theta(x_i)−y_i)$$
Va mejorando pero vale, hay que leer bien la sintaxis, pensaba que podía copiar y pegar de las lecturas del curso (la fórmula en mathjax)
#135 Creo que sería así:
$$\theta_0:=\theta_0 - \alpha\frac{1}{m}\sum_{i=1}^{m}(h_\theta(x_i)−y_i)$$
$$\theta_0:=\theta_0 - \alpha\frac{1}{m}\sum_{i=1}^{m}(h_\theta(x_i)−y_i)$$
#144 No aún, justo es mi próxima lección en el curso de data science de IBM que estoy haciendo. Vaya casualidad.
#145 Creo que te gustará, está wapens y lo usan bastante en la comunidad científica.
El curso es el de Big Data University, ahora https://cognitiveclass.ai/?
Lo de Google no lo he probado, pero para Machine Learning y demás también tenéis https://www.kaggle.com/ hay empresas que tienen equipos dedicados únicamente a las competiciones que publican otras empresas (premios de +100K$).
También tienen una plataforma de aprendizaje que supongo que será introductorio y cubre bastantes cosas.
Usan Jupyter (se puede usar tanto con Python como con R). Se ejecutan todo en la nube y para redes neuronales te "dan" una Nvidia Tesla P100 para ejecutar los cuadernos.
OnTopic: esta semana no he podido hacer casi nada de la semana 2, va a tocar maratón.