A tu propio ritmo

Explora nuestra extensa colección de cursos diseñados para ayudarte a dominar varios temas y habilidades. Ya seas un principiante o un aprendiz avanzado, aquí hay algo para todos.

Bootcamp

Aprende en vivo

Únete a nosotros en nuestros talleres gratuitos, webinars y otros eventos para aprender más sobre nuestros programas y comenzar tu camino para convertirte en desarrollador.

Próximos eventos en vivo

Catálogo de contenidos

Para los geeks autodidactas, este es nuestro extenso catálogo de contenido con todos los materiales y tutoriales que hemos desarrollado hasta el día de hoy.

Tiene sentido comenzar a aprender leyendo y viendo videos sobre los fundamentos y cómo funcionan las cosas.

Buscar en lecciones


IngresarEmpezar
← Regresar a lecciones
Editar en Github

Cálculo

Cálculo
  • Derivadas

Cálculo

El cálculo (calculus) es una rama de las matemáticas que se centra en los conceptos de derivadas e integrales, que son técnicas que describen cómo cambian las funciones.

El cálculo, el álgebra lineal y la probabilidad son los fundamentos del Machine Learning. Aprender sobre estos temas nos proporcionará una comprensión más profunda sobre cómo podrían funcionar los modelos por definición y nos permitirá, incluso, desarrollar otros nuevos.

Derivadas

Las derivadas (derivative) miden el ritmo de cambio. Si pensamos en una función que describe la posición de un objeto en movimiento con respecto al tiempo, la derivada de esa función nos daría la velocidad del objeto en cualquier momento dado.

Integrales

Las integrales (integrals) nos dan una acumulación de cantidades. Siguiendo con el ejemplo del objeto en movimiento, si tuviéramos una función que describe la velocidad del objeto con respecto al tiempo, la integral de esa función nos diría cuánta distancia ha recorrido el objeto en un intervalo de tiempo.

Machine learning usa derivadas en la optimización de problemas. Los algoritmos de optimización como el descenso de gradiente utilizan derivadas para decidir si aumentar o disminuir los pesos para maximizar o minimizar algún objetivo (por ejemplo, la precisión de un modelo o las funciones de error). Las derivadas también nos ayudan a aproximar funciones no lineales a funciones lineales con pendientes constantes. Así, al tener una pendiente constante, el modelo puede calibrar sus pesos (aumentarlos o disminuirlos) para acercarse al valor objetivo.