A tu propio ritmo

Explora nuestra extensa colección de cursos diseñados para ayudarte a dominar varios temas y habilidades. Ya seas un principiante o un aprendiz avanzado, aquí hay algo para todos.

Bootcamp

Aprende en vivo

Únete a nosotros en nuestros talleres gratuitos, webinars y otros eventos para aprender más sobre nuestros programas y comenzar tu camino para convertirte en desarrollador.

Próximos eventos en vivo

Catálogo de contenidos

Para los geeks autodidactas, este es nuestro extenso catálogo de contenido con todos los materiales y tutoriales que hemos desarrollado hasta el día de hoy.

Tiene sentido comenzar a aprender leyendo y viendo videos sobre los fundamentos y cómo funcionan las cosas.

Full-Stack Software Developer - 16w

Data Science and Machine Learning - 16 wks

Buscar en lecciones


IngresarEmpezar
← Regresar a lecciones

Weekly Coding Challenge

Todas las semanas escogemos un proyecto de la vida real para que construyas tu portafolio y te prepares para conseguir un trabajo. Todos nuestros proyectos están construidos con ChatGPT como co-pilot!

Únete al reto

Podcast: Code Sets You Free

Un podcast de cultura tecnológica donde aprenderás a luchar contra los enemigos que te bloquean en tu camino para convertirte en un profesional exitoso en tecnología.

Escuchar el podcast
Editar en Github

Regresión Lineal

Regresión Lineal

Regresión Lineal

La regresión lineal (linear regression) es un tipo de modelo que se utiliza para predecir el valor de una variable dependiente (o variable objetivo) basado en el valor de una o más variables independientes (o variables predictoras). La regresión lineal presupone que existe una relación lineal directa entre las variables independientes y la variable dependiente. Si la relación entre la variable objetivo es con una única variable predictora se dice que la regresión es simple. Si es con varias predictoras, recibe el nombre de regresión múltiple.

Este modelo se fundamenta en torno a cinco supuestos, que son los siguientes:

  1. Linealidad: La variable objetivo y la(s) predictora(s) tienen una relación lineal.
  2. Independencia: Las observaciones son independientes unas de otras.
  3. Homoscedasticidad: La varianza de los errores (es decir, las diferencias entre las predicciones del modelo y los datos reales) es constante en todos los niveles de las variables independientes.
  4. Normalidad de los errores: Los errores están normalmente distribuidos. Esto es importante para la realización de pruebas estadísticas y para construir intervalos de confianza.
  5. Ausencia de multicolinealidad: En una regresión múltiple, las variables independientes no están perfectamente correlacionadas entre sí. Si hay correlación perfecta, se dice que los datos datos tienen multicolinealidad (hay variables que son iguales) y dificulta el cálculo de los coeficientes.

Regresión lineal simple

La regresión lineal simple permite estudiar las relaciones entre dos variables numéricas continuas. En este tipo de regresión intentamos ajustar una línea recta a los datos que mejor describa la relación entre las dos variables. Es decir, buscamos una línea que minimice la distancia vertical entre sí misma y todos los puntos de datos, de tal forma que la mejor relación lineal se da cuando todos los puntos conforman la recta y no existe dispersión.

La ecuación que define esta relación (recta) es:

Y=a+bX+eY = a + bX + e,

y donde:

  • YY es la variable dependiente que intentamos predecir o modelar
  • XX es la variable independiente que utilizamos para hacer la predicción
  • aa y bb son los coeficientes que queremos que el modelo aprenda. aa es el intercepto (valor de YY cuando XX es cero) y bb es la pendiente
  • ee es el error en la predicción comentado anteriormente. Es la diferencia entre el valor real de YY y el valor de YY predicho por el modelo

El objetivo de la regresión lineal simple es, por lo tanto, encontrar los mejores valores de aa y bb que minimizan el error ee. Una vez que hemos encontrado estos valores, podemos usarlos para predecir los valores de YY dada cualquier XX.

En la regresión lineal, cada valor dependiente tiene una sola variable independiente correspondiente.

Regresión lineal múltiple

La regresión lineal múltiple es una extensión de la regresión lineal simple que se utiliza cuando hay más de una variable independiente. Se usa para modelar la relación entre dos o más características y una respuesta mediante el ajuste de una ecuación lineal (más extendida que la anterior) a los datos observados.

La forma básica de una ecuación de regresión lineal múltiple con n variables es:

Y=a+b1X1+b2X2+...+bnXn+eY = a + b_1X_1 + b_2X_2 + ... + b_nX_n + e,

y donde:

  • YY es la variable dependiente que intentamos predecir o modelar
  • X1,X2,...,XnX_1, X_2, ..., X_n son las variables independientes que utilizamos para hacer la predicción
  • aa y b1,b2,...,bnb_1, b_2, ..., b_n son los coeficientes que queremos que el modelo aprenda
  • ee es el error en la predicción comentado anteriormente. Es la diferencia entre el valor real de YY y el valor de YY predicho por el modelo

La regresión lineal múltiple permite al analista determinar qué variables en particular tienen un impacto significativo sobre la variable dependiente y en qué magnitud. Al igual que la regresión lineal simple, esta regresión hace supuestos de linealidad, normalidad, homocedasticidad y ausencia de multicolinealidad, y los resultados pueden ser no confiables si estos supuestos se violan.