Análisis de la regresión

En estadística, el análisis de la regresión es un proceso estadístico para estimar las relaciones entre variables. Incluye muchas técnicas para el modelado y análisis de diversas variables, cuando la atención se centra en la relación entre una variable dependiente y una o más variables independientes (o predictoras). Más específicamente, el análisis de regresión ayuda a entender cómo el valor de la variable dependiente varía al cambiar el valor de una de las variables independientes, manteniendo el valor de las otras variables independientes fijas. Más comúnmente, el análisis de regresión estima la esperanza condicional de la variable dependiente dadas las variables independientes - es decir, el valor promedio de la variable dependiente cuando se fijan las variables independientes. Con menor frecuencia, la atención se centra en un cuantil, u otro parámetro de localización de la distribución condicional de la variable dependiente dadas las variables independientes. En todos los casos, el objetivo es la estimación de una función de las variables independientes llamada la función de regresión. En el análisis de regresión, también es de interés para caracterizar la variación de la variable dependiente en torno a la función de regresión que puede ser descrito por una distribución de probabilidad.

El análisis de regresión es ampliamente utilizado para la predicción y previsión, donde su uso tiene superposición sustancial en el campo de aprendizaje automático. El análisis de regresión se utiliza también para comprender que cuales de las variables independientes están relacionadas con la variable dependiente, y explorar las formas de estas relaciones. En circunstancias limitadas, el análisis de regresión puede utilizarse para inferir relaciones causales entre las variables independientes y dependientes. Sin embargo, esto puede llevar a ilusiones o falsas relaciones, por lo que se recomienda precaución,[1] por ejemplo, la correlación no implica causalidad.

Se han desarrollado muchas técnicas para llevar a cabo análisis de regresión. Métodos familiares tales como regresión lineal y ordinaria de mínimos cuadrados de regresión son paramétrica, en que la función de regresión se define en términos de un número finito de desconocidos parámetros que se estiman a partir de los datos. regresión no paramétrica se refiere a las técnicas que permiten que la función de regresión mienta en un conjunto específico de funciones, que puede ser de dimensión infinita.

El desempeño de los métodos de análisis de regresión en la práctica depende de la forma del proceso de generación de datos, y cómo se relaciona con el método de regresión que se utiliza. Dado que la forma verdadera del proceso de generación de datos generalmente no se conoce, el análisis de regresión depende a menudo hasta cierto punto de hacer suposiciones acerca de este proceso. Estos supuestos son a veces comprobable si una cantidad suficiente de datos está disponible. Los modelos de regresión para la predicciamente, aunque pueden no funcionar de manera óptima. Sin embargo, en muchas aplicaciones, sobre todo con pequeños efectos o las cuestiones de causalidad sobre la base de los datos de observación, métodos de regresión pueden dar resultados engañosos.[3]

Historia

La primera forma de regresión fue el método de mínimos cuadrados, que fue publicado por Legendre en 1805,[6] incluyendo una versión del teorema de Gauss-Markov.

El término "regresión" fue acuñado por Francis Galton en el siglo XIX para describir un fenómeno biológico. El fenómeno fue que las alturas de los descendientes de ancestros altos tienden a regresar hacia abajo, hacia un promedio normal (un fenómeno conocido como regresión hacia la media ).[15] Fisher supone que la distribución condicional de la variable de respuesta es de Gauss, pero la distribución conjunta no es necesario. A este respecto, la asunción de Fisher está más cerca de la formulación de Gauss de 1821.

En los años 1950 y 1960, los economistas utilizan calculadoras electromecánicas para calcular regresiones. Antes de 1970, a veces tardaba hasta 24 horas para recibir el resultado de una regresión.[16]

Los métodos de regresión siguen siendo un área de investigación activa. En las últimas décadas, los nuevos métodos han sido desarrollados para la regresión robusta, la regresión que implica respuestas correlacionadas, tales como series de tiempo y las curvas de crecimiento, regresión en la que los predictores o variables de respuesta son curvas, imágenes, gráficos y otros objetos de datos complejos, los métodos de regresión Aceptar varios tipos de datos faltantes, la regresión no paramétrica, bayesianos métodos de regresión, regresión en el que las variables de predicción se miden con error, regresión con más variables predictoras que las observaciones y la inferencia causal con la regresión.

Other Languages