¿Qué significa exactamente la variación?
La varianza y la desviación estándar son los indicadores más importantes y comúnmente utilizados para medir tendencias discretas. La varianza es el promedio de las desviaciones al cuadrado del valor de una variable de su media y es la medida más importante de la dispersión de datos numéricos. La desviación estándar es la raíz cuadrada aritmética de la varianza y está representada por S. La fórmula correspondiente para la varianza es:
La diferencia entre desviación estándar y varianza es que la desviación estándar tiene la misma unidad de cálculo que la variable, lo cual es más claro que la varianza, por eso muchas veces usamos más la desviación estándar en el análisis. .
Cuando la distribución de los datos está relativamente dispersa (es decir, los datos fluctúan mucho cerca de la media), la suma de los cuadrados de las diferencias entre cada dato y la media es relativamente grande y la varianza es relativamente grande. Cuando la distribución de datos está relativamente concentrada, cada La suma de las diferencias al cuadrado entre los datos y la media es relativamente pequeña. Por lo tanto, cuanto mayor es la varianza, mayor es la volatilidad de los datos; cuanto menor es la varianza, menor es la volatilidad de los datos.
Extensión:
La varianza es la media de las diferencias al cuadrado entre el valor real y el valor esperado, mientras que la desviación estándar es la raíz cuadrada aritmética de la varianza. En la práctica, calculamos la varianza utilizando la siguiente fórmula.
La varianza es la suma promedio de los cuadrados de las diferencias entre los datos individuales y la media, es decir, x representa la media de la muestra, n representa el número de muestras, xi representa el número de individuos. , y s^2 es la varianza.
Al usarlo para estimar la varianza de la muestra X, se encuentra que su expectativa matemática no es la varianza de X, sino un múltiplo de la varianza de La varianza es "insesgada", por lo que siempre usamos para estimar la varianza de X y llamarla "varianza muestral".
La varianza es el grado de desviación del centro. Se utiliza para medir la fluctuación de un lote de datos (es decir, la desviación del valor medio de este lote de datos). varianza de este lote de datos, registrada como S2. Cuando el tamaño de la muestra es el mismo, cuanto mayor es la varianza, mayor es la fluctuación de los datos y mayor es la volatilidad.
Referencias:. Enciclopedia Baidu-Covarianza