¿Cuál es la fórmula para calcular el error estándar?
y el error estándar de este conjunto de valores medidos
es igual a:
donde e es el error = valor medido - valor verdadero.
Diferencias con la desviación estándar
El significado, función y ámbito de aplicación de la desviación estándar y el error estándar son diferentes. La desviación estándar (también llamada desviación estándar singular) generalmente se expresa como DE (la desviación estándar DE es un indicador de variación interindividual, que refleja el grado de dispersión de toda la muestra de la media de la muestra y es una medida de la precisión de los datos). El error estándar generalmente se expresa como SE (desviación estándar) significa que refleja el grado de variación de la media de la muestra con respecto a la media de la población, lo que refleja el tamaño del error de muestreo y es un indicador de la precisión de los resultados.
A medida que aumenta el número de muestras (o número de mediciones) n, la desviación estándar tiende a un valor estable, es decir, la desviación estándar de la muestra S está más cerca de la desviación estándar de la población σ, y la desviación estándar la desviación aumenta con el número de muestras (o mediciones) veces) n disminuye gradualmente, es decir, el promedio de la muestra está más cerca del promedio de la población μ por lo tanto, en los experimentos, el método de aumentar adecuadamente el número de muestras (o el número de mediciones) y reducir n se usa a menudo para reducir el error experimental, pero si el número de muestras es demasiado grande y no tiene sentido. La desviación estándar es la estadística más utilizada y generalmente se usa para expresar el grado de dispersión de un conjunto de variables muestrales. La inferencia estadística generalmente usa el error estándar, que incluye principalmente pruebas de hipótesis y estimación de parámetros, como pruebas de hipótesis de la media muestral y estimación de intervalos. y estimación puntual de parámetros.