En estadística, un error estándar relativo (RSE) es igual al error estándar de una estimación de encuesta dividido por la estimación de encuesta y luego multiplicado por 100. El número se multiplica por 100 para que pueda expresarse como un porcentaje. El RSE no representa necesariamente ninguna información nueva más allá del error estándar, pero podría ser un método superior para presentar confianza estadística.
Error estándar relativo versus error estándar
El error estándar mide cuánto es probable que la estimación de una encuesta se desvíe de la población real. Se expresa como un número. Por el contrario, el error estándar relativo (RSE) es el error estándar expresado como una fracción de la estimación y generalmente se muestra como un porcentaje. Las estimaciones con un RSE de 25% o más están sujetas a un alto error de muestreo y deben usarse con precaución.
Estimación de la encuesta y error estándar
Las encuestas y los errores estándar son partes cruciales de la teoría de la probabilidad y las estadísticas. Los estadísticos usan errores estándar para construir intervalos de confianza a partir de sus datos encuestados. La fiabilidad de estas estimaciones también se puede evaluar en términos de un intervalo de confianza. Los intervalos de confianza son importantes para determinar la validez de las pruebas empíricas y la investigación.
Un intervalo de confianza es un tipo de estimación de intervalo, calculada a partir de las estadísticas de los datos observados, que puede contener el valor verdadero de un parámetro de población desconocido. Los intervalos de confianza representan el rango en el que es probable que se encuentre el valor de la población. Se construyen utilizando la estimación del valor de la población y su error estándar asociado. Por ejemplo, hay aproximadamente una probabilidad del 95% (es decir, 19 posibilidades en 20) de que el valor de la población se encuentre dentro de dos errores estándar de las estimaciones, por lo que el intervalo de confianza del 95% es igual a la estimación más o menos dos errores estándar.
En términos simples, el error estándar de una muestra de datos es una medida de la diferencia probable entre la muestra y toda la población. Por ejemplo, un estudio que involucró a 10, 000 adultos fumadores de cigarrillos puede generar resultados estadísticos ligeramente diferentes que si se encuestara a cada posible adulto fumador de cigarrillos.
Los errores de muestra más pequeños son indicativos de resultados más confiables. El teorema del límite central en estadística inferencial sugiere que las muestras grandes tienden a tener distribuciones aproximadamente normales y bajos errores de muestra.
Desviación estándar y error estándar
La desviación estándar de un conjunto de datos se utiliza para expresar la concentración de los resultados de la encuesta. Menos variedad en los datos resulta en una desviación estándar más baja. Es probable que una mayor variedad resulte en una desviación estándar más alta.
El error estándar a veces se confunde con la desviación estándar. El error estándar en realidad se refiere a la desviación estándar de la media. La desviación estándar se refiere a la variabilidad dentro de cualquier muestra dada, mientras que un error estándar es la variabilidad de la distribución de muestreo en sí.
Error estándar relativo
El error estándar es un indicador absoluto entre la encuesta de muestra y la población total. El error estándar relativo muestra si el error estándar es grande en relación con los resultados; Los grandes errores estándar relativos sugieren que los resultados no son significativos. La fórmula para el error estándar relativo es:
Error estándar relativo = Estimación Error estándar × 100 donde: Error estándar = desviación estándar de la muestra media Estimación = media de la muestra