fbpx
Wikipedia

Estimador

En estadística, un estimador es un estadístico (esto es, una función de la muestra) usado para estimar un parámetro desconocido de la población. Por ejemplo, si se desea conocer el precio medio de un artículo (el parámetro desconocido) se recogerán observaciones del precio de dicho artículo en diversos establecimientos (la muestra) y la media aritmética de las observaciones puede utilizarse como estimador del precio medio.

Para cada parámetro pueden existir varios estimadores diferentes. En general, escogeremos el estimador que posea mejores propiedades que los restantes, como insesgadez, eficiencia, convergencia y robustez (consistencia).

El valor de un estimador proporciona lo que se denomina en estadística una estimación puntual del valor del parámetro en estudio. En general, se suele preferir realizar una estimación mediante un intervalo, esto es, obtener un intervalo [a,b] dentro del cual se espera esté el valor real del parámetro con un cierto nivel de confianza. Utilizar un intervalo resulta más informativo, al proporcionar información sobre el posible error de estimación, asociado con la amplitud de dicho intervalo. El nivel de confianza es la probabilidad de que a priori el verdadero valor del parámetro quede contenido en el intervalo.

En la práctica, los intervalos de estimadores con distribuciones simétricas suelen indicarse dando el valor del estimador puntual utilizado como centro del intervalo y un valor que debe sumarse y restarse para obtener el límite superior e inferior; por ejemplo:

equivale a

Propiedades del estimador

Sesgo

Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor esperado) del estimador y el verdadero valor del parámetro a estimar. Es deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea nulo por ser su esperanza igual al parámetro que se desea estimar.

Por ejemplo, si se desea estimar la media de una población, la media aritmética de la muestra es un estimador insesgado de la misma, ya que su esperanza (valor esperado) es igual a la media de la población.

En efecto, si una muestra   procede de una población de media  , quiere decir que:

  para cualquier  

La media aritmética o media presupuestal,

 , con lo que, al aplicar las propiedades de linealidad de la esperanza matemática se tiene que:

 

Eficiencia

Diremos que un estimador es más eficiente o más preciso que otro estimador, si la varianza del primero es menor que la del segundo. Por ejemplo, si   y   son ambos estimadores de   y

 

diremos que   es más eficiente que  . Un estimador es más eficiente (más preciso), por tanto, cuanto menor es su varianza.

La eficiencia de los estimadores está limitada por las características de la distribución de probabilidad de la muestra de la que proceden. El teorema de Cramér-Rao determina que la varianza de un estimador insesgado   de un parámetro   es, como mínimo,

 

donde   es la función de densidad de probabilidad de la muestra   en función del parámetro  , (denominada función de verosimilitud). Si un estimador insesgado alcanza esta cota mínima, entonces se dice que el estimador es de mínima varianza dentro de los estimadores insesgados, pudiendo existir estimadores sesgados con varianza menor.

Consistencia

Si no es posible emplear estimadores de mínima varianza, el requisito mínimo deseable para un estimador es que a medida que el tamaño de la muestra crece, el valor del estimador tienda a ser el valor del parámetro, propiedad que se denomina consistencia. Existen diversas definiciones de consistencia, más o menos restrictivas, pero la más utilizada es la denominada consistencia en media cuadrática que exige que:

  1.   cuando  
  2.   cuando  

Robustez

El estimador   será un estimador robusto del parámetro   si la violación de los supuestos de partida en los que se basa la estimación (normalmente, atribuir a la población un determinado tipo de función de distribución que, en realidad, no es la correcta), no altera de manera significativa los resultados que éste proporciona.

Suficiencia

Se dice que un estimador es suficiente cuando resume toda la información relevante contenida en la muestra, de forma que ningún otro estimador pueda proporcionar información adicional sobre el parámetro desconocido de la población. Por ejemplo, la media muestral sería un estimador suficiente de la media poblacional, mientras que, en general, la moda y la mediana no.

Invariancia

Se dice que un estimador es invariante cuando el estimador de la función del parámetro coincide con la función del estimador del parámetro,  


Ejemplo.- Si para estimar la varianza poblacional utilizamos la varianza muestral, entonces para estimar la desviación típica poblacional será razonable utilizar la desviación típica muestral.

Véase también

  •   Datos: Q1130160

estimador, estadística, estimador, estadístico, esto, función, muestra, usado, para, estimar, parámetro, desconocido, población, ejemplo, desea, conocer, precio, medio, artículo, parámetro, desconocido, recogerán, observaciones, precio, dicho, artículo, divers. En estadistica un estimador es un estadistico esto es una funcion de la muestra usado para estimar un parametro desconocido de la poblacion Por ejemplo si se desea conocer el precio medio de un articulo el parametro desconocido se recogeran observaciones del precio de dicho articulo en diversos establecimientos la muestra y la media aritmetica de las observaciones puede utilizarse como estimador del precio medio Para cada parametro pueden existir varios estimadores diferentes En general escogeremos el estimador que posea mejores propiedades que los restantes como insesgadez eficiencia convergencia y robustez consistencia El valor de un estimador proporciona lo que se denomina en estadistica una estimacion puntual del valor del parametro en estudio En general se suele preferir realizar una estimacion mediante un intervalo esto es obtener un intervalo a b dentro del cual se espera este el valor real del parametro con un cierto nivel de confianza Utilizar un intervalo resulta mas informativo al proporcionar informacion sobre el posible error de estimacion asociado con la amplitud de dicho intervalo El nivel de confianza es la probabilidad de que a priori el verdadero valor del parametro quede contenido en el intervalo En la practica los intervalos de estimadores con distribuciones simetricas suelen indicarse dando el valor del estimador puntual utilizado como centro del intervalo y un valor que debe sumarse y restarse para obtener el limite superior e inferior por ejemplo 3 5 2 03 displaystyle 3 5 pm 2 03 equivale a 3 5 2 03 3 5 2 03 1 47 5 53 displaystyle 3 5 2 03 3 5 2 03 1 47 5 53 Indice 1 Propiedades del estimador 1 1 Sesgo 1 2 Eficiencia 1 3 Consistencia 1 4 Robustez 1 5 Suficiencia 1 6 Invariancia 2 Vease tambienPropiedades del estimador EditarSesgo Editar Articulo principal Sesgo estadistico Se denomina sesgo de un estimador a la diferencia entre la esperanza o valor esperado del estimador y el verdadero valor del parametro a estimar Es deseable que un estimador sea insesgado o centrado es decir que su sesgo sea nulo por ser su esperanza igual al parametro que se desea estimar Por ejemplo si se desea estimar la media de una poblacion la media aritmetica de la muestra es un estimador insesgado de la misma ya que su esperanza valor esperado es igual a la media de la poblacion En efecto si una muestra X X 1 X 2 X n t displaystyle X X 1 X 2 dots X n t procede de una poblacion de media m displaystyle mu quiere decir que E X i m displaystyle operatorname E X i mu para cualquier i 1 n displaystyle i 1 dots n La media aritmetica o media presupuestal X 1 n i 1 n X i displaystyle bar X frac 1 n sum i 1 n X i con lo que al aplicar las propiedades de linealidad de la esperanza matematica se tiene que E X E 1 n i 1 n X i 1 n E i 1 n X i 1 n i 1 n E X i 1 n i 1 n m 1 n n m m displaystyle begin aligned operatorname E bar X amp operatorname E left frac 1 n sum i 1 n X i right amp frac 1 n operatorname E left sum i 1 n X i right amp frac 1 n sum i 1 n operatorname E left X i right amp frac 1 n sum i 1 n mu amp frac 1 n n mu amp mu end aligned Eficiencia Editar Articulo principal Eficiencia estadistica Diremos que un estimador es mas eficiente o mas preciso que otro estimador si la varianza del primero es menor que la del segundo Por ejemplo si 8 1 displaystyle hat theta 1 y 8 2 displaystyle hat theta 2 son ambos estimadores de 8 displaystyle theta y Var 8 1 lt Var 8 2 displaystyle operatorname Var hat theta 1 lt operatorname Var hat theta 2 diremos que 8 1 displaystyle hat theta 1 es mas eficiente que 8 2 displaystyle hat theta 2 Un estimador es mas eficiente mas preciso por tanto cuanto menor es su varianza La eficiencia de los estimadores esta limitada por las caracteristicas de la distribucion de probabilidad de la muestra de la que proceden El teorema de Cramer Rao determina que la varianza de un estimador insesgado 8 displaystyle hat theta de un parametro 8 displaystyle theta es como minimo V a r 8 1 E 8 log f X 8 2 displaystyle mathrm Var left widehat theta right geq frac 1 mathrm E left left frac partial partial theta log f X theta right 2 right donde f X 8 displaystyle f X theta es la funcion de densidad de probabilidad de la muestra X X 1 X 2 X n t displaystyle X X 1 X 2 dots X n t en funcion del parametro 8 displaystyle theta denominada funcion de verosimilitud Si un estimador insesgado alcanza esta cota minima entonces se dice que el estimador es de minima varianzadentro de los estimadores insesgados pudiendo existir estimadores sesgados con varianza menor Consistencia Editar Articulo principal Consistencia estadistica Si no es posible emplear estimadores de minima varianza el requisito minimo deseable para un estimador es que a medida que el tamano de la muestra crece el valor del estimador tienda a ser el valor del parametro propiedad que se denomina consistencia Existen diversas definiciones de consistencia mas o menos restrictivas pero la mas utilizada es la denominada consistencia en media cuadratica que exige que E 8 8 displaystyle E hat theta to theta cuando n displaystyle n to infty V a r 8 0 displaystyle Var hat theta to 0 cuando n displaystyle n to infty dd Robustez Editar El estimador 8 displaystyle hat theta sera un estimador robusto del parametro 8 displaystyle theta si la violacion de los supuestos de partida en los que se basa la estimacion normalmente atribuir a la poblacion un determinado tipo de funcion de distribucion que en realidad no es la correcta no altera de manera significativa los resultados que este proporciona Suficiencia Editar Se dice que un estimador es suficiente cuando resume toda la informacion relevante contenida en la muestra de forma que ningun otro estimador pueda proporcionar informacion adicional sobre el parametro desconocido de la poblacion Por ejemplo la media muestral seria un estimador suficiente de la media poblacional mientras que en general la moda y la mediana no Invariancia Editar Se dice que un estimador es invariante cuando el estimador de la funcion del parametro coincide con la funcion del estimador del parametro f 8 f 8 displaystyle left f theta right f theta Ejemplo Si para estimar la varianza poblacional utilizamos la varianza muestral entonces para estimar la desviacion tipica poblacional sera razonable utilizar la desviacion tipica muestral Vease tambien Editar Portal Matematica Contenido relacionado con Matematica Sensibilidad y especificidad estadistica Datos Q1130160 Obtenido de https es wikipedia org w index php title Estimador amp oldid 139269241, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos