Estimación de parametros
Estimación
de parámetros:
Es el procedimiento utilizado para conocer
las características de un parámetro poblacional, a partir del conocimiento de
la muestra. Con una muestra aleatoria, de tamaño n, podemos efectuar una
estimación de un valor de un parámetro de la población; pero también
necesitamos precisar un:
1) Intervalo
de confianza: Se llama así a un intervalo
en el que sabemos que está un parámetro, con un nivel de confianza específico.
2) Nivel
de confianza: Probabilidad de que el
parámetro a estimar se encuentre en el intervalo de confianza.
3) Error de estimación admisible:
Que estará relacionado con el radio del intervalo de confianza.
Estimación:
Es el
proceso de encontrar una aproximación sobre una medida, lo que se ha de valorar
con algún propósito es utilizable incluso si los datos de entrada pueden estar
incompletos, incierto, o inestables. En el ámbito de la estadística estimación
implica usar el valor de una estadística derivada de una muestra para estimar
el valor de un parámetro correspondiente a población.
Estimador:
Es un
estadístico usado para estimar un parámetro desconocido de la población.
Propiedades de un estimador:
·SESGO:
Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor
esperado) del estimador y el verdadero valor del parámetro a estimar. Es
deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea
nulo por ser su esperanza igual al parámetro que se desea estimar.
· EFICIENCIA:
Un estimador es más eficiente o preciso que otro, si la varianza del primero es
menor que la del segundo.
· CONVERGENCIA:
Para estudiar las características de un estimador no solo basta con saber el
sesgo y la varianza, sino que además es útil hacer un análisis de su
comportamiento y estabilidad en el largo plazo, esto es, su comportamiento
asintótico. Cuando hablamos de estabilidad en largo plazo, se viene a la mente
el concepto de convergencia. Luego, podemos construir sucesiones de estimadores
y estudiar el fenómeno de la convergencia.
- Comportamiento
Asintótico: En el caso de las variables aleatorias, existen
diversos tipos de convergencia, dentro de las cuales podemos distinguir:
-Convergencia en probabilidad
(o débil).
-Convergencia casi segura (o
fuerte).
-Convergencia en media
cuadrática.
-Convergencia en distribución.
·CONSISTENCIA:
También llamada robustez, se utilizan cuando no es posible emplear estimadores
de mínima varianza, el requisito mínimo deseable para un estimador es que a
medida que el tamaño de la muestra crece, el valor del estimador tiende a ser
el valor del parámetro, propiedad que se denomina consistencia.
Estimador puntual:
Cuando
se usa un solo valor extraído de la muestra para estimar el parámetro
desconocido de la población. Al valor usado se le llama estimador.
ü Media:
La distribución muestral de la Media depende de varias circunstancias como la
distribución de la población de la que se extrae las muestras:
1) La población se distribuye
según el modelo Normal. La distribución de Medias muéstrales sigue el modelo
Normal, con parámetros mu y sigma donde sigma al cuadrado y n son la Varianza
de la distribución poblacional y el tamaño de la muestra respectivamente.
2) La población no sigue la
distribución Normal. En este caso la distribución de Medias muéstrales se
acerca al modelo Normal (con los mismos parámetros que hemos visto al apartado
a) cuanto mayor sea el tamaño de la muestra.
ü Varianza:
La distribución muestral del estimador de la Varianza, (la Cuasivarianza),
Donde n es el número de grados de libertad.
ü Proporción:
La distribución de p aproxima la distribución Normal con parámetros, si el
producto np es mayor que 5.
Estimación por intervalos:
Consiste en establecer el intervalo de valores
donde es más probable se encuentre el parámetro. La obtención del intervalo se
basa en las siguientes consideraciones:
§ Si
conocemos la distribución muestral del estimador podemos obtener las
probabilidades de ocurrencia de los estadísticos muéstrales.
§ Si
conociéramos el valor del parámetro poblacional, podríamos establecer la
probabilidad de que el estimador se halle dentro de los intervalos de la
distribución muestral.
§ El
problema es que el parámetro poblacional es desconocido, y por ello el
intervalo se establece alrededor del estimador. Si repetimos el muestreo un gran
número de veces y definimos un intervalo alrededor de cada valor del
estadístico muestral, el parámetro se sitúa dentro de cada intervalo en un
porcentaje conocido de ocasiones. Este intervalo es denominado "intervalo
de confianza".
Estimación
bayesiana:
Comentarios
Publicar un comentario