4.1 LISTA DE ESTIMADORES A OBTENER DE LA SIMULACIÓN
Derivaremos las propiedades de estos estimadores y mostraremos las condiciones en las que cada estimador es consistente y sistemáticamente equivalente al estimador que obtendríamos si usásemos valores exactos en lugar de simulación. Estas condiciones proporcionan una guía al investigador sobre cómo debe llevarse a cabo la simulación para obtener estimadores con propiedades deseables. El análisis también pone en evidencia las ventajas y limitaciones de cada forma de estimación, facilitando así la elección del investigador entre los diferentes métodos.
1) Parámetro.
Verdadero valor de una característica de interés, denominado por θ, que raramente
es conocido.
2)
Estimativa. Valor numérico obtenido por el estimador, denominado de θ̂ en una muestra.
3)
Viés y no viés. Un estimador es no in-sesgado si: E(θ̂) = θ, onde el viés es
dado por: vies(θ̂) = E(θ ˆ θ) = E(θ̂) − θ
Cuadrado
medio del error (ECM). Es dado por:
ECM
(θ̂) = E(θ̂ − θ)2 = V (θ̂) + (vies)
1) Un
estimador es consistente si: plim(θ̂) = θ ; y lim −→ ∞ECM (θ̂) = 0
2) Las
leyes de los grandes números explican por qué́ el promedio o media de una
muestra al azar de una población de gran tamaño tenderá a estar
cerca de la media de la población completa.
4.1.1 INSTRUMENTOS DE
MEDICIÓN
El análisis de la
literatura existente arroja un resultado de 17 instrumentos de medida de las
actitudes y la ansiedad hacia la estadística. Exceptuando dos instrumentos
elaborados a partir de escalas bipolares, a la manera del diferencial semántico
de Osgood (Birenbaum y Eylath, 1994; Green, 1993), todos los instrumentos
revisados son escalas tipo Likert. En lo que sigue vamos a describir brevemente
estos cuestionarios, poniendo un mayor énfasis en aquellos que han sido usados
más frecuentemente.
4.1.2 MEDIOS DE REGISTRO
DE DATOS
La
elección del método depende de la estrategia de recopilación de datos, el tipo
de variable, la precisión necesaria, el punto de recopilación y la formación
del encuestador. Los vínculos entre una variable, su origen y los métodos
prácticos para su recopilación. Pueden ayudar a escoger métodos apropiados. Los
principales métodos de recopilación de datos son:
- Registros: los registros
y licencias son particularmente valiosos para los censos completos, pero
se limitan a variables que cambian lentamente, como el número de
embarcaciones pesqueras y sus características.
- Cuestionarios:
formularios que los encuestados devuelven cumplimentados. Un método poco
costoso que resulta útil cuando los índices de alfabetización son altos y
los encuestados colaboran.
- Entrevistas: formularios
que se cumplimentan a lo largo de una entrevista con el encuestado. Más
caros que los cuestionarios, pero mejores para preguntas más complejas, y
cuando se dan unos índices de alfabetización bajos o se encuentra menos
colaboración.
- Observaciones directas:
la realización de mediciones directas es el método más preciso para todas
las variables, como las capturas, pero a menudo resulta caro. Muchos
métodos, como los programas de observación, se limitan a la pesca
industrial.
- Presentación de informes: la principal alternativa a la realización de mediciones directas consiste en pedir a los pescadores y a terceros que presenten informes de sus actividades. La preparación de informes presupone la alfabetización y requiere espíritu de colaboración, pero ello puede reforzarse mediante una obligación legal y mediciones directas.
Las
técnicas de recogida de la información no son un fin en si mismo, sino que
dependen de:
- El tipo de investigación que se esté haciendo.
- El tipo de análisis de datos que vamos a utilizar posteriormente.
- El problema que queramos estudiar.
- Los objetivos que pretendamos alcanzar con la investigación.
Algunas
técnicas se pueden utilizar en distintos diseños, por ejemplo la entrevista se
puede utilizar en: investigación acción, en estudios de caso, en investigación
etnográfica, etc.
4.2. IDENTIFICACIÓN DEL ESTIMADOR DETERMINANTE
(ESTIMADOR LÍDER) DEL TAMAÑO DE LA SIMULACIÓN
Por
definición, el valor de una variable cambia conforme avanza la simulación,
aunque se le debe dar un valor inicial. Cabe recordar que el valor de un
parámetro permanece constante; sin embargo, puede cambiar conforme se estudian
diferentes alternativas en otras simulaciones.
Determinación
de condiciones iniciales: La determinación de condiciones iniciales para las
variables es una decisión táctica importante en la simulación.
Lo
anterior se debe a que el modelo se sesga por una serie de valores iniciales
hasta que el modelo llega a un estado estable.
Para
manejar este problema, los analistas han seguido varios planteamientos
como
- Descartar los datos
generados durante las primeras partes de la ejecución.
- Seleccionar las
condiciones iniciales que reducen la duración del periodo de calentamiento
o
- Seleccionar las condiciones iniciales que eliminan el sesgo. Sin embargo, para emplear cualquiera de estas alternativas, el analista debe tener una idea del margen de datos de salida esperado. Por lo tanto, en cierto sentido, el analista sesga los resultados. Por otro lado, una de las únicas características de la simulación es que permite la crítica en el diseño y análisis de la simulación; por lo que si el analista tiene cierta información que alberga un problema, se debe incluir.
Determinación
de duración de la ejecución La duración de la ejecución de simulación (duración
de la ejecución o tiempo de ejecución) depende del propósito de la simulación.
Quizás
el planteamiento más común sea continuar la simulación hasta lograr un
equilibrio. En el ejemplo del mercado de pescado, significaría que las ventas
simuladas de pescado corresponden a sus frecuencias relativas históricas. Otro
planteamiento es ejecutar la simulación durante un periodo establecido como 1
mes, 1 año o una década y ver si las condiciones al final del periodo son
razonables. Un tercer planteamiento es establecer la duración de la ejecución
de modo que se obtenga una muestra suficientemente grande para efectos de
pruebas de hipótesis estadística. Esta alternativa se considera en la siguiente
sección.
Desde
luego que las conclusiones que se pueden obtener de una simulación dependen del
grado en que el modelo refleja el sistema real, aunque también depende del
diseño de la simulación en un sentido estadístico.
De
hecho, muchos analistas consideran la simulación como una forma de prueba de
hipótesis donde cada ejecución de simulación ofrece uno o más datos de muestra
que son susceptibles al análisis formal a través de los métodos estadísticos
inferenciales. Los procedimientos estadísticos que normalmente se usan en la
evaluación de resultados de simulación incluyen el análisis de varianza,
análisis de regresión y pruebas t.
En la
mayoría de las situaciones, el análisis tiene más información disponible con la
cual comparar los resultados de simulación: datos operativos antiguos del
sistema real, datos operativos del desempeño de sistemas semejantes y la
percepción del analista de la operación del sistema real. Sin embargo, se debe
admitir que la información obtenida de estas fuentes probablemente no sea
suficiente para validar las conclusiones derivadas de la simulación. Por lo
tanto, la única prueba real de una simulación es qué tan bien se desempeña el
sistema real después de haber implantado los resultados del estudio.
Un
requerimiento lógico para un estimador es que su precisión mejore al aumentar
el tamaño muestral. Es decir, que esperaremos obtener mejores estimaciones
cuanto mayor sea el número de individuos.
Si se
cumple dicho requerimiento, diremos que un estimador es consistente. Desde un
punto de vista más riguroso diremos que un estimador es consistente si converge
en probabilidad al verdadero valor del parámetro que queremos estimar.
Ejemplo:
Consideremos
el caso de la estimación de la media de una población Normal (μ) y
consideraremos dos estimadores:
Estimador 1: La primera
observación de la muestra (para cualquier tamaño muestral). · Estimador 2: La media
aritmética de las observaciones.
Para
observar el comportamiento de ambos estimadores utilizaremos el siguiente
programa que genera automáticamente diez muestras de diferentes tamaños (n = 2;
10 ; 50; 500) procedentes de una distribución Normal de parámetros (μ = 0; σ =
1). Se tratará, por tanto, de un estudio de simulación (generamos muestras
procedentes de una determinada distribución) para comparar el comportamiento de
ambos estimadores. Recuerda que el verdadero valor del parámetro a estimar (μ)
es cero y que corresponde a la línea central en negro:
1)
Comparad los valores del estimador 1 (primera observación) para los diferentes
tamaños muestrales (n = 2; 10; 50; 500).
2)
Haced lo mismo con el estimador 2: media aritmética.
3)
Obtened nuevas simulaciones y repetid el estudio anterior.
4)
¿Mejora el resultado de algún estimador al aumentar el tamaño de la muestra?
Es
evidente que el estimador correspondiente a la primera observación no mejora al
aumentar el tamaño de la muestra. Mientras que la media aritmética converge
hacia el verdadero valor del parámetro (μ = 0) al aumentar el tamaño de la
muestra.
En
resumen: la primera observación no es un estimador consistente de μ, mientras
que la media aritmética sí que lo es.
4.3 MUESTRAS
PRELIMINARES DE LOS PROYECTOS APROBADOS EN
4.4
CARACTERÍSTICAS ESTADÍSTICAS DEL ESTIMADOR LÍDER
Hay
una serie de características deseables en los estimadores para que éstos
constituyan una buena aproximación a los respectivos parámetros. Se trata de
rasgos que podrían entenderse como criterios de calidad de los estimadores.
1.
Carencia de sesgo. Se dice que un estimador es insesgado si el valor esperado
de su distribución de probabilidad es igual al parámetro. Es decir, si es igual
a Ө la media de los valores Ê calculados en cada una de las muestras aleatorias
posibles del mismo tamaño. Si el estadístico Ê es utilizado como estimador del
parámetro Ө, ese estimador carece de sesgo cuando:
E(Ê) =
Ө
Por
ejemplo, la media X[D] es un estimador insesgado de µ, puesto que se cumple,
tal y como vimos en el capítulo anterior al estudiar la distribución muestral
del estadístico media, que:
E(
X[D]) = µ
En el
caso de la varianza, suelen manejarse habitualmente dos estimadores:
o
bien,
Para
cada uno de ellos, el valor esperado resulta ser:
El
segundo de los estimadores posee la característica de ser un estimador
insesgado de σ2, razón por la que suele emplearse con más frecuencia que el
primero a la hora de estimar el parámetro varianza poblacional.
Cuando
E(Ê) ≠ Ө, decimos que el estimador sesgado tiene un sesgo positivo si E(Ê) >
Ө, o que tiene un sesgo negativo si E(Ê) < Ө. Un estimador sesgado tenderá a
ofrecer sistemáticamente valores que se alejan en un sentido u otro del
parámetro, aunque la muestra sea elegida aleatoriamente.
Consistencia.
Un estimador Ê es consistente si, además de carecer de sesgo, se aproxima cada
vez más al valor del parámetro a medida que aumenta el tamaño de la muestra. Si
el tamaño n se hace indefinidamente grande, los valores de Ê se concentran cada
vez más en torno al valor del parámetro, hasta que con un tamaño
2.
muestral infinito obtenemos una varianza del estimador nula. Por tanto, un
estimador es consistente si cuando n tiende a infinito se cumple :
E(Ê) =
Ө; var(Ê) = 0
La
media es un estimador consistente del parámetro µ, puesto que se verifican las
condiciones anteriores. Es decir:
También
se comprueba que los dos estimadores de la varianza, presentados en el apartado
anterior, resultan ser estimadores consistentes de σ2 .
3.
Eficiencia. La eficiencia de un estimador está vinculada a su varianza
muestral. Así, para un mismo parámetro Ө, se dice que el estimador Ê1 es más
eficiente que el estimador Ê2 si se cumple:
var(Ê1)
< var(Ê2)
Por
tanto, si un estadístico es más eficiente que otro, significa que varía menos
de unas muestras a otras. Se demuestra que la media es un estimador del
parámetro µ más eficiente que la mediana. Del mismo modo, la varianza Sn-12 es
un estimador de σ2 más eficiente que Sn 2 .
4.
Suficiencia. Un estimador es suficiente cuando en su cálculo se emplea toda la
información de la muestra. Por ejemplo, al calcular el estimador [D] del
correspondiente parámetro poblacional, utilizamos la fórmula:
Para
cuyo cálculo se tienen en cuenta todas las puntuaciones Xi. Otro tanto ocurre
con los estimadores Sn-12 y Sn 2 de la varianza. Todos ellos pueden ser
considerados estimadores suficientes de los respectivos parámetros
Comentarios
Publicar un comentario