Currently displaying 1 – 7 of 7

Showing per page

Order by Relevance | Title | Year of publication

Estimación no paramétrica de la función de distribución.

Juan Manuel Vilar Fernández — 1991

Qüestiió

Sea X una variable aleatoria con función de distribución F(x) y función de densidad f(x) y X1, X2,..., Xn un conjunto de observaciones de la variable que pueden ser dependientes. Se definen dos estimadores no paramétricos generales (uno recursivo y el otro no recursivo) de la función de distribución. Bajo condiciones aceptables se obtiene el sesgo y la varianza y covarianza asintótica de los estimadores definidos. Finalmente...

Consistencia de un estimador no paramétrico, recursivo, de la regresión bajo condiciones generales.

Juan Manuel Vilar Fernández — 1991

Trabajos de Estadística

Se define un estimador no paramétrico, recursivo, de la función de regresión r(x) = E(Y/X = x), que se calcula a partir de un conjunto de n observaciones {(X1,Yi): i = 1, ..., n} del vector aleatorio (X,Y). Bajo la hipótesis de que los datos son idénticamente distribuidos pero no necesariamente independientes, lo que permite utilizar el estimador definido para estimar la función de autorregresión de una serie de tiempo, se obtienen resultados sobre la consistencia...

Estimación no paramétrica de curvas notables para datos dependientes.

Juan Manuel Vilar Fernández — 1989

Trabajos de Estadística

Sea {Xt: t ∈ Z} una serie de tiempo estacionaria, con valores en Rp, verificando la condición de ser α-mixing o L2-estable. A partir de una muestra de tamaño n se define una amplia clase de estimadores no paramétricos de la función de densidad f(x) asociada al proceso, y de la función de autorregresión de orden k: r(y) = E(g(Xt+1)/(Xt-k+1 ... Xt) = y), y ∈ Rk...

Técnicas de validación cruzada en la estimación de la densidad bajo condiciones de dependencia.

Se estudian modificaciones de las técnicas de validación cruzada de Kullback-Leibler y mínimos cuadrados para obtener el parámetro de suavización asociado a un estimador general no paramétrico de la función de densidad, a partir de la muestra, en el supuesto de que los datos verifican alguna condición débil de dependencia. Se demuestra que los parámetros obtenidos por estas dos técnicas son asintóticamente óptimos. Y se realiza un estudio de simulación.

Una clase de estimadores para los parámetros de un proceso AR(1), obtenidos a partir de estimaciones no paramétricas previas.

Wenceslao Gonzalez ManteigaJuan Manuel Vilar Fernández — 1987

Trabajos de Estadística

Sea {Xt}t ∈ Z+ una serie de tiempo estacionaria que sigue el modelo autorregresivo de orden 1: Xt = λ + ρXt-1 + et, siendo {et} variables aleatorias i.i.d. de media cero y varianza σ2; a partir de una muestra del proceso {X1, ..., Xn} se calcula en una primera etapa τ'n, estimador...

Estimación de la función de densidad con observaciones obtenidas en instantes aleatorios.

Sea X(t) un proceso estacionario en tiempo continuo con función de densidad marginal univariante f(x). A partir de un conjunto de n observaciones; X(τ1), X(τ2), ..., X(τn) recogidas en instantes muestrales τi, espaciados irregularmente o aletorios, se estudia la estimación no paramétrica de f(x), utilizando un estimador recursivo tipo núcleo. Asumiendo condiciones débiles de dependencia (α-mixing) se obtiene...

Test de bondad de ajuste del modelo lineal general bajo correlación serial de los errores.

Dado el siguiente modelo de regresión de diseño fijo, con correlación serial en los errores: Yi = m(xi) + εi, donde xi ∈ C, i = 1,..., n, siendo C un conjunto compacto de R, con error aleatorio εi siguiendo una estructura lineal de tipo MA(∞), se propone un nuevo método para contrastar la hipótesis de que la función de regresión siga un modelo lineal, de la forma mθ(-) = A

Page 1

Download Results (CSV)