Displaying 81 – 100 of 179

Showing per page

La medida de divergencia de Kagan en el muestreo secuencial con procesos de Dirichlet.

Domingo Morales González (1986)

Trabajos de Estadística

In this paper the Kagan divergence measure is extended in order to establish a measure of the information that a random sample gives about a Dirichlet process as a whole. After studying some of its properties, the expression obtained in sampling from the step n to the step n+1 is given, and its Bayesian properties are studied. We finish proving the good behaviour of a stopping rule defined on the basis of the information obtained in sampling when passing from a step to the following.

Las f*-divergencias como criterio bayesiano de comparación de experimentos.

Julio A. Pardo, M.ª Luisa Menéndez, Leandro Pardo (1992)

Stochastica

In this paper a bayesian criterion for comparing different experiments based on the maximization of the f*-Divergence is proposed and studied. After a general setting of the criterion, we prove that this criterion verifies the main properties that a criterion for comparing experiments must satisfy.

Medidas de entropía en la teoría de la evidencia.

María Teresa Lamata Jiménez, Serafín Moral Callejón (1988)

Trabajos de Estadística

The aim of this paper is to define global measures of uncertainty in the framework of Dempster-Shafer's Theory of Evidence. Starting from the concepts of entropy and specificity introduced by Yager, two measures are considered; the lower entropy and the upper entropy.

Medidas de incertidumbre asociadas a J-divergencias.

Miquel Salicrú Pages, Miquel Calvo Llorca (1988)

Trabajos de Estadística

En este trabajo se presenta la familia de medidas de incertidumbre asociadas a J-divergencias, que resultan de la distancia entre una distribución y la distribución en la que todos los procesos son equiprobables. Se estudian propiedades teóricas de la familia atendiendo a la pérdida de incertidumbre, a la concavidad y a la condición de medida decisiva. Finalmente se compara a nivel muestral la medida de incertidumbre definida por la función φ(t) = -t log t con las medidas de entropía comúnmente...

Medidas de nitidez para conjuntos difusos.

Leandro Pardo Llorente (1983)

Trabajos de Estadística e Investigación Operativa

En este trabajo se realiza un estudio de Medidas de Nitidez para conjuntos difusos. Se comienza dando los conceptos de Medida Puntual de Nitidez o Auto-nitidez puntual y Medida de Nitidez para conjunto difuso, pasando a continuación a dar dos teoremas de construcción de Medidas de Nitidez y uno de caracterización para aquellas medidas que sean valoraciones en el retículo Ln(X).

Métodos de obtención de la información esperada global.

Ernesto Veres Ferrer (1983)

Trabajos de Estadística e Investigación Operativa

En este trabajo se acomete una generalización de la definición de Shannon-Lindley para la información esperada proporcionada por un experimento que presupone la existencia de estratificación en el espacio muestral. Ante la evidente dificultad de cálculo de la información esperada en la situación planteada -dificultad que se deriva de la existencia de un vector como parámetro de interés y de un resultado muestral que es un conjunto de muestras obtenidas de poblaciones distintas- en este artículo...

Métricas riemannianas asociadas a M-divergencias.

Miquel Salicrú Pagès, Mercè Argemí Relat (1991)

Trabajos de Estadística

Tras plantear las métricas diferenciales asociadas a M-divergencias para funciones de densidad de probabilidad pertenecientes a la misma familia de funciones paramétricas, consideramos para las funciones Φα(t) = tα la relación entre las matrices que definen las métricas y las matrices α-informativas.Obtenemos, en segundo lugar, las funciones Φ(t) que determinan M-divergencias invariantes, a nivel diferencial, frente a cambios no singulares de parámetros y variables aleatorias.Observamos, finalmente,...

Minimum disparity estimators for discrete and continuous models

María Luisa Menéndez, Domingo Morales, Leandro Pardo, Igor Vajda (2001)

Applications of Mathematics

Disparities of discrete distributions are introduced as a natural and useful extension of the information-theoretic divergences. The minimum disparity point estimators are studied in regular discrete models with i.i.d. observations and their asymptotic efficiency of the first order, in the sense of Rao, is proved. These estimators are applied to continuous models with i.i.d. observations when the observation space is quantized by fixed points, or at random, by the sample quantiles of fixed orders....

Modified power divergence estimators in normal models – simulation and comparative study

Iva Frýdlová, Igor Vajda, Václav Kůs (2012)

Kybernetika

Point estimators based on minimization of information-theoretic divergences between empirical and hypothetical distribution induce a problem when working with continuous families which are measure-theoretically orthogonal with the family of empirical distributions. In this case, the φ -divergence is always equal to its upper bound, and the minimum φ -divergence estimates are trivial. Broniatowski and Vajda [3] proposed several modifications of the minimum divergence rule to provide a solution to the...

Currently displaying 81 – 100 of 179