The search session has expired. Please query the service again.
Displaying 81 –
100 of
180
En este trabajo se obtiene una medida de la información proporcionada por un experimento en términos de la Entropía no Aditiva de Grado β. En base a esta medida se propone un criterio bayesiano de comparación de experimentos.
In this paper the Kagan divergence measure is extended in order to establish a measure of the information that a random sample gives about a Dirichlet process as a whole. After studying some of its properties, the expression obtained in sampling from the step n to the step n+1 is given, and its Bayesian properties are studied. We finish proving the good behaviour of a stopping rule defined on the basis of the information obtained in sampling when passing from a step to the following.
In this paper a bayesian criterion for comparing different experiments based on the maximization of the f*-Divergence is proposed and studied. After a general setting of the criterion, we prove that this criterion verifies the main properties that a criterion for comparing experiments must satisfy.
The paper investigates the relation between maximum likelihood and minimum -divergence estimates of unknown parameters and studies the asymptotic behaviour of the likelihood ratio maximum. Observations are assumed to be done in the continuous time.
The paper investigates the relation between maximum likelihood and minimum -divergence estimates of unknown parameters and studies the asymptotic behaviour of the likelihood ratio maximum. Observations are assumed to be done in the discrete time.
The aim of this paper is to define global measures of uncertainty in the framework of Dempster-Shafer's Theory of Evidence. Starting from the concepts of entropy and specificity introduced by Yager, two measures are considered; the lower entropy and the upper entropy.
En este trabajo se presenta la familia de medidas de incertidumbre asociadas a J-divergencias, que resultan de la distancia entre una distribución y la distribución en la que todos los procesos son equiprobables. Se estudian propiedades teóricas de la familia atendiendo a la pérdida de incertidumbre, a la concavidad y a la condición de medida decisiva. Finalmente se compara a nivel muestral la medida de incertidumbre definida por la función φ(t) = -t log t con las medidas de entropía comúnmente...
En este trabajo se realiza un estudio de Medidas de Nitidez para conjuntos difusos. Se comienza dando los conceptos de Medida Puntual de Nitidez o Auto-nitidez puntual y Medida de Nitidez para conjunto difuso, pasando a continuación a dar dos teoremas de construcción de Medidas de Nitidez y uno de caracterización para aquellas medidas que sean valoraciones en el retículo Ln(X).
En este trabajo se acomete una generalización de la definición de Shannon-Lindley para la información esperada proporcionada por un experimento que presupone la existencia de estratificación en el espacio muestral. Ante la evidente dificultad de cálculo de la información esperada en la situación planteada -dificultad que se deriva de la existencia de un vector como parámetro de interés y de un resultado muestral que es un conjunto de muestras obtenidas de poblaciones distintas- en este artículo...
Tras plantear las métricas diferenciales asociadas a M-divergencias para funciones de densidad de probabilidad pertenecientes a la misma familia de funciones paramétricas, consideramos para las funciones Φα(t) = tα la relación entre las matrices que definen las métricas y las matrices α-informativas.Obtenemos, en segundo lugar, las funciones Φ(t) que determinan M-divergencias invariantes, a nivel diferencial, frente a cambios no singulares de parámetros y variables aleatorias.Observamos, finalmente,...
Disparities of discrete distributions are introduced as a natural and useful extension of the information-theoretic divergences. The minimum disparity point estimators are studied in regular discrete models with i.i.d. observations and their asymptotic efficiency of the first order, in the sense of Rao, is proved. These estimators are applied to continuous models with i.i.d. observations when the observation space is quantized by fixed points, or at random, by the sample quantiles of fixed orders....
Point estimators based on minimization of information-theoretic divergences between empirical and hypothetical distribution induce a problem when working with continuous families which are measure-theoretically orthogonal with the family of empirical distributions. In this case, the -divergence is always equal to its upper bound, and the minimum -divergence estimates are trivial. Broniatowski and Vajda [3] proposed several modifications of the minimum divergence rule to provide a solution to the...
Currently displaying 81 –
100 of
180