Page 1

Displaying 1 – 16 of 16

Showing per page

Medidas de entropía en la teoría de la evidencia.

María Teresa Lamata Jiménez, Serafín Moral Callejón (1988)

Trabajos de Estadística

The aim of this paper is to define global measures of uncertainty in the framework of Dempster-Shafer's Theory of Evidence. Starting from the concepts of entropy and specificity introduced by Yager, two measures are considered; the lower entropy and the upper entropy.

Medidas de incertidumbre asociadas a J-divergencias.

Miquel Salicrú Pages, Miquel Calvo Llorca (1988)

Trabajos de Estadística

En este trabajo se presenta la familia de medidas de incertidumbre asociadas a J-divergencias, que resultan de la distancia entre una distribución y la distribución en la que todos los procesos son equiprobables. Se estudian propiedades teóricas de la familia atendiendo a la pérdida de incertidumbre, a la concavidad y a la condición de medida decisiva. Finalmente se compara a nivel muestral la medida de incertidumbre definida por la función φ(t) = -t log t con las medidas de entropía comúnmente...

Medidas de nitidez para conjuntos difusos.

Leandro Pardo Llorente (1983)

Trabajos de Estadística e Investigación Operativa

En este trabajo se realiza un estudio de Medidas de Nitidez para conjuntos difusos. Se comienza dando los conceptos de Medida Puntual de Nitidez o Auto-nitidez puntual y Medida de Nitidez para conjunto difuso, pasando a continuación a dar dos teoremas de construcción de Medidas de Nitidez y uno de caracterización para aquellas medidas que sean valoraciones en el retículo Ln(X).

Métodos de obtención de la información esperada global.

Ernesto Veres Ferrer (1983)

Trabajos de Estadística e Investigación Operativa

En este trabajo se acomete una generalización de la definición de Shannon-Lindley para la información esperada proporcionada por un experimento que presupone la existencia de estratificación en el espacio muestral. Ante la evidente dificultad de cálculo de la información esperada en la situación planteada -dificultad que se deriva de la existencia de un vector como parámetro de interés y de un resultado muestral que es un conjunto de muestras obtenidas de poblaciones distintas- en este artículo...

Métricas riemannianas asociadas a M-divergencias.

Miquel Salicrú Pagès, Mercè Argemí Relat (1991)

Trabajos de Estadística

Tras plantear las métricas diferenciales asociadas a M-divergencias para funciones de densidad de probabilidad pertenecientes a la misma familia de funciones paramétricas, consideramos para las funciones Φα(t) = tα la relación entre las matrices que definen las métricas y las matrices α-informativas.Obtenemos, en segundo lugar, las funciones Φ(t) que determinan M-divergencias invariantes, a nivel diferencial, frente a cambios no singulares de parámetros y variables aleatorias.Observamos, finalmente,...

Minimum disparity estimators for discrete and continuous models

María Luisa Menéndez, Domingo Morales, Leandro Pardo, Igor Vajda (2001)

Applications of Mathematics

Disparities of discrete distributions are introduced as a natural and useful extension of the information-theoretic divergences. The minimum disparity point estimators are studied in regular discrete models with i.i.d. observations and their asymptotic efficiency of the first order, in the sense of Rao, is proved. These estimators are applied to continuous models with i.i.d. observations when the observation space is quantized by fixed points, or at random, by the sample quantiles of fixed orders....

Modified power divergence estimators in normal models – simulation and comparative study

Iva Frýdlová, Igor Vajda, Václav Kůs (2012)

Kybernetika

Point estimators based on minimization of information-theoretic divergences between empirical and hypothetical distribution induce a problem when working with continuous families which are measure-theoretically orthogonal with the family of empirical distributions. In this case, the φ -divergence is always equal to its upper bound, and the minimum φ -divergence estimates are trivial. Broniatowski and Vajda [3] proposed several modifications of the minimum divergence rule to provide a solution to the...

Multi-variate correlation and mixtures of product measures

Tim Austin (2020)

Kybernetika

Total correlation (‘TC’) and dual total correlation (‘DTC’) are two classical ways to quantify the correlation among an n -tuple of random variables. They both reduce to mutual information when n = 2 . The first part of this paper sets up the theory of TC and DTC for general random variables, not necessarily finite-valued. This generality has not been exposed in the literature before. The second part considers the structural implications when a joint distribution μ has small TC or DTC. If TC ( μ ) = o ( n ) , then μ is...

Currently displaying 1 – 16 of 16

Page 1