Displaying similar documents to “Distribuciones mínimo informativas, caso de espacio paramétrico finito.”

Criterio de comparación de experimentos basado en la información generalizada.

M.ª Pilar García-Carrasco Aponte (1987)

Trabajos de Estadística

Similarity:

En este trabajo se estudia el criterio de comparación de experimentos en una medida de información generalizada definida por De Groot (1962). Se define el criterio, se estudian sus propiedades y se obtienen diversas relaciones con los criterios de suficiencia. Al estar el estudio restringido a espacios paramétricos finitos, los resultados de mayor interés corresponden a las diversas relaciones obtenidas con el criterio de Blackwell. Debido al gran número de casos particulares que la...

La información de grado β como criterio de comparación de experimentos.

M.ª Lina Vicente Hernanz (1991)

Trabajos de Estadística

Similarity:

En este trabajo se obtiene una medida de la información proporcionada por un experimento en términos de la Entropía no Aditiva de Grado β. En base a esta medida se propone un criterio bayesiano de comparación de experimentos.

Las medidas de f*-divergencia en el diseño secuencial de experimentos en un contexto bayesiano.

Domingo Morales, Leandro Pardo, Vicente Quesada (1986)

Trabajos de Estadística

Similarity:

Se presenta un método de selección secuencial de un número fijo de experimentos a partir de las medidas de f*-divergencia introducidas por Csiszar (1967). Este trabajo es similar al desarrollado por De Groot (1970) con funciones de incertidumbre; sin embargo, no sólo se considera el problema de espacio paramétrico finito, sino que se estudia además el .

Incertidumbre e información condicionada.

Teófilo Brezmes Brezmes, Pedro Gil Alvarez (1985)

Trabajos de Estadística e Investigación Operativa

Similarity:

En el contexto de información e incertidumbre generalizada, establecido por J. Kampé de Fériet y B. Forte, se axiomatizan las medidas de incertidumbre e información condicionada y se determinan tales medidas bajo la hipótesis de total componibilidad de las mismas.

Incertidumbre (información a priori) condicionada por una experiencia.

Teófilo Brezmes, Pedro Gil Alvarez (1985)

Trabajos de Estadística e Investigación Operativa

Similarity:

Se introduce en este trabajo una axiomatización de las medidas de incertidumbre (información a priori) condicionada por una experiencia que generaliza la dada para la incertidumbre condicionada por un suceso. El concepto de medidas de incertidumbre condicionalmente componibles permite, en determinadas condiciones (componibilidad de tipo M), una construcción de las mismas. Por último se analizan diversos ejemplos (medidas de Shannon, Renyi, etc.), constatándose la igualdad de las construcciones...

Una nota bibliográfica sobre las aplicaciones de la teoría de la información estadística.

M.ª Pilar García-Carrasco Aponte (1986)

Trabajos de Estadística

Similarity:

La presente nota comprende una revisión de las múltiples aplicaciones de la teoría de la información estadística. Estamos convencidos de su gran interés práctico, sólo reconocido en la bibliografía muy especializada, y tratado en el mejor de los casos de manera marginal en los textos usuales de estadística.

Diseño secuencial para discriminar entre modelos, basado en la información cuadrática.

M.ª Pilar García-Carrasco Aponte (1985)

Trabajos de Estadística e Investigación Operativa

Similarity:

La información cuadrática es una buena alternativa a la información de Shannon para todos aquellos problemas que, por su naturaleza, interesa tratarlos con una utilidad no local. El objetivo de este trabajo es dar, para estas situaciones, un método secuencial de construcción de diseños para discriminación entre modelos, basado en la maximización de la información cuadrática. Después de una introducción, donde se resumen los conceptos y resultados principales sobre información...

Análisis de distribuciones a priori bajo cierta información parcial.

José A. Cristóbal Cristóbal, Manuel Salvador Figueras (1989)

Trabajos de Estadística

Similarity:

Se calculan las distribuciones menos informativas cuando se utilizan como medidas de información la entropía útil y la energía informacional de Onicescu, tanto si el espacio de estados Θ es continuo (intervalo de R) como si es discreto y suponiendo que el decisor posee información acerca de algunas características de la distribución a priori (monotonías de la función de densidad, probabilidades de subconjuntos de Θ, monotonías o cotas de la razón de fallo).

Las f*-divergencias como criterio bayesiano de comparación de experimentos.

Julio A. Pardo, M.ª Luisa Menéndez, Leandro Pardo (1992)

Stochastica

Similarity:

In this paper a bayesian criterion for comparing different experiments based on the maximization of the f*-Divergence is proposed and studied. After a general setting of the criterion, we prove that this criterion verifies the main properties that a criterion for comparing experiments must satisfy.

Algunas consideraciones sobre la información generalizada.

M.ª del Pilar Zuluaga Arias (1987)

Trabajos de Estadística

Similarity:

De Groot ha definido una medida de información que generaliza la información de Kullback como medida de discrepancia entre dos distribuciones. En el presente artículo definimos la información modal, como caso particular de la información generalizada, la cual servirá para demostrar que las principales propiedades de la información de Kullback no se verifican para la medida dada por De Groot.