Displaying similar documents to “Métodos de obtención de la información esperada global.”

La información de grado β como criterio de comparación de experimentos.

M.ª Lina Vicente Hernanz (1991)

Trabajos de Estadística

Similarity:

En este trabajo se obtiene una medida de la información proporcionada por un experimento en términos de la Entropía no Aditiva de Grado β. En base a esta medida se propone un criterio bayesiano de comparación de experimentos.

Diseño secuencial para discriminar entre modelos, basado en la información cuadrática.

M.ª Pilar García-Carrasco Aponte (1985)

Trabajos de Estadística e Investigación Operativa

Similarity:

La información cuadrática es una buena alternativa a la información de Shannon para todos aquellos problemas que, por su naturaleza, interesa tratarlos con una utilidad no local. El objetivo de este trabajo es dar, para estas situaciones, un método secuencial de construcción de diseños para discriminación entre modelos, basado en la maximización de la información cuadrática. Después de una introducción, donde se resumen los conceptos y resultados principales sobre información...

Las f*-divergencias como criterio bayesiano de comparación de experimentos.

Julio A. Pardo, M.ª Luisa Menéndez, Leandro Pardo (1992)

Stochastica

Similarity:

In this paper a bayesian criterion for comparing different experiments based on the maximization of the f*-Divergence is proposed and studied. After a general setting of the criterion, we prove that this criterion verifies the main properties that a criterion for comparing experiments must satisfy.

Cantidad de información de Fisher.

M.ª Pilar García-Carrasco Aponte (1981)

Trabajos de Estadística e Investigación Operativa

Similarity:

Este artículo está dedicado al estudio de la cantidad de información de Fisher como tal medida de información, ya que a pesar de su papel fundamental en las teorías de la estimación y tests clásicas, no había sido considerada con detalle en este sentido. Nuestro estudio, enfocado en modo análogo al usual en la información de Shannon y planteado bajo las condiciones de regularidad consideradas por Forgeaud (5), considera las informaciones conjuntas y condicionadas examinando en particular...

Sobre el tamaño de muestra para experimentos aleatorios con imprecisión difusa.

M.ª Angeles Gil Alvarez, Pedro Gil Alvarez (1988)

Trabajos de Estadística

Similarity:

Statistical Inference deals with the drawing of conclusions about a random experiment on the basis of the information contained in a sample from it. A random experiment can be defined by means of the set of its possible outcomes (sample space) and the ability of observation of the experimenter. It is usually assumed that this ability allows the experimenter to describe the observable events as subsets of the sample space. In this paper, we will consider that the experimenter can only...

Las medidas de f*-divergencia en el diseño secuencial de experimentos en un contexto bayesiano.

Domingo Morales, Leandro Pardo, Vicente Quesada (1986)

Trabajos de Estadística

Similarity:

Se presenta un método de selección secuencial de un número fijo de experimentos a partir de las medidas de f*-divergencia introducidas por Csiszar (1967). Este trabajo es similar al desarrollado por De Groot (1970) con funciones de incertidumbre; sin embargo, no sólo se considera el problema de espacio paramétrico finito, sino que se estudia además el .

Nuevas medidas de información paramétricas reales basadas en la matriz de Fisher.

Agustín Turrero Nogués (1989)

Trabajos de Estadística

Similarity:

Se proponen en este trabajo nuevos funcionales reales de la matriz de información de Fisher como medidas de información paramétricas. Se analizan las propiedades de dichas medidas. Se presenta un método sencillo, basado en la matriz de Fisher, para obtener medidas de información paramétricas reales con la propiedad de invariancia bajo transformaciones biyectivas del espacio paramétrico.

Distribuciones mínimo informativas, caso de espacio paramétrico finito.

M.ª Pilar García Carrasco (1986)

Qüestiió

Similarity:

Este trabajo estudia las distribuciones a priori de mínima información, para un espacio paramétrico finito, y una función de información generalizada. Concretamente, se generalizan la definición de distribución de referencia y el principio de maximización de la entropía. Se estudia la extensión al caso de transformaciones del parámetro. Los resultados fundamentales obtenidos son: la coincidencia de ambos métodos para las funciones incertidumbre decisivas y continuas, y la independencia...