Displaying 21 – 40 of 179

Showing per page

Blended φ -divergences with examples

Václav Kůs (2003)

Kybernetika

Several new examples of divergences emerged in the recent literature called blended divergences. Mostly these examples are constructed by the modification or parametrization of the old well-known phi-divergences. Newly introduced parameter is often called blending parameter. In this paper we present compact theory of blended divergences which provides us with a generally applicable method for finding new classes of divergences containing any two divergences D 0 and D 1 given in advance. Several examples...

Bound on extended f -divergences for a variety of classes

Pietro Cerone, Sever Silvestru Dragomir, Ferdinand Österreicher (2004)

Kybernetika

The concept of f -divergences was introduced by Csiszár in 1963 as measures of the ‘hardness’ of a testing problem depending on a convex real valued function f on the interval [ 0 , ) . The choice of this parameter f can be adjusted so as to match the needs for specific applications. The definition and some of the most basic properties of f -divergences are given and the class of χ α -divergences is presented. Ostrowski’s inequality and a Trapezoid inequality are utilized in order to prove bounds for an extension...

Cantidad de información de Fisher.

M.ª Pilar García-Carrasco Aponte (1981)

Trabajos de Estadística e Investigación Operativa

Este artículo está dedicado al estudio de la cantidad de información de Fisher como tal medida de información, ya que a pesar de su papel fundamental en las teorías de la estimación y tests clásicas, no había sido considerada con detalle en este sentido. Nuestro estudio, enfocado en modo análogo al usual en la información de Shannon y planteado bajo las condiciones de regularidad consideradas por Forgeaud (5), considera las informaciones conjuntas y condicionadas examinando en particular las propiedades...

Caracterización axiomática para la varianza.

María Angeles Gil Alvarez (1983)

Trabajos de Estadística e Investigación Operativa

En el artículo ([7]), M. Martín propone dos caracterizaciones axiomáticas para la varianza sugiriendo la posibilidad de caracterizarla de forma más intuitiva como una medida de incertidumbre que tenga en cuenta el soporte de la probabilidad, además del valor de ésta.El presente trabajo está dedicado a establecer una caracterización en tal sentido, siguiendo la línea de la axiomática de D. K. Faddeyew para la entropía de Shannon y de la axiomática propuesta en ([3]) para la medida definida en ([2]).Queremos...

Contiguity and LAN-property of sequences of Poisson processes

Friedrich Liese, Udo Lorz (1999)

Kybernetika

Using the concept of Hellinger integrals, necessary and sufficient conditions are established for the contiguity of two sequences of distributions of Poisson point processes with an arbitrary state space. The distribution of logarithm of the likelihood ratio is shown to be infinitely divisible. The canonical measure is expressed in terms of the intensity measures. Necessary and sufficient conditions for the LAN-property are formulated in terms of the corresponding intensity measures.

Contrastes de hipótesis basados en la (r,s)-divergencia: aplicación a distribuciones multinomiales y normales multivariantes.

Domingo Morales, Leandro Pardo, Miquel Salicrú, M.ª Luisa Menéndez (1992)

Qüestiió

En este trabajo se obtiene la distribución asintótica de la (r,s)-divergencia, introducida por Sharma y Mittal (1975), entre dos densidades fθ1 y fθ2, cuando θ2 es fijo y θ1 desconocido o bien cuando los dos son desconocidos. Se supone que los parámetros desconocidos se estiman de acuerdo con el principio de máxima verosimilitud. Como caso particular se obtienen las distribuciones asintóticas en el caso de poblaciones multinomiales. Se concluye el trabajo construyendo, sobre la base de los estadísticos...

Convexidad y simetría de la J-divergencia generalizada.

Miquel Salicrú Pagés (1990)

Trabajos de Estadística

En este trabajo se caracteriza la simetría de la J-divergencia generalizada en términos del parámetro y de la función que la determina. Se plantea seguidamente la convexidad y la simetrización en función del parámetro, atendiendo a la forma de la función φ(t) que la determina. Finalmente, se revisa la convexidad en función de las variables atendiendo a la concavidad y convexidad de las funciones φ(t) y 1/φ''(t).

Core functions and core divergences of regular distributions

Zdeněk Fabián, Igor Vajda (2003)

Kybernetika

On bounded or unbounded intervals of the real line, we introduce classes of regular statistical families, called Johnson families because they are obtained using generalized Johnson transforms. We study in a rigorous manner the formerly introduced concept of core function of a distribution from a Johnson family, which is a modification of the well known score function and which in a one-to-one manner represents the distribution. Further, we study Johnson parametrized families obtained by Johnson...

Currently displaying 21 – 40 of 179