Data compression in discriminating stochastic processes
El problema de hacer inferencias sobre el cociente de las medias de dos poblaciones normales, conocido como problema de Fieller-Creasy, es de interés particular en las ciencias experimentales que continuamente necesitan hacer comparaciones relativas de diferentes métodos. Desde un punto de vista bayesiano, el problema se reduce a calcular la distribución final de dicho cociente. En este trabajo se determina la distribución final de referencia, esto es, utilizando tan sólo la información proporcionada...
En este trabajo se propone y estudia una medida para la incertidumbre correspondiente a las utilidades, o inquietud. Este concepto recibe por vez primera un tratamiento matemático. En la etapa inicial del trabajo se consideran conjuntos constituidos por resultados elementales, y en una segunda etapa se consideran conjuntos constituidos por pares de resultados.
En esta comunicación, a partir del concepto de energía informacional de Onicescu para variables aleatorias discretas, se da el concepto de energía informacional para cualquier tipo de variables aleatorias como una extensión del anterior basándonos en el análisis no estándar de Robinson (1960). Se estudian sus propiedades y se analiza, en particular, su comportamiento con respecto a la energía informacional de Onicescu en caso de variables aleatorias continuas.
We investigate the sets of joint probability distributions that maximize the average multi-information over a collection of margins. These functionals serve as proxies for maximizing the multi-information of a set of variables or the mutual information of two subsets of variables, at a lower computation and estimation complexity. We describe the maximizers and their relations to the maximizers of the multi-information and the mutual information.
In this paper two recursive algorithms are proposed and compared as a solution of the least mean-squared error linear filtering problem of a wide-sense stationary scalar signal from uncertain observations perturbed by white and coloured additive noises. Considering that the state-space model of the signal is not available and that the variables modelling the uncertainty are not independent, the proposed algorithms are derived by using covariance information. The difference between both algorithms...
Se realizan dos estudios de simulación para comprobar el comportamiento asintóticamente robusto del estimador de mínima g-divergencia para dos elecciones notables de la función g.
Se introducen los funcionales de mínima g-divergencia y sus estimadores asociados. Se prueba la existencia y robustez del funcional y la convergencia del estimador asociado.
Recently, a new concept of entropy called generalized cumulative entropy of order was introduced and studied in the literature. It is related to the lower record values of a sequence of independent and identically distributed random variables and with the concept of reversed relevation transform. In this paper, we provide some further results for the generalized cumulative entropy such as stochastic orders, bounds and characterization results. Moreover, some characterization results are derived...
This paper deals with Bayesian models given by statistical experiments and standard loss functions. Bayes probability of error and Bayes risk are estimated by means of classical and generalized information criteria applicable to the experiment. The accuracy of the estimation is studied. Among the information criteria studied in the paper is the class of posterior power entropies which include the Shannon entropy as special case for the power . It is shown that the most accurate estimate is in this...
Integral functionals based on convex normal integrands are minimized subject to finitely many moment constraints. The integrands are finite on the positive and infinite on the negative numbers, strictly convex but not necessarily differentiable. The minimization is viewed as a primal problem and studied together with a dual one in the framework of convex duality. The effective domain of the value function is described by a conic core, a modification of the earlier concept of convex core. Minimizers...
La Geometría estadística es un método complementario a los desarrollados hasta el momento para la inferencia y evaluación de las relaciones filogenéticas entre entidades emparentadas, y que permite decidir si la estructura filogenética obtenida tiene una configuración de árbol, de estrella o de red.El objetivo de este trabajo consiste en poner de manifiesto que, si bien la geometría estadística puede ayudar a decidir entre grandes topologías, no puede decidir entre tipos específicos de topologías....