A Note on the Multiple Indicator-Multiple Cause Model with Sevweral Latent Variables
Dans cet article, nous présentons une démarche d'analyse statistique d'un questionnaire appliquée à une enquête sur le racisme. La méthodologie suivie est celle de l'ana lyse des données structurées, inspirée des comparaisons spécifiques en analyse de variance, et appliquée à des données géométriques (nuage euclidien). La mise en œuvre est réalisée grâce au langage d'interrogation de données (LID) implanté dans le logiciel EyeLID.
Many data sets analyzed in human and social sciences have a multilevel or hierarchical structure. By hierarchy we mean that units of a certain level (also referred micro units) are grouped into, or nested within, higher level (or macro) units. In these cases, the units within a cluster tend to be more different than units from other clusters, i.e., they are correlated. Thus, unlike in the classical setting where there exists a single source of variation between observational units, the heterogeneity...
Correspondence analysis followed by clustering of both rows and columns of a data matrix is proposed as an approach to two-way clustering. The novelty of this contribution consists of: i) proposing a simple method for the selecting of the number of axes; ii) visualizing the data matrix as is done in micro-array analysis; iii) enhancing this representation by emphasizing those variables and those individuals which are 'well represented' in the subspace of the chosen axes. The approach is applied...
The motivation for this paper arises out of the authors experiences in modelling real decision makers where the decisions show not only a continuous response to a continuously changing environment but also sudden or discontinuous changes. The theoretical basis involves a parametric characterisation of the environment, a decision makers perception of it in terms of a twice differentiable Distribution Function and a bounded Loss Function. Under a specified minimizing dynamic, the resultant Expected...
On montre comment les outils classiquement utilisés pour parler de concentration d'une mesure par rapport à une autre, considérée comme référence, permettent d'introduire la notion de distorsion entre deux mesures, dans laquelle ces dernières jouent des rôles symétriques. Ceci permet de résoudre divers problèmes posés par l'étude des inégalités : évolutions paradoxales de deux sous-populations complémentaires, évaluation de la contribution de chaque modalité à la distorsion ou à son évolution.
Cet article porte sur les indicateurs qui permettent de comparer les inégalités de proportions entre deux catégories. Après avoir précisé les propriétés qui caractérisent la définition d'indices d'inégalité entre deux proportions, il analyse celles qu'il est souhaitable de leur appliquer, notamment les propriétés de cohérence ou d'homogénéité dont il montre l'incompatibilité. Il examine différents modes de construction d'indices d'inégalité : à partir de mesures, de distances, de caractéristiques...
Le modèle de Rasch, ou modèle logistique de réponse à l'item à un paramètre, constitue une avancée méthodologique importante, mais l'étude de l'adéquation de données empiriques à ce modèle ne va pas sans problème. Après une brève présentation du modèle de Rasch, l'article discute certains problèmes généraux rencontrés dans les études d'adéquation. Vingt-quatre tests d'adéquation, graphiques et statistiques sont ensuite présentés et évalués. La nécessité d'employer plusieurs méthodes d'évaluation...
L'auteur propose une nouvelle méthode d'exploitation des tests sociométriques de Moreno par ajustement des résultats observés à des modèles de choix aléatoires (tests dichotomiques à expansivité libre). Alors que le modèle aléatoire de Bronfenbrenner s'inscrivait dans un raisonnement destiné à montrer que l'homme ne choisit pas au hasard, l'auteur montre que si on tient compte du caractère dyadique des attractions et de l'hétérogénéité des groupes, on peut représenter les choix par des modèles stochastiques...
In the framework of a stochastic optimization problem, it is assumed that the stochastic characteristics of optimized system are estimated from randomly right-censored data. Such a case is frequently encountered in time-to-event or lifetime studies. The analysis of precision of such a solution is based on corresponding theoretical properties of estimated stochastic characteristics. The main concern is to show consistency of optimal solution even in the random censoring case. Behavior of solutions...
Stochastic optimization problem is, as a rule, formulated in terms of expected cost function. However, the criterion based on averaging does not take in account possible variability of involved random variables. That is why the criterion considered in the present contribution uses selected quantiles. Moreover, it is assumed that the stochastic characteristics of optimized system are estimated from the data, in a non-parametric setting, and that the data may be randomly right-censored. Therefore,...
Four formulas of the Menzerath–Altmann law are tested from the point of view of their applicability and suitability. The accuracy of related approximations of measured data is examined by the least square method at first. Then the accuracy of calculated parameters in the formulas under consideration is compared statistically. The influence of neglecting parameter is investigated as well. Finally, the obtained results are discussed by means of an illustrative example from quantitative linguistics....
Early studies of the novel swine-origin 2009 influenza A (H1N1) epidemic indicate clinical attack rates in children much higher than in adults. Non-medical interventions such as school closings are constrained by their large socio-economic costs. Here we develop a mathematical model to ascertain the roles of pre-symptomatic influenza transmission as well as symptoms surveillance of children to assess the utility of school closures. Our model analysis...