Article

PDF
Access to the PDF text
Service d'aide à la décision clinique
Advertising


Free Article !

Journal Français d'Ophtalmologie
Volume 36, n° 8
pages 710-715 (octobre 2013)
Doi : 10.1016/j.jfo.2013.05.008
Received : 24 February 2013 ;  accepted : 17 May 2013
Revues générales

Comprendre la régression logistique
Understanding logistic regression
 

M. El Sanharawi a, b, , c , F. Naudet d, e, f
a Inserm, UMRS 872, équipe 17, 15, rue de l’École-de-Médecine, 75006 Paris, France 
b Centre de recherche des Cordeliers, université Pierre-et-Marie-Curie Paris-VI, UMRS 872, 15, rue de l’École-de-Médecine, 75006 Paris, France 
c Université Paris Descartes, UMRS 872, 15, rue de l’École-de-Médecine, 75006 Paris, France 
d Inserm, U669, maison de Solenn, 97, boulevard de Port-Royal, 75679 Paris cedex 14, France 
e EA- 4712 Behavior and Basal Ganglia unit, université de Rennes 1, campus de Villejean, bâtiment 40L27, 2, rue Henri-le-Guilloux, 35033 Rennes cedex, France 
f Centre d’investigation clinique CIC-P Inserm 0203, université de Rennes 1, hôpital de Pontchaillou, centre hospitalier universitaire de Rennes, pavillon Clemenceau, 2, rue Henri-Le-Guilloux, 35033 Rennes cedex 9, France 

Auteur correspondant.
Résumé

La régression logistique est l’un des modèles d’analyse multivariée les plus couramment utilisés en épidémiologie. Elle permet de mesurer l’association entre la survenue d’un évènement (variable expliquée qualitative) et les facteurs susceptibles de l’influencer (variables explicatives). Le choix des variables explicatives intégrées au modèle de régression logistique est basé sur une connaissance préalable de la physiopathologie de la maladie et sur l’association statistique entre la variable et l’évènement, mesurée par l’odds ratio. Les principales étapes de sa réalisation, les conditions d’applications à vérifier, ainsi que les outils essentiels à son interprétation sont exposés de manière concise. Nous discutons aussi de l’importance du choix des variables à inclure et à conserver dans le modèle de régression afin de ne pas omettre des facteurs de confusion importants. Enfin, un exemple tiré de la littérature permet d’illustrer le propos et de vérifier les acquis du lecteur.

The full text of this article is available in PDF format.
Summary

Logistic regression is one of the most common multivariate analysis models utilized in epidemiology. It allows the measurement of the association between the occurrence of an event (qualitative dependent variable) and factors susceptible to influence it (explicative variables). The choice of explicative variables that should be included in the logistic regression model is based on prior knowledge of the disease physiopathology and the statistical association between the variable and the event, as measured by the odds ratio. The main steps for the procedure, the conditions of application, and the essential tools for its interpretation are discussed concisely. We also discuss the importance of the choice of variables that must be included and retained in the regression model in order to avoid the omission of important confounding factors. Finally, by way of illustration, we provide an example from the literature, which should help the reader test his or her knowledge.

The full text of this article is available in PDF format.

Mots clés : Régression logistique, Analyse multivariée, Ajustement, Odds ratio, Facteur de confusion, Interaction

Keywords : Logistic regression, Multivariate analysis, Adjustment, Odds ratio, Confounding factor, Interaction


Introduction

De nombreux travaux de recherche épidémiologique s’efforcent de connaître et de déterminer les facteurs de risque ou les facteurs protecteurs de telle ou telle maladie, afin de mettre en place des mesures de prévention, de mieux informer les patients et d’assurer une prise en charge et un suivi adaptés. La régression logistique est l’une des analyses statistiques multivariées les plus couramment utilisées en épidémiologie avec la régression linéaire multiple et le modèle de Cox. Sa place en ophtalmologie est de plus en plus importante et de nombreuses études récentes s’appuient sur ce type d’analyse. La connaissance de ce modèle et l’interprétation de ses résultats sont devenues indispensables à tout ophtalmologiste soucieux d’intégrer les dernières données de la littérature scientifique. L’objectif de cet article n’est pas de fournir au lecteur les éléments statistiques lui permettant de réaliser lui-même une régression logistique mais de lui permettre de comprendre l’intérêt de cette approche, les principes de base, et surtout de lui donner les clefs pour la lecture et l’interprétation de ses résultats.

Intérêts de la régression logistique

Comme pour la régression linéaire et le modèle de Cox, le but de la régression logistique est de caractériser les relations entre une variable dépendante (ou variable à expliquer) et une seule (régression logistique simple) ou plusieurs variables prises en compte simultanément (régression logistique multiple). Il s’agit donc d’un modèle permettant de relier la variable dépendante (Y) à des variables explicatives (X1 , X2 , X3 , … Xn ).

À la différence de la régression linéaire (où la variable à expliquer est une variable quantitative) et du modèle de Cox (où la variable à expliquer est une variable censurée), la régression logistique s’applique lorsque la variable à expliquer (Y) est qualitative. Dans la recherche biomédicale et plus particulièrement en ophtalmologie, il est très fréquent de rencontrer de telles variables, le plus souvent de type binaire comme par exemple la présence (ou l’absence) d’une maladie, d’une récidive ou d’une complication. Les variables explicatives (Xi) peuvent être, quant à elles, qualitatives ou quantitatives. Ces variables indépendantes sont susceptibles d’influencer la survenue ou non de la maladie, de la récidive ou de la complication.

Dans le cas d’une variable explicative qualitative, une propriété très intéressante de la régression logistique est qu’elle permet d’estimer un odds ratio (OR) qui fournit une information sur la force et le sens de l’association entre la variable explicative (Xi) et la variable à expliquer (Y). L’OR (ou rapport des cotes), est une mesure de dépendance entre deux variables, il est toujours positif et compris entre 0 et +∞. Lorsqu’il vaut 1, les deux variables sont indépendantes. Au contraire, plus l’OR est proche de 0 ou de +∞, plus les variables sont liées entre elles. Si l’OR n’est pas un résultat aussi intuitif que le risque relatif, il présente l’avantage d’être utilisable quel que soit le design expérimental (cohorte ou cas témoin). Qui plus est, si la maladie étudiée est rare (prévalence inférieure à 5–10 %), l’OR devient une bonne approximation du risque relatif. En pratique, si l’OR est supérieur à 1, on parle de facteur de risque, et si l’OR est inférieur à 1, on parle de facteur protecteur.

Dans le cas où nous souhaitons étudier plusieurs variables explicatives Xi et connaître le « poids » respectif de chacune de ces variables, un ajustement est alors nécessaire. La régression logistique est une méthode permettant de réaliser un tel ajustement. Cet ajustement consiste à individualiser « l’effet propre » de la variable explicative Xi des « effets parasites » induits par d’autres variables influençant aussi la variable à expliquer (Y) (appelées « covariables »). Cela permet ainsi de contrôler l’effet de possibles facteurs de confusion. De plus, l’ajustement permet de diminuer le bruit de fond induit par ces covariables et d’améliorer la précision de l’estimation.

Ainsi, la régression logistique tient compte de l’effet des autres variables Xi intégrées dans le modèle et permet de réaliser un ajustement de l’OR sur des covariables (on parle d’OR ajusté). La régression logistique constitue alors une méthode de choix pour rechercher et déterminer les facteurs de risque ou les facteurs protecteurs d’une maladie, tout en tenant compte des facteurs de confusion. Il faut cependant garder à l’esprit que l’identification d’une liaison entre une variable expliquée (Y) et une ou des variables explicatives (Xi) ne témoigne pas forcément d’un lien de causalité et il convient de garder une certaine prudence dans l’interprétation des résultats.

Définition mathématique du modèle de régression logistique

La pratique de la régression logistique est très proche de celle de la régression linéaire. La régression linéaire permet de caractériser les liens entre une variable à expliquer (Y) quantitative et des variables explicatives (X1 , X2 , X3 , … Xn ) au moyen du modèle présenté par la formule en Figure 1. À l’évidence, ce modèle ne s’applique pas aux variables qualitatives et notamment binaires où Y s’exprime en termes de oui/non. Il est donc nécessaire d’utiliser un modèle adapté permettant de relier les variables explicatives à la variable qualitative (Y) à prédire. L’astuce de la régression logistique consiste non pas à modéliser la variable qualitative Y mais la probabilité que celle-ci se réalise. Le modèle logistique (formule en Figure 2) permet une expression non linéaire, variant de façon monotone entre 0 et 1, de cette probabilité en fonction des variables explicatives (Xi).



Figure 1


Figure 1. 

Modèle de régression linéaire multiple : la variable à expliquer (Y) est exprimée en fonction d’un intercept (ou ordonnée à l’origine) β0 , des variables explicatives (Xi) rattachées à leurs coefficients βi et à un terme de bruit ɛ.

Zoom



Figure 2


Figure 2. 

Modèle de régression logistique multiple : le logit de la probabilité (p ) de la réalisation de la variable à expliquer (Y) est exprimé en fonction d’un intercept (ou ordonnée à l’origine) β0 , des variables explicatives (Xi) rattachées à leurs coefficients βi et à un terme de bruit ɛ.

Zoom

Prenons un exemple où la variable à expliquer Y est la survenue ou non d’une maladie. Cette variable est binaire : présence de la maladie (M+) ou absence de la maladie (M–). Considérons une seule variable explicative (X) (régression logistique simple). Le modèle est présenté par la formule en Figure 3. Nous voyons dans cette formule que l’OR lié à la variable d’exposition (X) correspond à l’exponentielle du coefficient β. Le coefficient β correspond donc au logarithme de l’odds ratio (β=log (OR)) mesurant l’association entre la variable explicative (X) et la variable expliquée (Y), c’est-à-dire la maladie. Dans le cas d’une telle régression logistique simple, la fonction logistique a une forme de sigmoïde (Figure 4).



Figure 3


Figure 3. 

P (M+ ǀ X) : probabilité d’avoir la maladie (M+) si la variable X est prise en compte ; f(X) est la fonction logistique.

Zoom



Figure 4


Figure 4. 

Probabilité de réalisation d’un évènement (p ) en fonction des valeurs prises par une variable (X) variant de (–100 à 100) selon la fonction logistique. La courbe représentant p en fonction de X a une allure sigmoïde et varie de façon monotone entre 0 et 1. La formule 3 avec les paramètres suivants β0 =0,001 et β=0,05 ont été choisis arbitrairement pour tracer cet exemple.

Zoom

Considérons maintenant plusieurs variables explicatives (Xi) (régression logistique multiple). L’écriture du modèle présentée par la formule en Figure 5 est très similaire. À chaque variable explicative, Xi est associé à un coefficient βi et donc un ORi correspondant là-aussi à l’exponentielle de ce coefficient et qui mesure l’association entre la variable Xi et la maladie (Y) en question. Pour chaque variable explicative, ce coefficient est ajusté sur les autres variables explicatives du modèle.



Figure 5


Figure 5. 

P (M+ǀ X1 ... Xn ) : probabilité d’avoir la maladie (M+) si les variables Xi sont prises en compte.

Zoom

La mise en œuvre d’une régression logistique permet d’obtenir les coefficients β (et ainsi les OR) assortis de leur intervalle de confiance (généralement à 95 %), ainsi qu’un test de significativité.

Sélection des variables explicatives à inclure dans le modèle de régression logistique multiple

Le choix des variables explicatives (Xi) n’est pas le fruit du hasard ni le résultat d’un screening fait à l’aveugle de plusieurs centaines de variables. Il est basé sur la connaissance de la physiopathologie de la maladie et les possibles facteurs influençant cette dernière. Ainsi, toutes les variables explicatives étudiées ne seront pas toutes nécessairement incluses dans l’analyse multivariée. Ne seront introduites dans la régression logistique que les variables qui pourraient avoir un lien avec la maladie.

Pour ce faire, une revue approfondie des données de la littérature est, au préalable, indispensable. Le choix des variables est donc fondé sur leur pertinence clinique et sur la connaissance de facteurs de confusion avérés ou supposés. Cette première étape permettra de choisir les variables explicatives (Xi) les plus pertinentes à étudier. La deuxième étape consiste à décrire de manière précise ces variables explicatives, à en vérifier l’exhaustivité (absence de données manquantes) et la qualité (absence de biais de classification). Il est souvent difficile de se faire une idée sur cette étape fondamentale à la vue d’une publication. Ensuite est réalisée une analyse univariée : cette étape consiste donc à estimer l’association entre la maladie (Y) et chaque variable Xi en réalisant une régression logistique simple pour chaque variable Xi (formule en Figure 3). Les OR ainsi calculés sont dits « bruts » ou « non ajustés ». Les variables explicatives qui sont liées de façon suffisamment forte à la variable à expliquer sont alors conservées dans le modèle. D’une manière générale, toutes les variables dont le degré de significativité est inférieur à 0,20 (c’est-à-dire avec une valeur de p <0,20) lors de l’analyse univariée seront incluses dans le modèle initial de régression logistique multiple. Ce seuil de 0,20, et non pas 0,05 comme habituellement utilisé en statistique, permet de prendre en compte des variables qui pourraient être des facteurs de confusion possible ou des facteurs d’interaction. Bien entendu un tel seuil peut sembler arbitraire et peut varier selon les habitudes des différentes équipes (il est parfois de 0,25, parfois de 0,30). Il est important de signaler que seront aussi incluses dans l’analyse des variables connues pour être associées à la maladie, même si l’analyse univariée n’a pas abouti à une valeur de p <0,20. On parle de variables dites « forcées ». Enfin, il est parfois utile d’inclure les facteurs d’appariement lors des études cas-témoins appariées.

Lors de cette démarche, il ne faut pas inclure des variables redondantes (trop liées entre elles) dans l’analyse de régression logistique multiple. Par exemple, prendre l’épaisseur rétinienne totale et l’épaisseur de la couche nucléaire externe comme variables explicatives, alors que ces variables sont très fortement liées. Dans un tel cas, on parle de colinéarité entre ces variables. Ce problème a pour conséquence un modèle de qualité médiocre, voire une impossibilité d’estimation des coefficients. La colinéarité entre les variables doit donc être vérifiée lors de la réalisation d’une régression logistique. Cela suppose d’étudier les liens existant entre les variables explicatives.

Il apparaît donc clairement que le choix des variables à inclure est avant tout basé sur une réflexion clinique (variables connues comme étant associées à la maladie) et prend en compte des arguments statistiques (Figure 6).



Figure 6


Figure 6. 

Diagramme expliquant le processus de sélection des variables explicatives à inclure dans un modèle de régression logistique multiple.

Zoom

Obtention du modèle final

Lorsqu’il s’agit d’ajuster une comparaison sur différentes variables prédéfinies, les variables explicatives Xi sont choisies a priori et aucune procédure de choix n’est nécessaire. En revanche, lorsque le but est le développement d’un modèle explicatif, certaines procédures peuvent être mises en œuvre pour sélectionner les variables à garder dans le modèle final. Ces procédures ont pour but de vérifier le principe de parcimonie, qui en science et en philosophie, consiste à n’utiliser que le minimum de causes élémentaires pour expliquer un phénomène. En d’autres termes, l’objectif est de sélectionner le modèle apportant le maximum d’information sur la variable à expliquer (Y) à partir du plus petit nombre de variables explicatives possible (Xi). Au-delà de l’intérêt épistémologique, cela facilite grandement les estimations du modèle et cela limite les problèmes liés aux données manquantes.

Sur un plan pratique, il n’y a pas de règle unanime concernant la méthode à utiliser. Parmi les méthodes possibles, il est souvent proposé des procédures pas à pas, plus ou moins automatiques. Avec ces méthodes, le choix du modèle final se fait de manière progressive. La procédure en pas à pas ascendante ou forward selection consiste à inclure progressivement les variables explicatives (Xi) à un modèle minimaliste en laissant de côté celles qui n’apportent pas suffisamment d’information au modèle. La procédure en pas à pas descendante ou backward elimination est la plus couramment utilisée. Elle consiste à inclure toutes les variables sélectionnées au préalable et à retirer progressivement celles qui n’apportent pas suffisamment d’information au modèle. Avec ces méthodes, on sélectionne le modèle en laissant de côté les variables qui ne sont pas significatives (là aussi le niveau de significativité n’est pas forcément fixé à 0,05 et peut être fixé à 0,10, 0,15, ou 0,20 par exemple) ou bien en utilisant un indice de parcimonie comme le critère d’Akaike (Akaike Information Criteria).

Une fois le modèle final obtenu, on vérifie s’il existe des interactions entre les variables explicatives (Xi) du modèle. L’existence d’une interaction entre deux variables signifie que l’effet d’une variable est différent en fonction de l’autre variable. Par exemple, l’effet de la pression intraoculaire ne peut être interprété qu’en fonction de l’épaisseur cornéenne de l’œil. Il faut souligner que ces étapes de sélection d’un modèle demandent beaucoup de sens critique et de sens clinique, et ne doivent surtout pas être basées seulement sur le raisonnement statistique. En effet, certaines variables jugées indispensables peuvent être forcées dans le modèle.

Enfin, il peut être parfois proposé plusieurs modèles explicatifs en intégrant certaines variables ou non. Cela peut se faire, par exemple, quand leur impact est controversé ou encore pour simplifier le modèle. Il peut s’agir d’un argument scientifique supplémentaire montrant la robustesse de l’association des variables d’intérêt avec la variable à expliquer Y au travers de plusieurs modèles.

Conditions d’application de la régression logistique, adéquation du ou des modèle(s)

Comme pour les tests très basiques (par exemple le test t de Student), certaines conditions d’application doivent être vérifiées lorsque l’on réalise une régression logistique. Outre la question de la colinéarité entre les variables explicatives, il convient de vérifier la robustesse du modèle en recherchant les observations « sensibles » à l’origine d’importantes variations dans l’estimation des coefficients. Cela peut être réalisé à partir de méthodes graphiques. Si de telles observations sont retrouvées, on considère que les résultats sont peu robustes et la plus grande précaution doit être prise dans l’interprétation des résultats.

Il est enfin important d’avoir un nombre suffisant d’évènements pour la variable dépendante (nombre suffisant de malades par exemple) par rapport au nombre de variables explicatives (Xi). La règle générale est d’avoir au moins dix fois plus d’évènements que de variables explicatives incluses dans le modèle de régression logistique. Cependant, très souvent, la vérification de ces conditions n’est pas rapportée dans les publications et la validité du modèle repose sur la confiance que l’on peut avoir dans les auteurs et les reviewers .

Lorsque le but est de construire un modèle explicatif, et pas seulement de réaliser un simple ajustement, la vérification de l’adéquation du modèle est une étape importante. Elle consiste à comparer les données que le modèle prédit aux données réelles. En effet, bien que les variables explicatives (Xi) soient significativement associées à la variable dépendante (Y), il se peut que dans une grande majorité des cas, le modèle ne prédise pas suffisamment bien cette variable. Prenons un exemple simple : plusieurs études ont montré de façon significative que le variant Y402H du gène codant le facteur H du complément est un facteur de risque de dégénérescence maculaire liée à l’âge (DMLA). Pour autant, la connaissance de ce polymorphisme génétique pour un patient donné ne permet pas de prédire de manière satisfaisante son risque de développer la maladie. Il en est de même pour les modèles plus complexes.

On peut vérifier cette adéquation à l’aide de tests d’adéquation ou d’un calcul du R2, qui représente le pourcentage expliqué de variation de la variable dépendante (Y) par les variables explicatives (Xi) incluses dans le modèle. On peut aussi, lorsque l’on dispose d’un grand nombre d’observations, randomiser l’effectif en deux groupes : l’un servira à développer et générer le modèle et l’autre groupe servira à étudier ses qualités prédictives (sensibilité, spécificité, valeur prédictive positive et valeur prédictive négative). On constitue ces deux groupes car si l’on étudie les qualités prédictives sur les mêmes données que celles ayant servi à son développement, l’adéquation est artificiellement trop bonne. La validation doit donc se faire sur un échantillon différent. On parle de validation croisée. Dans la situation où on ne dispose pas d’un échantillon suffisamment grand dans la première série pour pouvoir randomiser les effectifs en deux groupes, on réalisera une deuxième série d’observation recueillie prospectivement et indépendamment de la première que l’on appellera « série de validation ». Cette série permettra de confirmer la pertinence et la robustesse du modèle.

Exemple pratique

L’exemple suivant est tiré d’un article publié dans le journal américain Ophthalmology dont le titre est : Baseline risk factors that predict the development of open-angle glaucoma in a population : the Los Angeles Latino Eye Study .

Cette étude avait pour but de déterminer les facteurs de risque de survenue de glaucome à angle ouvert. La population étudiée était constituée de 3772 patients. Quatre-vingt-sept d’entre eux ont développé un glaucome pendant la période de l’étude (quatre ans). La variable dépendante est ici la survenue d’un glaucome. Il y a donc eu 87 évènements. Les auteurs ont d’abord analysé les facteurs de risque supposés de la maladie grâce à une analyse univariée : « baseline risk factors were initially analyzed univariately ».

Lors de l’analyse univariée, les principales variables qui étaient significativement associées à la survenue d’un glaucome étaient les suivantes : un âge avancé, une pression artérielle systolique élevée, une pression artérielle moyenne élevée, l’existence d’une myopie, une longueur axiale importante, un rapport tour de taille–hanche élevé, une pression intraoculaire élevée, la présence d’une cataracte nucléaire. Les OR obtenus pour chaque variable sont des OR dits bruts ou non ajustés.

Les auteurs ont ensuite réalisé une analyse multivariée par régression logistique en utilisant une procédure en pas à pas ascendante ou forward selection  : « multivariable logistic regression analyses with forward stepwise selection were used to identify baseline risk factors that predict the development of open-angle glaucoma ». Les résultats de l’analyse multivariée sont présentés dans le Tableau 1.

Nous voyons d’après les résultats du tableau que les seules variables qui ont été retenues sont : l’âge, l’absence d’assurance pour la vue, le rapport tour de taille–hanche, la pression intraoculaire, la longueur axiale et l’épaisseur cornéenne. Les OR obtenus sont dits « ajustés », car prenant en compte toutes les variables en même temps.

Lorsque nous analysons les résultats présentés dans les annexes de l’article (disponibles sur le site du journal Ophthalmology ), nous remarquons que parmi ces variables deux d’entre elles n’étaient pas associées significativement à la maladie lors de l’analyse univariée. Il s’agit de l’absence d’assurance pour la vue (OR brut (IC à 95 %) : 1,16 (0,90–1,50) ; p =0,25) et de l’épaisseur cornéenne (OR brut (IC à 95 %) : 1,18 (0,76–1,84) ; p =0,46). Ces deux variables ont cependant été incluses dans la régression logistique multiple et sont même devenues significatives. Ceci est un exemple de variables connues pour être associées à la survenue de glaucome à angle ouvert, mais qui dans cette étude ne l’étaient pas lors de l’analyse univariée. Elles ont cependant été introduites dans l’analyse multivariée : il s’agit donc de variables « forcées » dans le modèle.

Les auteurs ont ensuite analysé les possibles interactions entre les six variables indépendantes trouvées dans le modèle de régression logistique et ils ont vérifié si les termes d’interaction inclus dans le modèle final sont significatifs ou non. Voici le texte exact tiré de la partie « matériels et méthodes » de l’article : « Possible interactions between independent risk factors were tested by including proper cross-product terms in the regression models, and likelihood ratio tests comparing models with and without the interaction term were used to estimate the significance of the interaction ».

Conclusion

La régression logistique est une méthode d’analyse multivariée puissante permettant d’obtenir une quantification de l’association entre une maladie étudiée et chacun des facteurs l’influençant, tout en tenant compte de l’effet simultané des autres facteurs. Elle permet ainsi de contrôler de possibles biais de confusion. Son emploi est rendu aisé par l’utilisation de logiciels statistiques.

Déclaration d’intérêts

Les auteurs déclarent ne pas avoir de conflit d’intérêt en relation avec cet article.


Remerciements

Maxime Huard et Brigitte Nedelec pour leur relecture attentive.

Pour en savoir plus

Hosmer DW, Lemeshow S. Applied logistic regression. 2nd ed. New-York: Editions Wiley; 2000, 392 p.

Bagley SC, White H, Golomb BA. Logistic regression in the medical literature: standards for use and reporting, with particular attention to one medical domain. J Clin Epidemiol 2001;54:979–85.

Ottenbacher KJ, Ottenbacher HR, Tooth L, Ostir GV. A review of two journals found that articles using multivariable logistic regression frequently did not report commonly recommended assumptions. J Clin Epidemiol 2004;57:1147–52.

LaValley MP. Logistic regression. Circulation 2008;117:2395–9.

Jiang X, Varma R, Wu S, Torres M, Azen SP, Francis BA, Chopra V, Nguyen BB, Los Angeles Latino Eye Study Group. Baseline risk factors that predict the development of open-angle glaucoma in a population: the Los Angeles Latino Eye Study. Ophthalmology 2012;119:2245–53.

Falissard B. Comprendre et utiliser les statistiques dans les sciences de la vie. 3rd ed. Paris: Masson; 2005, 380 p.



© 2013  Elsevier Masson SAS. All Rights Reserved.
EM-CONSULTE.COM is registrered at the CNIL, déclaration n° 1286925.
As per the Law relating to information storage and personal integrity, you have the right to oppose (art 26 of that law), access (art 34 of that law) and rectify (art 36 of that law) your personal data. You may thus request that your data, should it be inaccurate, incomplete, unclear, outdated, not be used or stored, be corrected, clarified, updated or deleted.
Personal information regarding our website's visitors, including their identity, is confidential.
The owners of this website hereby guarantee to respect the legal confidentiality conditions, applicable in France, and not to disclose this data to third parties.
Close
Article Outline