Loi normale

Infos
Distribution_Statistiques| name = Distribution gaussienne| type =density| pdf_image =DensitéLa courbe verte représente la fonction φ| cdf_image =Fonction de masse pour les distributions correspondantes| parameters =\mu moyenne (nombre réel)\sigma^2>0 variance (nombre réel)| support =x \in\, ]-\infty;+\infty0, \, 10, \, 1. Cette approximation est performante pour |x| 0. On définit la variable aléatoire X = \sigma\, T + \mu, dont on note \ F la fonction de répartition. On a \m
Loi normale

Distribution_Statistiques| name = Distribution gaussienne| type =density| pdf_image =DensitéLa courbe verte représente la fonction φ| cdf_image =Fonction de masse pour les distributions correspondantes| parameters =\mu moyenne (nombre réel)\sigma^2>0 variance (nombre réel)| support =x \in\, ]-\infty;+\infty0, \, 10, \, 1. Cette approximation est performante pour |x| 0. On définit la variable aléatoire X = \sigma\, T + \mu, dont on note \ F la fonction de répartition. On a \mathrm(X) = \sigma\, \mathrm(T) + \mu = \mu et \mathrm(X) = \sigma^2\, \mathrm(T) = \sigma^2 puisque \ \mathrm(T) = 0 et \ \mathrm(T) = 1. Cherchons la loi de \ X : pour tout x \in \R, :F(x) = P(X \leq x) = P(\sigma\, T + \mu \leq x) = P\left(T \leq \fracx - \mu\sigma\right) = \Phi\left(\fracx - \mu\sigma\right), :puisque la fonction de répartition de \ T est \ \Phi. Ainsi, \ F est continûment (et même indéfiniment) dérivable : \ X suit une loi à densité, et la dérivée \ f de \ F est une densité de probabilité de cette variable aléatoire ; pour tout x \in \R, : f(x) = F'(x) = \frac\sigma\, \Phi' \left(\fracx - \mu\sigma\right) = \frac\sigma\, \varphi \left(\fracx - \mu\sigma\right) = \frac\sigma \sqrt2\, \pi\, \mathrm^-\frac\left(\fracx-\mu\sigma\right)^2. Ceci légitime la définition suivante :

Définition

On appelle loi normale (ou gaussienne, ou de Laplace-Gauss) de paramètres \ \mu, \, \sigma^2 (où \ \sigma > 0) la loi de probabilité définie par la densité \ f : \R \to \R^+, telle que pour tout x \in \R : :f(x) = \frac\sigma\, \varphi \left(\fracx - \mu\sigma\right) = \frac\sigma \sqrt2\, \pi\, \mathrm^-\frac\left(\fracx-\mu\sigma\right)^2. Notation: cette loi est notée \mathcal(\mu, \, \sigma^2) (on a aussi utilisé \mathcal(\mu, \, \sigma), mais cette dernière tend à céder la place à l'autre, d'autant plus qu'elle n'est pas cohérente avec la notation habituelle de la loi (multi-)normale sur \ \R^n). La loi normale centrée réduite est \mathcal(0, \, 1). On peut énoncer plusieurs propriétés, compte tenu de ce qui précède (le dernier point se démontrant de manière analogue).

Propriétés

Soit une variable aléatoire \ X qui suit la loi normale \mathcal(\mu, \, \sigma^2). Alors :
-son espérance et sa variance existent et \ \mathrm(X) = \mu, \ \mathrm(X) = \sigma^2 > 0
-sa fonction de répartition \ F est telle que pour tout x \in \R, :F(x) = \Phi\left(\fracx - \mu\sigma\right)
-la variable aléatoire X^\star = \fracX - \mathrm(X)\sqrt\mathrm(X), c'est-à-dire X^\star = \fracX - \mu\sigma, suit la loi normale centrée réduite
-si \ \alpha, \, \beta sont deux réels (\ \alpha \neq 0), alors la variable aléatoire \ \alpha\, X + \beta suit la loi normale \mathcal(\alpha\, \mu + \beta, \, \alpha^2\, \sigma^2)

Largeur à mi-hauteur

Lorsque l'on travaille sur une représentation graphique, on estime fréquemment la largeur de la gaussienne par sa largeur à mi-hauteur H (en anglais full width at half maximum, FWHM), qui est la largeur de la courbe à une altitude qui vaut la moitié de l'altitude du sommet. La largeur à mi-hauteur est proportionnelle à l'écart type : : H = 2 \sqrt2\ ln(2)\ \sigma \simeq 2, 3548 \sigma Le facteur 2 sert à prendre en compte l'extension de la Gaussienne dans les valeurs négatives.

Calcul de P(a ≤ X ≤ b)

Les résultats précédents permettent de ramener tout calcul de probabilité relatif à la loi normale \mathcal(\mu, \, \sigma^2) à un calcul de probabilité relatif à la loi normale centrée réduite. On a vu qu'on dispose de tables donnant des approximations de valeurs de la fonction \ \Phi, tables qu'on utilise encore fréquemment, même si certaines calculatrices ou certains tableurs peuvent maintenant les remplacer. Si la variable aléatoire \ X suit la loi normale \mathcal(\mu, \, \sigma^2), et si \ a, \, b sont deux réels tels que \ a \leq b, on a : :\ P(a \leq X \leq b) = F(b) - F(a) = \Phi\left(\fracb - \mu\sigma\right) - \Phi\left(\fraca - \mu\sigma\right)

Cas d'un intervalle centré à la moyenne, plages de normalité

- Si t est un réel positif, :\ P(\mu - t\, \sigma \leq X \leq \mu + t\, \sigma) = \Phi(t) - \Phi(-t) = \Phi(t) - (1 - \Phi(t)) = 2\, \Phi(t) - 1
- lorsque \ P(\mu - t\, \sigma \leq X \leq \mu + t\, \sigma) = \alpha, où \ \alpha \in\, ]0, \, 1 = est appelé plage de normalité au niveau de confiance \alpha :(si par exemple, \alpha = 0, 95, on dit : "plage de normalité au niveau de confiance 95%" : en statistique, c'est un intervalle dans lequel se trouve 95% de la population lorsque la distribution est gaussienne).

Exemples numériques

Grâce à la table précédente, on obtient :
- \ P(\mu - \sigma \leq X \leq \mu + \sigma) \simeq 0, 6826 ; :l'intervalle est la plage de normalité au niveau de confiance 68 %
- \ P(\mu - 0, 5H \leq X \leq \mu + 0, 5H) \simeq 0, 76.. ; :l'intervalle (H étant la largeur à mi-hauteur) est la plage de normalité au niveau de confiance 76 %
- \ P(\mu - 2\, \sigma \leq X \leq \mu + 2\, \sigma) \simeq 0, 9544 ; : l'intervalle est la plage de normalité au niveau de confiance 95 %
- \ P(\mu - 3\, \sigma \leq X \leq \mu + 3\, \sigma) \simeq 0, 9974 ; : l'intervalle est la plage de normalité au niveau de confiance 99 %

Champ d'application

La loi normale s'utilise notamment comme approximation d'une loi binomiale de paramètres (n ; p) pour n grand et p, 1 - p de même ordre de grandeur ; on approche alors cette loi binomiale par la loi normale ayant même espérance np et même variance np(1-p). On a dessiné ci-dessous :
-un diagramme en bâtons de la loi binomiale de paramètres (12 ; 1/3) et la loi normale correspondante d'espérance 4 et de variance 8/3 Image:Bernoulli12.png
-un diagramme en bâtons de la loi binomiale de paramètres (60 ; 1/3), et la loi normale correspondante d'espérance 20 et de variance 40/3 Image:Bernoulli60.png Le mathématicien Carl Friedrich Gauss a introduit cette loi pour le calcul d'erreurs. En statistiques, de nombreux phénomènes suivent des distributions gaussiennes : données biométriques des individus (Adolphe Quételet).

Critères de normalité

Le recours à une distribution gaussienne est si fréquent qu'il peut finir par être abusif. Il faut alors rechercher des critères de normalité. Le premier critère, le plus simple, consiste à tracer l'histogramme ou le diagramme en bâtons de la distribution et à vérifier si le diagramme est en forme de « cloche ». Ce critère, subjectif, permet cependant d'éliminer une partie des distributions jugées alors non gaussiennes. Le critère suivant consiste à utiliser les plages de normalité ou intervalles de confiance. On a vu que si une distribution est gaussienne :
- 68% de la population est dans l'intervalle ,
- 76% de la population est dans l'intervalle ,
- 95% de la population est dans l'intervalle ,
- 99% de la population est dans l'intervalle . Lorsque ces pourcentages ne sont pas respectés, il est fort à parier que la distribution n'est pas gaussienne. On peut aussi utiliser la droite de Henry, en particulier quand on possède peu de renseignements sur la distribution. La droite de Henry va permettre de porter un diagnostic sur la nature non gaussienne de la distribution, et, dans le cas où celle-ci a des chances d'être gaussienne, elle permet d'en déterminer la moyenne et l'écart type. Le dernier critère est l'application d'un test d'adéquation, le Test de Jarque Bera, (test du χ²) qui valide ou non l'hypothèse de normalité. Néanmoins, l'utilisation d'un test automatique est délicate. En effet, dans le cas de petits effectifs, le test manquera de puissance et ne détectera pas la non normalité, même en cas de non normalité évidente. Réciproquement, dans le cas d'effectifs importants, le test sera surpuissant et détectera la moindre petite variation. Il rejettera donc des variables presque normales.

Stabilité de la loi normale par la somme

La somme de deux variables gaussiennes indépendantes est elle-même une variable gaussienne. Plus explicitement : Soient X_1, \, X_2 deux variables aléatoires indépendantes suivant respectivement les lois \mathcal(m_1, \, \sigma_1^2) et \mathcal(m_2, \, \sigma_2^2). Alors, la variable aléatoire \ X_1 + X_2 suit la loi normale \mathcal(m_1 + m_2, \, \sigma_1^2 + \sigma_2^2). Cette propriété se démontre directement (par convolution), ou indirectement (au moyen des fonctions caractéristiques).

Exemple

On prend ici le gramme comme unité de masse. Si la masse du contenu d'une boîte de conserve suit la loi normale d'espérance 400 et de variance 25, et si celle du contenant suit la loi normale d'espérance 60 et de variance 4, alors (avec l'hypothèse, naturelle, d'indépendance) la masse totale de la boîte de conserve suit la loi normale d'espérance 460 et de variance 29 ; son écart type est environ 5, 4 grammes.

Stabilité de la loi normale par la moyenne

Stabilité de la loi normale par la combinaison

Mélange de populations

Il ne faut pas confondre la somme de deux variables gaussiennes indépendantes, qui reste une variable gaussienne, et le mélange de deux populations gaussiennes, qui n'est pas une population gaussienne (voir aussi modèle de mixture gaussienne). Un mélange constitué de
- 2/3 d'individus dont la taille suit une loi normale de moyenne 160 cm et d'écart type 15 cm, de densité f
-1/3 d'individus dont la taille suit une loi normale de moyenne 130 cm et d'écart type 10 cm, de densité g suit une loi de moyenne (2/3)×160+(1/3)×130 = 150 cm, mais non gaussienne, de densité :h = (2/3) f + (1/3) g. Sur la représentation graphique de la densité h, on peut apercevoir une double bosse : la distribution est bimodale. Image:Double Gauss.png

Simulation

Il est possible de simuler, par exemple par ordinateur, un tirage aléatoire dont la loi est normale. Les logiciels ou les langages de programmation possèdent en général un générateur de nombres pseudo-aléatoires ayant une distribution uniforme sur ]0, 10, 10, 1

Cas de la loi multinormale

La loi multinormale ou loi normale sur \R^n étend la loi normale à un vecteur aléatoire X = (X_1, \, X_2, \dots, \, X_n) à valeurs dans \R^n. Elle est caractérisée par deux paramètres : un vecteur m de moyennes, et une matrice de variance-covariance V (carrée d'ordre n). Pour simuler une loi multinormale non dégénérée de paramètres m et V, on utilise la méthode suivante :
- Soit T un vecteur aléatoire à n composantes gaussiennes centrées réduites et indépendantes (la loi de T, multinormale, a pour moyenne le vecteur nul et pour matrice de variance-covariance la matrice identité).
- Soit L la matrice résultant de la factorisation de Cholesky de la matrice V.
- Alors, le vecteur aléatoire X=m+L T suit la loi multinormale de moyenne m et de variance-covariance V :(on convient dans cette dernière relation d'identifier chaque élément de \R^n avec la matrice colonne de ses composantes en base canonique).

Le calcul de l'intégrale de Gauss

On trouvera ce calcul (utilisant une intégrale double) dans l'article sur l'intégrale de Gauss.

Voir aussi

===
Sujets connexes
Calculatrice   Carl Friedrich Gauss   Densité de probabilité   Droite de Henry   Erreur (métrologie)   Espérance mathématique   Factorisation de Cholesky   Fonction monotone   Générateur de nombres pseudo-aléatoires   Intégrale de Gauss   Kurtosis   Largeur à mi-hauteur   Loi binomiale   Loi de Student   Loi de probabilité   Loi normale multidimensionnelle   Matrice de variance-covariance   Moyenne   Méthode de Box-Muller   Nombre réel   Probabilité   Statistiques   Série de Taylor   Tableur   Test de Jarque Bera   Test du χ²   Théorème de Moivre-Laplace   Variable aléatoire   Variance   Vecteur  
#
Accident de Beaune   Amélie Mauresmo   Anisocytose   C3H6O   CA Paris   Carole Richert   Catherinettes   Chaleur massique   Championnat de Tunisie de football D2   Classement mondial des entreprises leader par secteur   Col du Bonhomme (Vosges)   De viris illustribus (Lhomond)   Dolcett   EGP  
^