Loi normale | |
![]() Densité de probabilité La courbe rouge représente la fonction φ {\displaystyle \varphi } , densité de probabilité de la loi normale centrée réduite. | |
![]() Fonction de répartition La courbe rouge représente la fonction Φ {\displaystyle \Phi } , fonction de répartition de la loi normale centrée réduite. | |
Paramètres |
μ
{\displaystyle \mu }
espérance (nombre réel) σ 2 > 0 {\displaystyle \sigma ^{2}>0} , variance (nombre réel) |
,
---|---|
Support | R {\displaystyle \mathbb {R} } |
Densité de probabilité | 1 σ 2 π exp ( − ( x − μ ) 2 2 σ 2 ) {\displaystyle {\frac {1}{\sigma {\sqrt {2\pi }}}}\;\exp \left(-{\frac {\left(x-\mu \right)^{2}}{2\sigma ^{2}}}\right)\!~} |
Fonction de répartition | 1 2 ( 1 + e r f ( x − μ σ 2 ) ) {\displaystyle {\frac {1}{2}}\left(1+\mathrm {erf} \left({\frac {x-\mu }{\sigma {\sqrt {2}}}}\right)\right)\!~} |
Espérance | μ {\displaystyle \mu } |
Médiane | μ {\displaystyle \mu } |
Mode | μ {\displaystyle \mu } |
Variance | σ 2 {\displaystyle \sigma ^{2}} |
Asymétrie | 0 |
Kurtosis normalisé | 0 |
Entropie | ln ( σ 2 π e ) {\displaystyle \ln \left(\sigma {\sqrt {2\,\pi \,{\rm {e}}}}\right)\!~} |
Fonction génératrice des moments | exp ( μ t + σ 2 t 2 2 ) {\displaystyle \exp \left(\mu \,t+{\frac {\sigma ^{2}t^{2}}{2}}\right)} |
Fonction caractéristique | exp ( μ i t − σ 2 t 2 2 ) {\displaystyle \exp \left(\mu \,{\rm {i}}\,t-{\frac {\sigma ^{2}t^{2}}{2}}\right)} |
modifier ![]() |
En théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Plus formellement, une loi normale est une loi de probabilité absolument continue qui dépend de deux paramètres : son espérance, un nombre réel noté μ, et son écart type, un nombre réel positif noté σ. La densité de probabilité de la loi normale d'espérance μ et d'écart type σ est donnée par :
f ( x ) = 1 σ 2 π e − 1 2 ( x − μ σ ) 2 {\displaystyle f(x)={\frac {1}{\sigma {\sqrt {2\pi }}}}\operatorname {e} ^{-{\frac {1}{2}}\left({\frac {x-\mu }{\sigma }}\right)^{2}}} .La courbe de cette densité est appelée courbe de Gauss ou courbe en cloche, entre autres. C'est la représentation la plus connue de ces lois. Lorsqu'une variable aléatoire X suit une loi normale, elle est dite gaussienne ou normale et il est habituel d'utiliser la notation avec la variance σ2 :
X ∼ N ( μ , σ 2 ) {\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})} .La loi normale de moyenne nulle et d'écart type unitaire, N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)}
, est appelée loi normale centrée réduite ou loi normale standard.Parmi les lois de probabilité, les lois normales prennent une place particulière grâce au théorème central limite. En effet, elles correspondent au comportement, sous certaines conditions, d'une suite d'expériences aléatoires similaires et indépendantes lorsque le nombre d'expériences est très élevé. Grâce à cette propriété, une loi normale permet d'approcher d'autres lois et ainsi de modéliser de nombreuses études scientifiques comme des mesures d'erreurs ou des tests statistiques, en utilisant par exemple les tables de la loi normale centrée réduite.
Les lois de probabilité permettent de décrire de manière théorique le caractère aléatoire d'une expérience qui est considérée comme aléatoire. Les lois normales en sont des cas particuliers. La manière historique de l'aborder est par approximation.
Lorsque le résultat de cette expérience aléatoire est à valeurs discrètes, par exemple la somme du lancer de deux dés vaut 2, 3… ou 12, une loi dite discrète modélise l'expérience. Les probabilités d'apparition de chaque valeur peuvent être représentées par des diagrammes en bâtons ou histogrammes (voir la figure ci-contre). Plusieurs scientifiques (voir Histoire de la loi normale) se sont intéressés à la réalisation d'un grand nombre d'expériences et au comportement de la loi de probabilité associée. Il apparaît que les fréquences d'apparition des valeurs possibles sont de plus en plus « lissées » (voir la figure ci-contre). Il existe une certaine répartition autour d'une valeur centrale ; ces probabilités peuvent être alors représentées par une courbe de Gauss ou courbe en cloche obtenue par calcul ou par expérience. Cette courbe est celle de la densité de probabilité d'une loi normale. Le rôle central de ces lois de probabilité vient du fait qu'elles sont la limite d'un grand nombre de lois de probabilité définies à partir de sommes, comme le montre le théorème central limite,.
Une autre manière visuelle de voir apparaître cette courbe est réalisée par la planche de Galton. Des billes sont lâchées en haut de la planche ; à chaque étage, elles ont deux possibilités : aller à droite ou aller à gauche. Après plusieurs étages, elles ont donc eu plusieurs choix aléatoires. Lorsque le nombre de billes est grand, la répartition des billes suivant leur position est approximativement une loi normale.
Comme pour toute loi de probabilité, plusieurs définitions équivalentes des lois normales existent : par leur densité de probabilité (la courbe de Gauss), par leur fonction de répartition, par leur fonction caractéristique, etc. Une loi normale dépend de deux paramètres : le premier donne la moyenne, c'est-à-dire la valeur « centrale » (ou « médiane ») des valeurs possibles (par exemple, la moyenne de la somme de deux dés est 7) ; le deuxième paramètre renseigne sur la dispersion des valeurs autour de cette valeur centrale : plus ce paramètre est faible, plus les valeurs proches de la valeur centrale auront une forte probabilité d'apparaître. Beaucoup de grandeurs physiques peuvent être représentées par ces deux paramètres.
Lors de l'étude statistique d'une série d'observations d'une même grandeur, la moyenne des valeurs observées peut être considérée comme une aléatoire suivant une loi normale. La moyenne de cette loi normale est alors considérée comme la valeur « réelle » de la grandeur observée, et la dispersion de la loi renseigne sur l'« erreur » d'observation. C'est-à-dire qu'il est possible de calculer une valeur approchée de la probabilité qu'une variable suivant une loi normale soit dans un intervalle autour de la moyenne μ. Il s'agit de pouvoir obtenir une approximation de la grandeur observée dans l'expérience en considérant les erreurs dues aux instruments de mesure ou autres.
Une des premières apparitions d'une loi normale est due à Abraham de Moivre en 1733 en approfondissant l'étude de la factorielle n! lors de l'étude d'un jeu de pile ou face. Il publie The Doctrine of Chances en 1756 dans lequel une loi normale apparaît comme limite d'une loi binomiale, ce qui sera à l'origine du théorème central limite. En 1777, Pierre-Simon de Laplace reprend ces travaux et obtient une bonne approximation de l'erreur entre cette loi normale et une loi binomiale grâce à la fonction gamma d'Euler. Dans son ouvrage publié en 1781, Laplace donne une première table de cette loi. En 1809, Carl Friedrich Gauss assimile des erreurs d'observation en astronomie à la courbe, dite des erreurs, de la densité d'une loi normale.
Une loi normale est alors pleinement définie lorsque le premier théorème central limite, alors appelé théorème de Laplace, est énoncé par Laplace en 1812. Son nom « normale » est donné par Henri Poincaré à la fin du XIXe siècle. Les lois normales portent également les noms de lois de Gauss ou lois de Laplace-Gauss en fonction de l'attribution de la paternité de la création de ces lois ; la dénomination de deuxième loi de Laplace est également utilisée occasionnellement.
Les études sur les lois normales se poursuivent durant le XIXe siècle. Ainsi, de nouvelles tables numériques sont données en 1948 par Egon Sharpe Pearson, en 1952 par le National Bureau of Standards et en 1958 par Greenwood et Hartley.
Une loi normale est une loi de probabilité (c'est-à-dire une mesure N de masse totale unitaire) unidimensionnelle (c'est-à-dire à support réel R {\displaystyle \mathbb {R} } ). C'est une loi absolument continue, c'est-à-dire que la mesure est absolument continue par rapport à la mesure de Lebesgue. Autrement dit, il existe une densité de probabilité, souvent notée φ pour la loi normale centrée réduite, telle que : N(dx) = φ(x) dx. Elle est généralisée par la loi normale multidimensionnelle. La loi normale centrée réduite est appelée loi normale standard.
La loi normale centrée réduite est la loi de probabilité absolument continue dont la densité de probabilité est donnée par la fonction φ : R → R + {\displaystyle \varphi :\mathbb {R} \to \mathbb {R} _{+}} définie par : φ ( t ) = 1 2 π e − 1 2 t 2 {\displaystyle \varphi (t)={\frac {1}{\sqrt {2\pi }}}\operatorname {e} ^{-{\frac {1}{2}}t^{2}}} , pour tout t ∈ R {\displaystyle t\in \mathbb {R} } . Cette loi est dite centrée puisque son moment d'ordre 1 (espérance) vaut 0 et réduite puisque son moment d'ordre 2 (variance) vaut 1, tout comme son écart type. Le graphe de la densité φ est appelé fonction gaussienne, courbe de Gauss ou courbe en cloche. Cette loi est notée grâce à la première lettre de « normal », une variable aléatoire X qui suit la loi normale centrée réduite est notée : X ∼ N ( 0 , 1 ) {\displaystyle X\sim {\mathcal {N}}(0,1)} .
Quelques remarques et propriétés immédiates (voir également les propriétés ci-dessous) :
Historiquement, une loi normale est apparue comme la loi limite dans le théorème central limite à l'aide de sa fonction de répartition. Il est alors utile de définir la loi par cette fonction. La loi normale est la loi de probabilité dont la fonction de répartition est donnée par la fonction Φ : R → R + {\displaystyle \Phi :\mathbb {R} \to \mathbb {R} _{+}} définie par : Φ ( x ) = 1 2 π ∫ − ∞ x e − 1 2 t 2 d t {\displaystyle \Phi (x)={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{x}\operatorname {e} ^{-{\frac {1}{2}}t^{2}}\,\mathrm {d} t} , pour tout x ∈ R {\displaystyle x\in \mathbb {R} } . Elle donne la probabilité qu'une variable aléatoire de loi normale appartienne à un intervalle {\displaystyle } : P ( X ∈ ) = Φ ( b ) − Φ ( a ) {\displaystyle \mathbb {P} (X\in )=\Phi (b)-\Phi (a)} (pour plus de détails de calcul, voir la section Tables numériques et calculs).
Quelques remarques et propriétés immédiates :
La caractérisation d'une loi normale par sa fonction caractéristique présente un intérêt pour démontrer certaines propriétés, comme la stabilité par addition ou le théorème central limite. Cette fonction caractéristique ϕ : R → R + {\displaystyle \phi :\mathbb {R} \to \mathbb {R} _{+}} , qui se calcule à partir de la densité de probabilité, et caractérise la loi, est donnée par : ϕ ( t ) = e − t 2 2 , ∀ t ∈ R {\displaystyle \phi (t)={\rm {e}}^{-{\frac {t^{2}}{2}}},\,\forall t\in \mathbb {R} } . Cette fonction caractéristique est égale, à une constante multiplicative près, à la densité de probabilité de la loi : on dit que la fonction caractéristique d'une gaussienne est gaussienne.
Si une variable aléatoire X suit la loi normale centrée réduite de fonction caractéristique ϕ définie ci-dessus, alors la transformation linéaire Y = aX+b admet pour fonction caractéristique : ϕ Y ( t ) = e i b t ϕ ( a t ) {\displaystyle \phi _{Y}(t)={\rm {e}}^{{\rm {i}}bt}\phi (at)} . C'est donc une variable aléatoire de loi normale de moyenne b et de variance a2.
Une autre manière de définir une loi normale est par l'utilisation de sa fonction génératrice des moments M : R → R + , t ↦ ∑ n = 0 ∞ m n t n n ! = E ( e t X ) {\displaystyle M:\mathbb {R} \to \mathbb {R} _{+},\;t\mapsto \sum _{n=0}^{\infty }m_{n}{\frac {t^{n}}{n!}}=\mathbb {E} \left(\operatorname {e} ^{tX}\right)} . Cette fonction, qui se calcule à partir de la fonction de densité et caractérise la loi, est donnée par : M ( t ) = e t 2 2 {\displaystyle M(t)={\rm {e}}^{\frac {t^{2}}{2}}} , pour tout t ∈ R {\displaystyle t\in \mathbb {R} } . On retrouve ainsi les valeurs des moments mn (voir supra).
Plus généralement que la loi normale centrée réduite, une loi normale (non centrée et non réduite) est une loi de probabilité absolument continue dont l'un des quatre points suivants est vérifié :
Pour le cas où σ = 0, c'est une forme dégénérée de la loi normale, parfois appelée loi normale impropre. C'est alors la mesure de Dirac au point μ qui n'est pas absolument continue.
La valeur μ est la moyenne de la loi et σ est l'écart type alors que σ2 en est la variance. Cette loi est notée grâce à la première lettre de « normal ». Une variable aléatoire X qui suit une loi normale est notée de deux manières différentes suivant les auteurs, : X ∼ N ( μ , σ ) ou X ∼ N ( μ , σ 2 ) . {\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ){\text{ ou }}X\sim {\mathcal {N}}(\mu ,\sigma ^{2}).} La deuxième notation a l'intérêt de pouvoir noter la stabilité par addition de manière simple ; elle sera utilisée dans cet article.
En addition de la densité de probabilité, de la fonction de répartition, de la fonction caractéristique et de la fonction génératrice des moments, il existe d'autres caractérisations des lois normales.
Le moment d'ordre 1 est appelé la moyenne (μ) et est donné en paramètre d'une loi normale N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} . Le deuxième paramètre est son écart type (σ), c'est-à-dire la racine carrée de la variance qui est par définition la moyenne des carrés des écarts à la moyenne. Il est alors également intéressant d'obtenir les moments centrés d'une loi normale, ils sont donnés par :
{ μ 2 k = E = ( 2 k ) ! 2 k k ! σ 2 k μ 2 k + 1 = E = 0 {\displaystyle {\begin{cases}\mu _{2k}=\mathbb {E} ={\frac {(2\,k)!}{2^{k}k!}}\sigma ^{2k}\\\mu _{2k+1}=\mathbb {E} =0\end{cases}}}
pour k ≥ 0 {\displaystyle k\geq 0} et X une variable aléatoire de loi normale N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} .Le moment ordinaire mn peut s'obtenir à partir des moments d'ordre inférieur à n – 1 et du moment centré d'ordre n, en utilisant la formule qui exprime μn en fonction de m0, m1, ..., mn. Les premiers moments d'une loi normale sont alors : m 1 = E = μ , m 2 = E = σ 2 + μ 2 , m 3 = E = 3 μ σ 2 + μ 3 , m 4 = E = 3 σ 4 + 6 σ 2 μ 2 + μ 4 {\displaystyle m_{1}=\mathbb {E} =\mu ,\quad m_{2}=\mathbb {E} =\sigma ^{2}+\mu ^{2},\quad m_{3}=\mathbb {E} =3\mu \sigma ^{2}+\mu ^{3},\quad m_{4}=\mathbb {E} =3\sigma ^{4}+6\sigma ^{2}\mu ^{2}+\mu ^{4}} .
Calcul directGrâce à la symétrie autour de μ de la fonction de densité d'une loi normale, les moments centrés d'ordre impair sont tous nuls.
Des moments d'ordre pairs de la loi normale centrée réduite (voir supra), on déduit la formule des moments centrés : μ 2 k = ( 2 k ) ! 2 k k ! σ 2 k {\displaystyle \mu _{2k}={\frac {(2\,k)!}{2^{k}k!}}\sigma ^{2k}} .
Par la fonction génératrice des momentsLes moments centrés (μn, n ≥ 0) d'une loi peuvent s'obtenir à partir de la fonction génératrice des moments centrés. Le cas particulier μ = 0 de la fonction génératrice des moments (voir supra) donne : M centré ( t ) = e σ 2 t 2 2 = ∑ k = 0 ∞ 1 k ! ( σ 2 t 2 2 ) k {\displaystyle M_{\text{centré}}(t)={\rm {e}}^{\frac {\sigma ^{2}t^{2}}{2}}=\sum _{k=0}^{\infty }{\frac {1}{k!}}\left({\frac {\sigma ^{2}t^{2}}{2}}\right)^{k}} .
Comme par ailleurs on a (pour toute loi) M centré ( t ) = ∑ n = 0 ∞ 1 n ! μ n t n {\displaystyle M_{\text{centré}}(t)=\sum _{n=0}^{\infty }{\frac {1}{n!}}\mu _{n}t^{n}} , les moments centrés d'une loi normale (voir supra).
, on en déduit, par identification des coefficients des deux sériesQuant aux moments ordinaires, leur fonction génératrice permet d'établir la relation de récurrence :
m n + 1 = μ m n + n σ 2 m n − 1 ( n ≥ 1 ) {\displaystyle m_{n+1}=\mu m_{n}+n\sigma ^{2}m_{n-1}\quad (n\geq 1)} .L'asymétrie γ1, le kurtosis β2 et le kurtosis normalisé γ2 s'obtiennent à partir des formules des moments :
γ
1
=
μ
3
σ
3
=
0
{\displaystyle \gamma _{1}={\frac {\mu _{3}}{\sigma ^{3}}}=0}
β
2
=
μ
4
σ
4
=
3
{\displaystyle \beta _{2}={\frac {\mu _{4}}{\sigma ^{4}}}=3}
;
γ
2
=
β
2
−
3
=
0
{\displaystyle \gamma _{2}=\beta _{2}-3=0}
.
Les lois normales servent de point de référence pour la comparaison des épaisseurs de traîne : si une loi possède un kurtosis normalisé γ2 > 0, alors la loi possède une traîne plus épaisse qu'une loi normale et est dite leptokurtique ; à l'inverse si γ2 < 0, la loi possède une traîne moins épaisse qu'une loi normale et est appelée platikurtique ; les lois de kurtosis normalisé nul possèdent une traîne comparable à la loi normale et sont dites mésokurtiques.
CumulantsLa fonction caractéristique permet d'obtenir la fonction génératrice des cumulants par la formule ln ( ϕ ( t ) ) = ∑ n = 1 + ∞ K n ( i t ) n n ! {\displaystyle \ln(\phi (t))=\sum _{n=1}^{+\infty }K_{n}{\frac {({\rm {i}}t)^{n}}{n!}}} et permet d'obtenir les cumulants : K1 = μ, K2 = σ2 et Kn = 0 pour n ≥ 3.
La première version du théorème central limite, appelé alors théorème de Moivre-Laplace, a été énoncée dans le cas de variables aléatoires de loi de Bernoulli. De manière plus générale, si X1, X2, ..., Xn sont des variables indépendantes et identiquement distribuées de variance finie et si la somme est notée Sn = X1 + X2 + ... + Xn, alors pour tout a < b lim n → + ∞ P ( a ≤ S n − E Var ( S n ) ≤ b ) = ∫ a b φ ( x ) d x {\displaystyle \lim _{n\to +\infty }\mathbb {P} \left(a\leq {\frac {S_{n}-\mathbb {E} }{\sqrt {\operatorname {Var} (S_{n})}}}\leq b\right)=\int _{a}^{b}\varphi (x)\,\mathrm {d} x} où φ est la densité de probabilité de la loi normale centrée réduite.
Ce théorème signifie que tout ce qui peut être considéré comme étant la somme d'une grande quantité de petites valeurs aléatoires indépendantes et identiquement distribuées est approximativement de loi normale. Ceci montre le caractère central des lois normales en théorie des probabilités. Un énoncé physique de ce théorème peut être formulé : Si une grandeur physique subit l'influence additive d'un nombre important de facteurs indépendants et si l'influence de chaque facteur pris séparément est petite, alors la distribution de cette grandeur est une distribution gaussienne.
Ce théorème central limite est valide pour toute loi de probabilité initiale des variables iid X1, X2, ..., Xn ayant un écart type fini, il permet d'obtenir de bonne approximation de la somme Sn, par exemple :
Il existe des versions plus générales de ce théorème, par exemple en considérant des variables aléatoires indépendantes, pas de même loi mais ayant des variances petites comparées à celle de leur moyenne. Un théorème de Gnedenko et Kolmogorov (1954) stipule qu'une variable aléatoire normale est la somme d'un grand nombre de variables aléatoires indépendantes petites dont aucune n'est prépondérante :
Théorème — Considérons une suite de variables aléatoires (Xn, n ≥ 1) dont chacune est la somme d'un nombre fini de variables aléatoires X n , 1 , … , X n , k n {\displaystyle X_{n,1},\dots ,X_{n,k_{n}}}
avec k n → + ∞ {\displaystyle k_{n}\to +\infty } .Pour tout ε > 0, introduisons la variable aléatoire tronquée :
X ε = { X si | X | ≤ ε ; 0 sinon {\displaystyle X^{\varepsilon }={\begin{cases}X&{\text{ si }}|X|\leq \varepsilon {\text{ ;}}\\0&{\text{ sinon}}\end{cases}}}et supposons :
Alors la loi de Xn converge vers la loi normale N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})}
.Les lois normales sont stables par additivité, c'est-à-dire que la somme de deux variables aléatoires indépendantes de lois normales est elle-même une variable aléatoire de loi normale. Plus explicitement : si X 1 ∼ N ( μ 1 , σ 1 2 ) {\displaystyle X_{1}\sim {\mathcal {N}}(\mu _{1},\sigma _{1}^{2})} , X 2 ∼ N ( μ 2 , σ 2 2 ) {\displaystyle X_{2}\sim {\mathcal {N}}(\mu _{2},\sigma _{2}^{2})} et X1 et X2 sont indépendantes, alors la variable aléatoire X 1 + X 2 {\displaystyle X_{1}+X_{2}} suit la loi normale N ( μ 1 + μ 2 , σ 1 2 + σ 2 2 ) {\displaystyle {\mathcal {N}}(\mu _{1}+\mu _{2},\sigma _{1}^{2}+\sigma _{2}^{2})} .
Cette propriété se généralise pour n variables, c'est-à-dire si pour tout i ∈ { 1 , 2 , … , n } {\displaystyle i\in \{1,2,\dots ,n\}} la somme X1 + X2 + ... + Xn suit une loi normale N ( μ 1 + μ 2 + ⋯ + μ n , σ 1 2 + σ 2 2 + ⋯ + σ n 2 ) {\displaystyle {\mathcal {N}}(\mu _{1}+\mu _{2}+\dots +\mu _{n},\sigma _{1}^{2}+\sigma _{2}^{2}+\dots +\sigma _{n}^{2})} .
, les variables aléatoires Xi suivent une loi normale N ( μ i , σ i 2 ) {\displaystyle {\mathcal {N}}(\mu _{i},\sigma _{i}^{2})} et sont indépendantes, alorsCette propriété se démontre directement au moyen des fonctions caractéristiques. La densité de probabilité de la somme de deux variables indépendantes de loi normale est donnée par la convolution des deux densités. Ceci se traduit par les formules de convolution de fonctions ou de convolution de mesures normales que l'on note N μ 1 , σ 1 2 {\displaystyle {\mathcal {N}}_{\mu _{1},\sigma _{1}^{2}}} : φ ( x − μ 1 σ 1 ) ∗ φ ( x − μ 2 σ 2 ) = φ ( x − ( μ 1 + μ 2 ) σ 1 2 + σ 2 2 ) {\displaystyle \varphi \left({\frac {x-\mu _{1}}{\sigma _{1}}}\right)\ast \varphi \left({\frac {x-\mu _{2}}{\sigma _{2}}}\right)=\varphi \left({\frac {x-(\mu _{1}+\mu _{2})}{\sqrt {\sigma _{1}^{2}+\sigma _{2}^{2}}}}\right)} et N μ 1 , σ 1 2 ∗ N μ 2 , σ 2 2 = N μ 1 + μ 2 , σ 1 2 + σ 2 2 {\displaystyle {\mathcal {N}}_{\mu _{1},\sigma _{1}^{2}}\ast {\mathcal {N}}_{\mu _{2},\sigma _{2}^{2}}={\mathcal {N}}_{\mu _{1}+\mu _{2},\sigma _{1}^{2}+\sigma _{2}^{2}}} .
Il ne faut pas confondre avec la loi dont la densité est la somme de densités de lois normales (voir la section Constructions à partir de la loi normale ci-dessous).
L'ensemble de fonctions { φ ( x − μ σ ) ∣ μ ∈ R , σ > 0 } {\displaystyle \{\varphi ({\frac {x-\mu }{\sigma }})\mid \mu \in \mathbb {R} ,\sigma >0\}} { N μ , σ 2 ∣ μ ∈ R , σ > 0 } {\displaystyle \{{\mathcal {N}}_{\mu ,\sigma ^{2}}\mid \mu \in \mathbb {R} ,\sigma >0\}} . La famille de fonctions est fermée pour la convolution au sens où : la fonction φ est la seule qui engendre la famille ; si la convolution de deux densités est dans la famille alors les deux fonctions sont dans la famille ; et toute densité convolée un nombre suffisamment grand de fois et convenablement renormalisée est proche d'une fonction de la famille normale. Les trois théorèmes suivants donnent plus de précisions mathématiques.
forme la famille dite famille normale. La famille normale est également le nom de l'ensemble des lois normalesLes lois normales sont stables par linéarité : si α ≥ 0 et β sont deux réels et X ∼ N ( μ , σ 2 ) {\displaystyle X\sim {\mathcal {N}}(\mu ,\sigma ^{2})} la variable aléatoire αX + β suit la loi normale N ( α μ + β , α 2 σ 2 ) {\displaystyle {\mathcal {N}}(\alpha \mu +\beta ,\alpha ^{2}\sigma ^{2})} .
, alorsGrâce aux stabilités par addition et par linéarité, une loi normale est un cas particulier de loi stable avec pour paramètre de stabilité α = 2. Parmi les lois stables, les lois normales, la loi de Lévy (α = 1/2) et la loi de Cauchy (α = 1) sont les seules à posséder une expression analytique de leur fonction de densité.
Stabilité par moyenneLes lois normales sont stables par moyennisation, c'est-à-dire si X1, X2, ..., Xn sont des variables aléatoires indépendantes suivant respectivement les lois normales N ( μ 1 , σ 1 2 ) , N ( μ 2 , σ 2 2 ) , … , N ( μ n , σ n 2 ) {\displaystyle {\mathcal {N}}(\mu _{1},\sigma _{1}^{2}),{\mathcal {N}}(\mu _{2},\sigma _{2}^{2}),\dots ,{\mathcal {N}}(\mu _{n},\sigma _{n}^{2})}
Convexité , alors la moyenne 1/n(X1 + X2 + ... + Xn) suit la loi N ( μ 1 + μ 2 + ⋯ + μ n n , σ 1 2 + σ 2 2 + ⋯ + σ n 2 n 2 ) {\displaystyle {\mathcal {N}}\left({\tfrac {\mu _{1}+\mu _{2}+\dots +\mu _{n}}{n}},{\tfrac {\sigma _{1}^{2}+\sigma _{2}^{2}+\dots +\sigma _{n}^{2}}{n^{2}}}\right)} .Les lois normales ne sont pas convexe, c'est-à-dire que l'inégalité λ P ( A ) + ( 1 − λ ) P ( B ) ≤ P ( λ A + ( 1 − λ ) B ) {\displaystyle \lambda \mathbb {P} (A)+(1-\lambda )\mathbb {P} (B)\leq \mathbb {P} (\lambda A+(1-\lambda )B)} pour tous boréliens A et B n'est pas vérifiée lorsque la mesure P {\displaystyle \mathbb {P} } est normale. Cependant, lorsque l'on normalise cette inégalité avec l'inverse de la fonction de répartition de la loi normale centrée réduite, on obtient le théorème suivant, analogue à l'inégalité de Brunn-Minkowski-Lusternik pour la mesure de Lebesgue dans R n {\displaystyle \mathbb {R} ^{n}} :
Inégalité de Ehrhard — Pour la mesure normale standard N 0 , 1 {\displaystyle {\mathcal {N}}_{0,1}} , pour tous ensembles boréliens A et B et pour tout λ ∈ ]0 ; 1 0 , 1 0,10,1. L'entropie maximum, pour une loi normale donc, est donnée par : H = ln (σ √2πe). Ainsi la théorie de maximisation de l'entropie dit que, même si elle n'est pas la meilleure loi adaptée aux valeurs, une loi normale ajustée aux valeurs est adéquate pour prendre une décision.
Il y a également une connexion entre la convergence de suites de lois de probabilité vers une loi normale et la croissance de l'entropie, ce qui en fait un outil majeur dans la théorie de l'information.
La quantité d'information de FisherL'information de Fisher d'une loi à densité de probabilité est une autre notion de quantité d'information. Pour une densité f, elle est donnée par : I = ∫ − ∞ + ∞ ( f ′ ( x ) f ( x ) ) 2 f ( x ) d x {\displaystyle I=\int _{-\infty }^{+\infty }\left({\frac {f'(x)}{f(x)}}\right)^{2}f(x)\,\mathrm {d} x} . Pour toute densité suffisamment régulière d'une loi centrée réduite, cette information vérifie I ≥ 1. Les lois normales se distinguent des autres densités puisque l'inégalité précédente est une égalité si et seulement si la densité est celle de la loi normale centrée réduite.
Distance entre loisLa divergence de Kullback-Leibler entre deux lois permet de mesurer une distance entre les deux lois, ou une perte d'information entre les deux lois. La divergence de Kullback-Leibler entre les deux lois normales N ( μ 1 , σ 1 2 ) {\displaystyle {\mathcal {N}}(\mu _{1},\sigma _{1}^{2})} et N ( μ 2 , σ 2 2 ) {\displaystyle {\mathcal {N}}(\mu _{2},\sigma _{2}^{2})} est : D K L ( N ( μ 1 , σ 1 2 ) ‖ N ( μ 2 , σ 2 2 ) ) = log ( σ 2 σ 1 ) + 1 2 ( σ 1 2 σ 2 2 + ( μ 2 − μ 1 ) 2 σ 2 2 − 1 ) {\displaystyle D_{KL}({\mathcal {N}}(\mu _{1},\sigma _{1}^{2})\|{\mathcal {N}}(\mu _{2},\sigma _{2}^{2}))=\log \left({\frac {\sigma _{2}}{\sigma _{1}}}\right)+{\frac {1}{2}}\left({\frac {\sigma _{1}^{2}}{\sigma _{2}^{2}}}+{\frac {(\mu _{2}-\mu _{1})^{2}}{\sigma _{2}^{2}}}-1\right)} . Cette divergence est nulle pour μ1 = μ2 et σ1 = σ2 ; de plus, elle croît lorsque | μ 1 − μ 2 | {\displaystyle |\mu _{1}-\mu _{2}|} croît.
Il n'existe pas d'expression analytique pour la fonction de répartition Φ de la loi normale centrée réduite, c'est-à-dire qu'il n'existe pas de formule simple entre la fonction de répartition et les fonctions classiques telles que les fonctions polynomiales, exponentielle, logarithmique, trigonométriques, etc. Cependant la fonction de répartition apparaît dans plusieurs résultats à vocation à être appliqués, il est donc important de mieux cerner cette fonction. Différentes écritures sous forme de séries ou de fractions continues généralisées sont possibles.
Pour les valeurs de 0 < x ≪ 1 {\displaystyle 0<x\ll 1} : Φ ( x ) = 1 2 + 1 2 π ∑ n = 0 ∞ ( − 1 ) n n ! 2 n ( 2 n + 1 ) x 2 n + 1 = 1 2 + 1 2 π ( x − x 3 6 + x 5 40 + … ) {\displaystyle \Phi (x)={\frac {1}{2}}+{\frac {1}{\sqrt {2\pi }}}\sum _{n=0}^{\infty }{\frac {(-1)^{n}}{n!2^{n}(2n+1)}}x^{2n+1}={\frac {1}{2}}+{\frac {1}{\sqrt {2\pi }}}\left(x-{\frac {x^{3}}{6}}+{\frac {x^{5}}{40}}+\dots \right)} , ou sous la forme : Φ ( x ) = 1 2 + φ ( x ) ∑ n = 0 ∞ 1 1 ⋅ 3 ⋅ 5 … ( 2 n + 1 ) x 2 n + 1 = 1 2 + φ ( x ) ( x + x 3 3 + x 5 15 + … ) {\displaystyle \Phi (x)={\frac {1}{2}}+\varphi (x)\sum _{n=0}^{\infty }{\frac {1}{1\cdot 3\cdot 5\dots (2n+1)}}x^{2n+1}={\frac {1}{2}}+\varphi (x)\left(x+{\frac {x^{3}}{3}}+{\frac {x^{5}}{15}}+\dots \right)} .
, la fonction de répartition de la loi normale centrée réduite s'écrit sous la formePour 1 ≪ x {\displaystyle 1\ll x} , : Φ ( x ) = 1 − φ ( x ) x ( 1 − 1 x 2 + 1 ⋅ 3 x 4 − 1 ⋅ 3 ⋅ 5 x 6 + ⋯ + 1 ⋅ 3 … ( 2 n − 1 ) x 2 n ) + R n {\displaystyle \Phi (x)=1-{\frac {\varphi (x)}{x}}\left(1-{\frac {1}{x^{2}}}+{\frac {1\cdot 3}{x^{4}}}-{\frac {1\cdot 3\cdot 5}{x^{6}}}+\dots +{\frac {1\cdot 3\dots (2n-1)}{x^{2n}}}\right)+R_{n}} avec R n = ( − 1 ) n + 1 1 ⋅ 3 … ( 2 n + 1 ) ∫ x ∞ φ ( y ) y 2 n + 2 d y {\displaystyle R_{n}=(-1)^{n+1}1\cdot 3\dots (2n+1)\int _{x}^{\infty }{\frac {\varphi (y)}{y^{2n+2}}}\,\mathrm {d} y} .
, la fonction de répartition de la loi normale centrée réduite s'écrit sous la formeDe manière plus numérique et facilement calculable, les approximations suivantes donnent des valeurs de la fonction de répartition Φ de la loi normale centrée réduite avec :
Voici un exemple d'algorithme pour le langage C :
double Phi(double x){ long double s=x,t=0,b=x,q=x*x,i=1; while(s!=t) s = (t=s) + (b*=q/(i+=2)); return 0.5 + s*exp(-0.5*q - 0.91893853320467274178L); }Une autre écriture de la fonction de répartition de la loi normale centrée réduite utilise une fraction continue généralisée : Φ ( x 2 ) = 1 2 − 1 π 1 2 e − x 2 x + 1 2 x + 2 x + 3 2 x + 4 x + … {\displaystyle \Phi (x{\sqrt {2}})={\frac {1}{2}}-{\cfrac {1}{\sqrt {\pi }}}{\cfrac {{\cfrac {1}{2}}{\rm {e}}^{-x^{2}}}{x+{\cfrac {1}{2x+{\cfrac {2}{x+{\cfrac {3}{2x+{\cfrac {4}{x+\dots }}}}}}}}}}} .
Comme mentionné dans la section précédente, il est utile de bien connaître la fonction de répartition Φ pour les applications numériques. Des tables de valeurs ont alors été calculées pour la fonction de répartition, mais également pour son inverse, ce qui permet d'obtenir les quantiles et les intervalles de confiance pour un seuil de tolérance fixé.
Table de valeurs de la fonction de répartitionLa table suivante donne les valeurs de la fonction de répartition Φ ( x ) = P {\displaystyle \Phi (x)=\mathbb {P} }
, lorsque X suit la loi normale centrée réduite N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} .Les valeurs en début de lignes donnent la première partie de la variable, les valeurs en début de colonnes donnent la deuxième partie. Ainsi la case de la deuxième ligne et troisième colonne donne : Φ(0,12) = 0,54776.
Φ ( x ) {\displaystyle \Phi (x)} | 0,00 | 0,01 | 0,02 | 0,03 | 0,04 | 0,05 | 0,06 | 0,07 | 0,08 | 0,09 |
---|---|---|---|---|---|---|---|---|---|---|
0,0 | 0,50000 | 0,50399 | 0,50798 | 0,51197 | 0,51595 | 0,51994 | 0,52392 | 0,52790 | 0,53188 | 0,53586 |
0,1 | 0,53983 | 0,54380 | 0,54776 | 0,55172 | 0,55567 | 0,55962 | 0,56356 | 0,56749 | 0,57142 | 0,57535 |
0,2 | 0,57926 | 0,58317 | 0,58706 | 0,59095 | 0,59483 | 0,59871 | 0,60257 | 0,60642 | 0,61026 | 0,61409 |
0,3 | 0,61791 | 0,62172 | 0,62552 | 0,62930 | 0,63307 | 0,63683 | 0,64058 | 0,64431 | 0,64803 | 0,65173 |
0,4 | 0,65542 | 0,65910 | 0,66276 | 0,66640 | 0,67003 | 0,67364 | 0,67724 | 0,68082 | 0,68439 | 0,68793 |
0,5 | 0,69146 | 0,69497 | 0,69847 | 0,70194 | 0,70540 | 0,70884 | 0,71226 | 0,71566 | 0,71904 | 0,72240 |
0,6 | 0,72575 | 0,72907 | 0,73237 | 0,73565 | 0,73891 | 0,74215 | 0,74537 | 0,74857 | 0,75175 | 0,75490 |
0,7 | 0,75804 | 0,76115 | 0,76424 | 0,76730 | 0,77035 | 0,77337 | 0,77637 | 0,77935 | 0,78230 | 0,78524 |
0,8 | 0,78814 | 0,79103 | 0,79389 | 0,79673 | 0,79955 | 0,80234 | 0,80511 | 0,80785 | 0,81057 | 0,81327 |
0,9 | 0,81594 | 0,81859 | 0,82121 | 0,82381 | 0,82639 | 0,82894 | 0,83147 | 0,83398 | 0,83646 | 0,83891 |
1,0 | 0,84134 | 0,84375 | 0,84614 | 0,84849 | 0,85083 | 0,85314 | 0,85543 | 0,85769 | 0,85993 | 0,86214 |
1,1 | 0,86433 | 0,86650 | 0,86864 | 0,87076 | 0,87286 | 0,87493 | 0,87698 | 0,87900 | 0,88100 | 0,88298 |
1,2 | 0,88493 | 0,88686 | 0,88877 | 0,89065 | 0,89251 | 0,89435 | 0,89617 | 0,89796 | 0,89973 | 0,90147 |
1,3 | 0,90320 | 0,90490 | 0,90658 | 0,90824 | 0,90988 | 0,91149 | 0,91309 | 0,91466 | 0,91621 | 0,91774 |
1,4 | 0,91924 | 0,92073 | 0,92220 | 0,92364 | 0,92507 | 0,92647 | 0,92785 | 0,92922 | 0,93056 | 0,93189 |
1,5 | 0,93319 | 0,93448 | 0,93574 | 0,93699 | 0,93822 | 0,93943 | 0,94062 | 0,94179 | 0,94295 | 0,94408 |
1,6 | 0,94520 | 0,94630 | 0,94738 | 0,94845 | 0,94950 | 0,95053 | 0,95154 | 0,95254 | 0,95352 | 0,95449 |
1,7 | 0,95543 | 0,95637 | 0,95728 | 0,95818 | 0,95907 | 0,95994 | 0,96080 | 0,96164 | 0,96246 | 0,96327 |
1,8 | 0,96407 | 0,96485 | 0,96562 | 0,96638 | 0,96712 | 0,96784 | 0,96856 | 0,96926 | 0,96995 | 0,97062 |
1,9 | 0,97128 | 0,97193 | 0,97257 | 0,97320 | 0,97381 | 0,97441 | 0,97500 | 0,97558 | 0,97615 | 0,97670 |
2,0 | 0,97725 | 0,97778 | 0,97831 | 0,97882 | 0,97932 | 0,97982 | 0,98030 | 0,98077 | 0,98124 | 0,98169 |
2,1 | 0,98214 | 0,98257 | 0,98300 | 0,98341 | 0,98382 | 0,98422 | 0,98461 | 0,98500 | 0,98537 | 0,98574 |
2,2 | 0,98610 | 0,98645 | 0,98679 | 0,98713 | 0,98745 | 0,98778 | 0,98809 | 0,98840 | 0,98870 | 0,98899 |
2,3 | 0,98928 | 0,98956 | 0,98983 | 0,99010 | 0,99036 | 0,99061 | 0,99086 | 0,99111 | 0,99134 | 0,99158 |
2,4 | 0,99180 | 0,99202 | 0,99224 | 0,99245 | 0,99266 | 0,99286 | 0,99305 | 0,99324 | 0,99343 | 0,99361 |
2,5 | 0,99379 | 0,99396 | 0,99413 | 0,99430 | 0,99446 | 0,99461 | 0,99477 | 0,99492 | 0,99506 | 0,99520 |
2,6 | 0,99534 | 0,99547 | 0,99560 | 0,99573 | 0,99585 | 0,99598 | 0,99609 | 0,99621 | 0,99632 | 0,99643 |
2,7 | 0,99653 | 0,99664 | 0,99674 | 0,99683 | 0,99693 | 0,99702 | 0,99711 | 0,99720 | 0,99728 | 0,99736 |
2,8 | 0,99744 | 0,99752 | 0,99760 | 0,99767 | 0,99774 | 0,99781 | 0,99788 | 0,99795 | 0,99801 | 0,99807 |
2,9 | 0,99813 | 0,99819 | 0,99825 | 0,99831 | 0,99836 | 0,99841 | 0,99846 | 0,99851 | 0,99856 | 0,99861 |
3,0 | 0,99865 | 0,99869 | 0,99874 | 0,99878 | 0,99882 | 0,99886 | 0,99889 | 0,99893 | 0,99896 | 0,99900 |
3,1 | 0,99903 | 0,99906 | 0,99910 | 0,99913 | 0,99916 | 0,99918 | 0,99921 | 0,99924 | 0,99926 | 0,99929 |
3,2 | 0,99931 | 0,99934 | 0,99936 | 0,99938 | 0,99940 | 0,99942 | 0,99944 | 0,99946 | 0,99948 | 0,99950 |
3,3 | 0,99952 | 0,99953 | 0,99955 | 0,99957 | 0,99958 | 0,99960 | 0,99961 | 0,99962 | 0,99964 | 0,99965 |
3,4 | 0,99966 | 0,99968 | 0,99969 | 0,99970 | 0,99971 | 0,99972 | 0,99973 | 0,99974 | 0,99975 | 0,99976 |
3,5 | 0,99977 | 0,99978 | 0,99978 | 0,99979 | 0,99980 | 0,99981 | 0,99981 | 0,99982 | 0,99983 | 0,99983 |
3,6 | 0,99984 | 0,99985 | 0,99985 | 0,99986 | 0,99986 | 0,99987 | 0,99987 | 0,99988 | 0,99988 | 0,99989 |
3,7 | 0,99989 | 0,99990 | 0,99990 | 0,99990 | 0,99991 | 0,99992 | 0,99992 | 0,99992 | 0,99992 | 0,99992 |
3,8 | 0,99993 | 0,99993 | 0,99993 | 0,99994 | 0,99994 | 0,99994 | 0,99994 | 0,99995 | 0,99995 | 0,99995 |
3,9 | 0,99995 | 0,99995 | 0,99996 | 0,99996 | 0,99996 | 0,99996 | 0,99996 | 0,99996 | 0,99997 | 0,99997 |
Les deux tables suivantes donnent les valeurs du quantile q p {\displaystyle q_{p}} de la loi normale centrée réduite N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} défini par q p = Φ − 1 ( p ) {\displaystyle q_{p}=\Phi ^{-1}(p)} .
Les valeurs en début de ligne donne la première partie de la variable, les valeurs en début de colonne donne la deuxième partie. Ainsi la case de la deuxième ligne et troisième colonne donne : q 0 , 62 = Φ − 1 ( 0 , 62 ) = 0,305 5 {\displaystyle q_{0{,}62}=\Phi ^{-1}(0{,}62)=0{,}3055}
.q p {\displaystyle q_{p}} | 0,00 | 0,01 | 0,02 | 0,03 | 0,04 | 0,05 | 0,06 | 0,07 | 0,08 | 0,09 |
---|---|---|---|---|---|---|---|---|---|---|
0,50 | 0,0000 | 0,0251 | 0,0502 | 0,0753 | 0,1004 | 0,1257 | 0,1510 | 0,1764 | 0,2019 | 0,2275 |
0,60 | 0,2533 | 0,2793 | 0,3055 | 0,3319 | 0,3585 | 0,3853 | 0,4125 | 0,4399 | 0,4677 | 0,4959 |
0,70 | 0,5244 | 0,5534 | 0,5828 | 0,6128 | 0,6433 | 0,6745 | 0,7063 | 0,7388 | 0,7722 | 0,8064 |
0,80 | 0,8416 | 0,8779 | 0,9154 | 0,9542 | 0,9945 | 1,036 | 1,080 | 1,126 | 1,175 | 1,227 |
0,90 | 1,282 | 1,341 | 1,405 | 1,476 | 1,555 | 1,645 | 1,751 | 1,881 | 2,054 | 2,326 |
Cette table donne les valeurs des quantiles pour p grand.
p | 0,975 | 0,995 | 0,999 | 0,9995 | 0,9999 | 0,99995 | 0,99999 | 0,999995 |
---|---|---|---|---|---|---|---|---|
q p {\displaystyle q_{p}} | 1,9600 | 2,5758 | 3,0902 | 3,2905 | 3,7190 | 3,8906 | 4,2649 | 4,4172 |
Les tables sont données pour les valeurs positives de la loi normale centrée réduite. Grâce aux formules de la fonction de répartition, il est possible d'obtenir d'autres valeurs.
Les valeurs négatives de la fonction de répartition sont données par la formule Φ(–x) = 1 – Φ(x). Par exemple : Φ ( − 1 , 07 ) = P ≈ 1 − 0,857 69 = 0,142 31 {\displaystyle \Phi (-1{,}07)=\mathbb {P} \approx 1-0{,}85769=0{,}14231} pour X ∼ N ( 0 , 1 ) {\displaystyle X\sim {\mathcal {N}}(0,1)} .
Les valeurs de la fonction de répartition de la loi générale s'obtiennent par la formule F ( y ) = Φ ( y − μ σ ) {\displaystyle F(y)=\Phi ({\frac {y-\mu }{\sigma }})} . Par exemple : F ( 12 , 14 ) = P = P = P = Φ ( 1 , 07 ) ≈ 0,857 69 {\displaystyle F(12{,}14)=\mathbb {P} =\mathbb {P} \left=\mathbb {P} =\Phi (1{,}07)\approx 0{,}85769} , pour Y ∼ N ( 10 , 2 2 ) {\displaystyle Y\sim {\mathcal {N}}(10{,}2^{2})} .
La table de valeurs permet également d'obtenir la probabilité qu'une variable aléatoire de loi normale X ∼ N ( 0 , 1 ) {\displaystyle X\sim {\mathcal {N}}(0,1)}
appartienne à un intervalle donné par la formule : P ] = P − P = Φ ( b ) − Φ ( a ) {\displaystyle \mathbb {P} \left\right]=\mathbb {P} -\mathbb {P} =\Phi (b)-\Phi (a)} . Par exemple :Un des intérêts de calculer des probabilités sur des intervalles est l'utilisation des intervalles de confiance pour les tests statistiques. Une loi normale est définie par deux valeurs : sa moyenne μ et son écart type σ. Ainsi il est utile de s'intéresser aux intervalles du type . P = Φ ( r ) − ( 1 − Φ ( r ) ) = 2 Φ ( r ) − 1 {\displaystyle \mathbb {P} =\Phi (r)-(1-\Phi (r))=2\Phi (r)-1} pour Y ∼ N ( μ , σ 2 ) {\displaystyle Y\sim {\mathcal {N}}(\mu ,\sigma ^{2})} .
Table de valeurs des intervalles de confianceLa table suivante s'obtient grâce aux tables précédentes et donne les probabilités : P r = P = 2 Φ ( r ) − 1 pour Y ∼ N ( μ , σ 2 ) {\displaystyle \mathbb {P} _{r}=\mathbb {P} =2\Phi (r)-1{\text{ pour }}Y\sim {\mathcal {N}}(\mu ,\sigma ^{2})} .
r | 0,0 | 0,5 | 1,0 | 1,5 | 2,0 | 2,5 | 3,0 | 3,5 |
---|---|---|---|---|---|---|---|---|
P r {\displaystyle \mathbb {P} _{r}} | 0,00 | 0,3829 | 0,6827 | 0,8664 | 0,9545 | 0,9876 | 0,9973 | 0,9995 |
Cette table de valeurs des intervalles de confiance permet d'obtenir les plages de normalité pour un niveau de confiance donné. Pour Y ∼ N ( μ , σ 2 ) {\displaystyle Y\sim {\mathcal {N}}(\mu ,\sigma ^{2})} :
, le tableau donneL'intervalle est la plage de normalité au niveau de confiance 95.4 % ;
L'intervalle est la plage de normalité au niveau de confiance 95 % (voir 97,5ème centile)
Inversement, lorsque la valeur de la probabilité α ∈ est fixée, il existe une unique valeur r > 0 {\displaystyle r>0} telle que : P ( μ − r σ ≤ Y ≤ μ + r σ ) = 2 Φ ( r ) − 1 = α {\displaystyle \mathbb {P} (\mu -r\sigma \leq Y\leq \mu +r\sigma )=2\Phi (r)-1=\alpha } . L'intervalle est appelé plage de normalité ou intervalle de confiance au niveau de confiance α. Pour une loi normale N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} et le seuil α donnés, la méthode pour retrouver cette valeur r consiste à utiliser le tableau de valeur des quantiles (ci-dessus) pour trouver la valeur r telle que Φ(r) = α + 1/2 ; l'intervalle de confiance est alors .
Par exemple, la plage de normalité au niveau de confiance 95 % d'une loi normale N ( 10 , 2 2 ) {\displaystyle {\mathcal {N}}(10{,}2^{2})}
est l'intervalle où r vérifie Φ(r) = 0,95 + 1/2 = 0,975, soit r = q0,975 ≈ 1,96, l'intervalle est donc : aux arrondis près.Grâce à son rôle central parmi les lois de probabilité et dans les applications, les lois normales possèdent beaucoup de liens avec les autres lois. Certaines lois sont même construites à partir d'une loi normale pour mieux correspondre aux applications.
Lois | en fonction de variables de loi normale |
---|---|
loi du χ² | ∑ i = 1 k ( X i − μ i σ i ) 2 {\displaystyle \sum _{i=1}^{k}\left({\frac {X_{i}-\mu _{i}}{\sigma _{i}}}\right)^{2}} |
loi du χ² non centrée | ∑ i = 1 k ( X i σ i ) 2 {\displaystyle \sum _{i=1}^{k}\left({\frac {X_{i}}{\sigma _{i}}}\right)^{2}} |
loi du χ | ∑ i = 1 k ( X i − μ i σ i ) 2 {\displaystyle {\sqrt {\sum _{i=1}^{k}\left({\frac {X_{i}-\mu _{i}}{\sigma _{i}}}\right)^{2}}}} |
loi du χ non centrée | ∑ i = 1 k ( X i σ i ) 2 {\displaystyle {\sqrt {\sum _{i=1}^{k}\left({\frac {X_{i}}{\sigma _{i}}}\right)^{2}}}} |
Il est à noter que la loi inverse-gaussienne et loi inverse-gaussienne généralisée n'ont pas de lien avec une formule simple créée à partir de variables de loi normale, mais ont une relation avec le mouvement brownien.
Plusieurs généralisations de la loi normale ont été introduites afin de changer sa forme, son asymétrie, son support, etc.
Un nouveau paramètre β > 0 {\displaystyle \beta >0} forme peut être introduit dans une loi normale pour obtenir une loi normale généralisée. Cette famille de lois contient les lois normales, c'est le cas pour β = 2 {\displaystyle \beta =2} , mais également la loi de Laplace pour β = 1 {\displaystyle \beta =1} . La nouvelle densité de probabilité est donnée par f ( x ) = β 2 α Γ ( 1 / β ) e − ( | x − μ | σ ) β {\displaystyle f(x)={\frac {\beta }{2\alpha \Gamma (1/\beta )}}\operatorname {e} ^{-\left({\frac {|x-\mu |}{\sigma }}\right)^{\beta }}} .
dit deIl existe une manière de changer l'asymétrie d'une loi normale afin d'obtenir une loi dite loi normale asymétrique (skew normal distribution en anglais). L'introduction d'un paramètre λ ∈ R {\displaystyle \lambda \in \mathbb {R} } permet d'obtenir une loi normale lorsque λ = 0 {\displaystyle \lambda =0} , une asymétrie vers la droite lorsque λ > 0 {\displaystyle \lambda >0} et une asymétrie vers la gauche lorsque λ < 0 {\displaystyle \lambda <0} . La densité de cette loi est donnée par : f ( x ) = 2 φ ( x ) Φ ( λ x ) {\displaystyle f(x)=2\varphi (x)\Phi (\lambda x)} .
Afin de changer le support d'une loi normale et notamment de le rendre borné, une modification possible de cette loi est de la tronquer. Elle est alors changée d'échelle pour que les parties coupées se répartissent sur l'ensemble des valeurs gardées (à la différence de la loi repliée, voir ci-dessous). La loi normale centrée réduite tronquée en –T et en T a pour support l'intervalle {\displaystyle } et sa fonction de densité se définit par : f ( x ) = { φ ( x ) 2 Φ ( T ) − 1 si x ∈ 0 sinon . {\displaystyle f(x)={\begin{cases}{\frac {\varphi (x)}{2\Phi (T)-1}}&{\text{ si }}x\in \\0&{\text{ sinon }}.\end{cases}}}
Il est également possible de tronquer une loi normale d'un seul côté. Elle est alors appelée « loi normale rectifiée ». Si une variable aléatoire X {\displaystyle X} suit la loi normale N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} , alors max ( X , 0 ) {\displaystyle \max(X,0)} suit la loi normale rectifiée.
Une autre manière de changer le support de la loi normale est de « replier » la densité à partir d'une valeur, la loi obtenue est une loi normale repliée. Les valeurs retirées, par exemple ] − ∞ , 0 -\infty ,0\right-\infty ,0\right : f ( x ) = { 1 σ 2 π exp ( − ( x + μ ) 2 2 σ 2 ) + 1 σ 2 π exp ( − ( x − μ ) 2 2 σ 2 ) si x ≥ 0 0 sinon. {\displaystyle f(x)={\begin{cases}{\frac {1}{\sigma {\sqrt {2\pi }}}}\,\exp \left(-{\frac {(x+\mu )^{2}}{2\sigma ^{2}}}\right)+{\frac {1}{\sigma {\sqrt {2\pi }}}}\,\exp \left(-{\frac {(x-\mu )^{2}}{2\sigma ^{2}}}\right)&{\text{ si }}x\geq 0\\0&{\text{ sinon.}}\end{cases}}}
Une version généralisée de la loi log-normale permet d'obtenir une famille de lois comprenant les lois normales comme cas particulier. La famille est définie à partir de trois paramètres : un paramètre de position μ, un paramètre d'échelle σ et un paramètre de forme κ ∈ R {\displaystyle \kappa \in \mathbb {R} } . Lorsque κ = 0 {\displaystyle \kappa =0} , cette loi log-normale généralisée est la loi normale. La densité est donnée par : f ( x ) = φ ( y ) α − κ ( x − ξ ) {\displaystyle f(x)={\frac {\varphi (y)}{\alpha -\kappa (x-\xi )}}} , où y = { − 1 κ log si κ ≠ 0 x − ξ α si κ = 0. {\displaystyle y={\begin{cases}-{\frac {1}{\kappa }}\log \left&{\text{si }}\kappa \neq 0\\{\frac {x-\xi }{\alpha }}&{\text{si }}\kappa =0.\end{cases}}}
![]() |
![]() |
![]() |
![]() |
![]() |
Un mélange gaussien est une loi de probabilité dont la densité est définie par une combinaison linéaire de deux densités de lois normales. Si l'on note f 1 {\displaystyle f_{1}} la densité de N ( μ 1 , σ 1 2 ) {\displaystyle {\mathcal {N}}(\mu _{1},\sigma _{1}^{2})} et f 2 {\displaystyle f_{2}} la densité de N ( μ 2 , σ 2 2 ) {\displaystyle {\mathcal {N}}(\mu _{2},\sigma _{2}^{2})} , alors λ f 1 + ( 1 − λ ) f 2 {\displaystyle \lambda f_{1}+(1-\lambda )f_{2}} est la densité d'une loi de probabilité dite mélange gaussien.
Il ne faut pas confondre la combinaison linéaire de deux variables aléatoires indépendantes de loi normale, qui reste une variable gaussienne, et la combinaison linéaire de leurs deux densités, qui permet d'obtenir une loi qui n'est pas une loi normale.
Les modes des deux lois normales sont donnés par μ1 et μ2, le mélange gaussien est alors une loi bimodale. Ses maxima locaux sont proches de mais non égaux aux valeurs μ1 et μ2.
GénéralitésIl est possible de construire d'autres densités de probabilité grâce à la densité φ {\displaystyle \varphi } Harald Cramér énonce en 1926 un résultat général : si une densité de probabilité g {\displaystyle g} est deux fois dérivable, si l'intégrale ∫ ( g ″ ( x ) ) 2 e x 2 / 2 d x {\displaystyle \int (g''(x))^{2}{\rm {e}}^{x^{2}/2}\,\mathrm {d} x} converge et si lim + ∞ g = lim − ∞ g = 0 {\displaystyle \lim _{+\infty }g=\lim _{-\infty }g=0} , alors la fonction g {\displaystyle g} peut être développée en une série absolument et uniformément convergente en fonction des dérivées de la densité de la loi normale centrée réduite et des polynômes d'Hermite H k {\displaystyle H_{k}} : g ( x ) = ∑ k = 0 ∞ 1 k ! φ ( k ) ( x ) ∫ g ( y ) H k ( y ) d y {\displaystyle g(x)=\sum _{k=0}^{\infty }{\frac {1}{k!}}\varphi ^{(k)}(x)\int g(y)H_{k}(y)~{\rm {d}}y} .
de la loi normale centrée réduite.Historiquement, les lois normales sont introduites lors d'études d'objets célestes ou de jeux de hasard. Elles sont ensuite étudiées et généralisée mathématiquement puis elles sont utilisées dans de nombreuses autres applications : en mathématiques, dans d'autres sciences exactes, dans des sciences plus appliquées ou des sciences humaines et sociales. Voici une sélection d'exemples.
Au XIXe siècle, pour améliorer les précisions des tirs de l'artillerie, de nombreux tirs de canons sont réalisés. Il est observé que la direction et la portée sont assimilables à des lois normales. Cette compréhension permet de mieux entraîner les servants pour régler les tirs. Ces lois normales proviennent de différents facteurs comme les conditions climatiques, mais également de l'usure du matériel militaire. La dispersion des points d'impact, et donc de la loi, renseigne sur l'état du matériel et sur le nombre éventuel de tirs anormaux. L'ajustement à une loi normale est alors effectué par le test de Lhoste sur une série de 200 tirs. Le mathématicien Jules Haag applique la méthode pour 2 680 tirs de différentes portées et de différentes directions.
Le quotient intellectuel (QI) a pour objectif de donner une valeur numérique à l'intelligence humaine. En 1939, David Wechsler donne une définition à ce quotient de manière statistique. Une note de 100 est donnée à la moyenne des valeurs obtenues dans une population de même âge et 15 points sont retranchés pour un écart égal à l'écart type obtenu à partir des valeurs de la population testée. Pour cette raison, en pratique, la courbe de répartition du QI est modélisée par la courbe en cloche de la loi normale centrée en 100 et d'écart type 15 : N ( 100 , 15 2 ) {\displaystyle {\mathcal {N}}(100,\ 15^{2})} . Cependant cette modélisation est remise en cause par certains scientifiques. En effet, les résultats des tests dépendraient des classes sociales ; la population ne serait donc plus homogène, c'est-à-dire que la propriété d'indépendance des individus ne serait pas vérifiée. Le quotient intellectuel ne serait alors qu'une approximation de mesure de l'intelligence humaine dont on ne connaît pas l'erreur.
Un caractère observable et mesurable dans une population d'individus comparables a souvent une fréquence modélisée par une loi normale. C'est le cas par exemple de la taille humaine pour un âge donné (en séparant les hommes et les femmes), de la taille des becs dans une population d'oiseaux comme les pinsons de Darwin étudiés par Darwin. Plus précisément, un caractère mesurable dans une population peut être modélisé à l'aide d'une loi normale s'il est codé génétiquement par de nombreux allèles ou par de nombreux loci ou si le caractère dépend d'un grand nombre d'effets environnementaux.
Les courbes de croissance données par l'OMS, et présentes par exemple dans les carnets de santé, sont issues de modélisations grâce à une loi normale. Grâce à une étude détaillée des centiles mesurés dans une population d'âge fixé et grâce à des tests statistiques d'adéquation, les répartitions du poids et de la taille par tranche d'âge ont été modélisées par des lois de probabilité. Parmi ces lois on retrouve les lois normales, la loi normale de Box-Cox (en) (généralisation de la loi normale), la loi Student de Box-Cox (généralisation de la loi normale de Box-Cox) ou encore la loi exponentielle-puissance de Box-Cox. Graphiquement, pour chaque âge, c'est-à-dire pour chaque axe vertical, la médiane m est représentée (elle donne la courbe centrale) et les deux valeurs de m + σ et m – σ où σ est l'écart type, donnent les deux courbes et ainsi représentent l'évolution d'un intervalle de fluctuation.
Lorsqu'un signal est transmis, une perte d'information apparaît à cause du moyen de transmission ou du décodage du signal. Lorsqu'une mesure physique est effectuée, une incertitude sur le résultat peut provenir d'une imprécision de l'appareil de mesure ou d'une impossibilité à obtenir la valeur théorique. Une méthode pour modéliser de tels phénomènes est de considérer un modèle déterministe (non aléatoire) pour le signal ou la mesure et d'y ajouter ou multiplier un terme aléatoire qui représente la perturbation aléatoire, parfois appelée erreur ou bruit. Dans beaucoup de cas cette erreur additive est supposée de loi normale, de loi log-normale dans le cas multiplicatif. C'est le cas, par exemple, pour la transmission d'un signal à travers un câble électrique. Lorsque le processus dépend du temps, le signal ou la mesure est alors modélisé grâce à un bruit blanc (voir ci-dessus).
En traitement d'images, une loi normale est utilisée pour améliorer les images et notamment diminuer le bruit, c'est-à-dire les imperfections de l'image. Un lissage grâce à un filtre gaussien est alors utilisé.
Les prix de certaines denrées sont données par une bourse, c'est le cas du cours du blé, du coton brut ou de l'or. Au temps t {\displaystyle t} , le prix Z ( t ) {\displaystyle Z(t)} évolue jusqu'au temps t + T {\displaystyle t+T} par l'accroissement Z ( t + T ) − Z ( t ) {\displaystyle Z(t+T)-Z(t)} . En 1900, Louis Bachelier postule que cet accroissement suit une loi normale de moyenne nulle et dont la variance dépend de t {\displaystyle t} et T {\displaystyle T} . Cependant ce modèle satisfait peu l'observation faite des marchés financiers. D'autres mathématiciens proposent alors d'améliorer ce modèle en supposant que c'est l'accroissement ln Z ( t + T ) − ln Z ( t ) {\displaystyle \ln Z(t+T)-\ln Z(t)} qui suit une loi normale, c'est-à-dire que l'accroissement du prix suit une loi log-normale. Cette hypothèse est à la base du modèle et de la formule de Black-Scholes utilisés massivement par l'industrie financière.
Ce modèle est encore amélioré, par Benoît Mandelbrot notamment, en supposant que l'accroissement suit une loi stable (la loi normale est un cas particulier de loi stable). Il apparaît alors le mouvement brownien dont l'accroissement est de loi normale et le processus de Lévy (stable) dont l'accroissement stable pour modéliser les courbes des marchés.
Les lois normales sont utilisées dans plusieurs domaines des mathématiques. Le bruit blanc gaussien est un processus stochastique tel qu'en tout point, le processus est une variable aléatoire de loi normale indépendante du processus aux autres points. Le mouvement brownien ( B ( t ) , t ≥ 0 ) {\displaystyle (B(t),t\geq 0)} est un processus stochastique dont les accroissements sont indépendants, stationnaires et de loi normale. Notamment pour une valeur t > 0 {\displaystyle t>0} fixée, la variable aléatoire B ( t ) {\displaystyle B(t)} suit la loi normale N ( 0 , t ) {\displaystyle {\mathcal {N}}(0,t)} . Ce processus aléatoire possède de nombreuses applications, il fait un lien entre l'équation de la chaleur et la loi normale. Lorsque l'extrémité d'une tige métallique est chauffée pendant un court instant, la chaleur se propage le long de la tige sous la forme d'une courbe en cloche.
Les lois normales ont également des applications dans des domaines mathématiques non aléatoires comme la théorie des nombres. Tout nombre entier n peut s'écrire comme un produit de puissances de nombres premiers. Notons ω ( n ) {\displaystyle \omega (n)} le nombre de nombres premiers différents dans cette décomposition. Par exemple, puisque 60 = 2 2 × 3 × 5 {\displaystyle 60=2^{2}\times 3\times 5} , ω ( 60 ) = 3 {\displaystyle \omega (60)=3} . Le théorème d'Erdős-Kac assure que cette fonction n ↦ ω ( n ) {\displaystyle n\mapsto \omega (n)} pour n ≤ N {\displaystyle n\leq N} est apparentée à la densité d'une loi normale N ( ln ln ( N ) , ln ln ( N ) ) {\displaystyle {\mathcal {N}}\left(\ln \ln(N),{\sqrt {\ln \ln(N)}}\right)} . C'est-à-dire que pour un grand nombre de l'ordre de 1000000000 = 10 9 {\displaystyle 1000000000=10^{9}} , il y a une forte probabilité pour que le nombre de diviseurs premiers soit 3, puisque ln ln ( 10 9 ) ≈ 3 , 03 {\displaystyle \ln \ln(10^{9})\approx 3{,}03} .
Il est important de savoir si des valeurs sont distribuées suivant une loi normale. Quelques critères peuvent être étudiés avant de réaliser un test statistique (voir la section Tests de normalité ci-dessous).
Le premier critère, le plus simple, consiste à tracer le diagramme en bâtons de la distribution et à vérifier visuellement si le diagramme est en forme de « cloche ». Ce critère, subjectif, permet cependant d'éliminer une partie des distributions jugées alors non gaussiennes.
De manière plus précise, l'utilisation des plages de normalité permet de comparer avec les fréquences observées facilement calculables. Le critère consiste à utiliser les plages de normalité ou intervalles de confiance. Lorsque des valeurs suivent la loi normale :
Si ce n'est pas le cas, le choix de modéliser la loi des valeurs observées par la loi normale n'est pas conseillé.
La droite de Henry permet de faire un ajustement des valeurs observées avec une loi normale. C'est-à-dire qu'en représentant la droite de Henry, il est possible de porter un diagnostic sur la nature normale ou non de la distribution et, dans le cas où celle-ci a des chances d'être normale, elle permet d'en déterminer la moyenne et l'écart type. Les valeurs ( x i , i ≤ n ) {\displaystyle (x_{i},i\leq n)} sont observées et représentées par leur fonction de répartition empirique F n {\displaystyle F_{n}} . Elles sont gaussiennes si les points ( x i , F n ( x i ) ) {\displaystyle (x_{i},F_{n}(x_{i}))} représentés sur un papier gausso-arithmétique sont alignés suivant une droite dite de Henri. Un papier gausso-arithmétique est gradué avec une échelle arithmétique en abscisse et graduée suivant l'inverse de la fonction de répartition de la loi normale centrée réduite Φ − 1 {\displaystyle \Phi ^{-1}} en ordonnée.
Ces critères sont nécessaires mais non suffisants. Cependant, il ne suffit pas de remplir les critères pour affirmer que les valeurs suivent la loi normale.
Grâce à son rôle dans le théorème central limite, les lois normales se retrouvent dans de nombreux tests statistiques dits gaussiens ou asymptotiquement gaussiens. L'hypothèse dite de normalité est faite sur une loi a priori dans un test d'adéquation pour indiquer que cette loi suit, approximativement, une loi normale. Il existe plusieurs tests de normalité.
Lorsqu'un phénomène aléatoire est observé et qu'il est considéré comme pouvant être modélisé par une loi normale, une des questions que l'on peut se poser est : que valent les paramètres μ et σ de la loi normale N ( μ , σ 2 ) {\displaystyle {\mathcal {N}}(\mu ,\sigma ^{2})} moyenne arithmétique et de la moyenne des carrés sont également utiles : S n = 1 n ( X 1 + X 2 + ⋯ + X n ) {\displaystyle S_{n}={\frac {1}{n}}(X_{1}+X_{2}+\dots +X_{n})} et T n − 1 2 = 1 n − 1 ∑ k = 1 n ( X k − S n ) 2 {\displaystyle T_{n-1}^{2}={\frac {1}{n-1}}\sum _{k=1}^{n}(X_{k}-S_{n})^{2}} . Ces deux valeurs sont respectivement des estimateurs de la moyenne et de la variance qui se calculent à partir des valeurs observées. Puisque les variables X 1 , X 2 , … , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} sont de loi normale, alors S n {\displaystyle S_{n}} est de loi N ( μ , σ 2 n ) {\displaystyle {\mathcal {N}}(\mu ,{\frac {\sigma ^{2}}{n}})} et n − 1 σ 2 T n − 1 2 {\displaystyle {\frac {n-1}{\sigma ^{2}}}T_{n-1}^{2}} est indépendante de Sn et de loi du χ² à n – 1 degrés de liberté.
Estimation de la moyenne μ (lorsque l'écart type σ est connu) ? Une estimation est alors à effectuer. Les observations récupérées lors de l'observation du phénomène sont notées par des variables aléatoires X 1 , X 2 , … , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} , les notations de laUne méthode est de chercher un intervalle de confiance à un seuil α autour de la moyenne théorique μ. En utilisant les quantiles d'ordre α 2 {\displaystyle {\frac {\alpha }{2}}} : P ( S n − σ n q α / 2 ≤ μ ≤ S n + σ n q α / 2 ) ≥ 1 − α {\displaystyle \mathbb {P} \left(S_{n}-{\frac {\sigma }{\sqrt {n}}}q_{\alpha /2}\leq \mu \leq S_{n}+{\frac {\sigma }{\sqrt {n}}}q_{\alpha /2}\right)\geq 1-\alpha } . Grâce aux valeurs observées et aux tables numériques de la loi normale centrée réduite (voir la table), il est alors possible de donner les valeurs numériques de l'intervalle {\displaystyle \left} , intervalle de confiance pour μ au seuil α.
Estimation de la moyenne μ (lorsque l'écart type σ est inconnu) et 1 − α 2 {\displaystyle 1-{\frac {\alpha }{2}}} , la formule définissant les quantiles permet d'obtenirUne méthode est d'utiliser une variable intermédiaire qui peut s'écrire à l'aide de nouvelles variables aléatoires U = S n − μ σ / n {\displaystyle U={\frac {S_{n}-\mu }{\sigma /{\sqrt {n}}}}} loi de Student t ( n − 1 ) {\displaystyle t(n-1)} . En utilisant les quantiles d'ordre α 2 {\displaystyle {\frac {\alpha }{2}}} et 1 − α 2 {\displaystyle 1-{\frac {\alpha }{2}}} , la formule définissant les quantiles permet d'obtenir : P ( S n + T n − 1 n q α / 2 ≤ μ ≤ S n − T n − 1 n q α / 2 ) ≥ 1 − α {\displaystyle \mathbb {P} \left(S_{n}+{\frac {T_{n-1}}{\sqrt {n}}}q_{\alpha /2}\leq \mu \leq S_{n}-{\frac {T_{n-1}}{\sqrt {n}}}q_{\alpha /2}\right)\geq 1-\alpha } . Grâce aux valeurs observées et aux tables numériques des lois de Student, il est alors possible de donner les valeurs numériques de l'intervalle {\displaystyle \left} , intervalle de confiance pour μ au seuil α.
Estimation de l'écart type σ (lorsque la moyenne μ est inconnue) de loi N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)} et V = n − 1 σ 2 T n − 1 2 {\displaystyle V={\frac {n-1}{\sigma ^{2}}}T_{n-1}^{2}} de loi χ 2 ( n − 1 ) {\displaystyle \chi ^{2}(n-1)} : n S n − μ T n − 1 = U n − 1 V {\displaystyle {\sqrt {n}}{\frac {S_{n}-\mu }{T_{n-1}}}={\frac {U{\sqrt {n-1}}}{\sqrt {V}}}} est deLa méthode est la même que la précédente. L'introduction de la variable aléatoire T n − 1 2 n − 1 σ 2 {\displaystyle T_{n-1}^{2}{\frac {n-1}{\sigma ^{2}}}} loi du χ² à n – 1 degrés de liberté permet d'obtenir : P ( T n − 1 2 n − 1 q 1 − α / 2 ≤ σ ≤ T n − 1 2 n − 1 q α / 2 ) ≥ 1 − α {\displaystyle \mathbb {P} \left({\sqrt {T_{n-1}^{2}{\frac {n-1}{q_{1-\alpha /2}}}}}\leq \sigma \leq {\sqrt {T_{n-1}^{2}{\frac {n-1}{q_{\alpha /2}}}}}\right)\geq 1-\alpha } où q 1 − α / 2 {\displaystyle q_{1-\alpha /2}} et q α / 2 {\displaystyle q_{\alpha /2}} sont les quantiles de la loi du χ2 à n – 1 degrés de liberté que l'on peut obtenir à partir de la table numérique du χ2. L'intervalle {\displaystyle \left} est l'intervalle de confiance au seuil α.
dePour étudier un phénomène aléatoire dans lequel intervient une variable normale dont les paramètres sont connus ou estimés, une approche analytique est souvent trop complexe à développer. Dans un tel cas, il est possible de recourir à une méthode de simulation, en particulier à la méthode de Monte-Carlo qui consiste à générer un échantillon artificiel de valeurs indépendantes de la variable, ceci à l'aide d'un ordinateur. Les logiciels ou les langages de programmation possèdent en général un générateur de nombres pseudo-aléatoires ayant une distribution uniforme sur ]0, 1 0 , 1 0,10,1, alors la variable ∑ k = 1 12 U k − 6 {\displaystyle \sum _{k=1}^{12}U_{k}-6} est de moyenne nulle et d'écart type unitaire. Ainsi, grâce au théorème central limite, cette variable suit approximativement la loi normale centrée réduite. C'est une manière simple de générer une loi normale, cependant l'approximation reste imprécise.
Par son utilisation généralisée dans les sciences, une loi normale, souvent par l'utilisation de la courbe en cloche, est mise en avant dans différents contextes et est utilisée pour représenter l'universalité d'une répartition statistique, entre autres.
Francis Galton parle des lois normales dans son œuvre Natural Inheritence de 1889 en ces termes élogieux :
« Je ne connais rien d'autre si propre à frapper l'imagination que cette merveilleuse forme d'ordre cosmique donnée par la Loi de Fréquence des Erreurs... Elle règne avec sérénité et en toute abnégation au milieu de la confusion sauvage. »
En 1989, un hommage est rendu à Carl Friedrich Gauss en imprimant un billet à son effigie, la courbe en cloche est également présente sur le billet. Des pierres tombales portent le signe de la courbe en cloche, c'est le cas pour certains mathématiciens.
Le statisticien William J. Youden écrit en 1962 une explication du but et de la position des lois normales dans les sciences. Il la présente en calligramme sous forme de courbe en cloche : |
THE |
« La loi normale des erreurs se distingue dans l'expérience de l'humanité comme une des plus larges généralisations de la philosophie naturelle ♦ Elle sert de guide dans la recherche en sciences physique et sociale, en médecine, en agriculture et en ingénierie ♦ C'est un outil indispensable pour l'analyse et l'interprétation des données de base obtenues par l'observation et l'expérience. » |
: document utilisé comme source pour la rédaction de cet article.