Analyse de risques : Identification et estimation : Outils quantitatifs d'estimation de risques
CoursOutils transverses

Système de variables aléatoires continues

Fondamental :

Soit X= (X1,...,Xn)T un vecteur aléatoire à valeurs dans Rn. La loi de probabilité de X est définie par une fonction de répartition conjointe :

où pX() est la densité de probabilité conjointe telle que 

L'espérance mathématique de X est est l'espérance mathématique de la variable aléatoire Xi :

La matrice de variance-covariance est une matrice carrée symétrique, définie par :

Les coefficients de corrélations sont définis par , si et sont les écarts-type des variables Xi et Xj.

La densité de probabilité marginale de la variable Xi est donnée par :

Indépendance de deux variables aléatoires

Définition :

Si X et Y sont deux variables indépendantes de densités de probabilité marginales respectives pX et pY, alors :

avec pXY(x,y)=pX(x)pY(y). Le coefficient de corrélation est alors nul. La réciproque n'est pas vraie : la valeur nulle de n'implique pas l'indépendance de X et Y au sens large, mais seulement l'indépendance de leur valeurs moyennes. Par extension, l'indépendance de n variables aléatoires est vraie si l'on peut écrire la densité de probabilité conjointe comme le produit des densités marginales.

Inversement Y est corrélée à X si la valeur moyenne de Y à X fixé E(Y|X=x) dépend de x. Cette notion permet de définir une mesure dissymétrique appelée rapport de corrélation :

en l'absence de dépendance en moyenne, s'il existe une liaison fonctionnelle entre Y et X (Y=f(X)). Lorsque la dépendance en moyenne est linéaire E(Y|X)=a+bX, ou E(X|Y)=c+dY, ce qui est le cas lorsque le couple (X,Y) est gaussien, le coefficient de corrélation se confond avec le rapport de corrélation.

Remarque :

La notion de corrélation est assez intuitive, même si la mise en forme mathématique recèle des difficultés certaines : ainsi on imagine assez facilement que les propriétés mécaniques et de transfert du béton soient liées et qu'un béton plus résistant soit généralement moins poreux (c'est par exemple ce qui admis dans les recommandations de l'Eurocode 2). Cependant, en l'absence de certitude sur leur dépendance mutuelle, apportée par l'expérience et la modélisation, on se reporte à l'analyse statistique de ces propriétés, avec un nombre de données qui restent souvent faible.

Vecteur aléatoire gaussien

Définition :

X est un vecteur Gaussien à n dimensions si toute combinaison linéaire de ses composantes suit une loi gaussienne à une dimension. Le théorème de Cramer-Wold permet d'établir que la loi d'un vecteur aléatoire est parfaitement déterminée dès lors que sont connues celles de toutes les combinaisons linéaires de ses composantes. La normalité de chacune des composantes ne suffit nullement pour définir un vecteur gaussien.

Les variables aléatoires composantes d'un vecteur gaussien X sont indépendantes si et seulement si la matrice de covariance   est diagonale, c'est à dire si elles sont non corrélées. Si est régulière, X admet pour densité de probabilité la loi multi-normale :

La loi multi-normale centrée réduite et sans corrélation est donnée par :

L'utilisation de vecteur aléatoire gaussien est assez fréquente, pour des raisons de commodité, même si elle n'est pas toujours justifiée.

Transformation linéaire sur un vecteur aléatoire

Définition :

Si Y est lié à X par la relation linéaire Y=AX où A est une matrice alors :

Si A est une matrice carrée régulière, la densité de probabilité de Y existe si celle de X existe et est donnée par :

Transformation d'un vecteur aléatoire en un vecteur aléatoire centré réduit et à composantes non corrélées

Définition :

La matrice de variance-covariance étant symétrique positive, elle peut s'écrire sous la forme où  est définie à une transformation orthogonale près (si convient, , où U est orthogonale c'est à dire UUT=I, convient aussi).

Une solution particulière est fournie par :

où D est la matrice des vecteurs propres normés de , et L la matrice diagonale des valeurs propres de .

Si est régulière, (un choix particulièrement intéressant de étant permet de "normaliser" le vecteur aléatoire X, i.e le vecteur est un vecteur de matrice de variance-covariance égale à l'identité.

Transformation de Mahalanobis : est supposée régulière, on prend ,

est alors un vecteur aléatoire centré, réduit à composantes non corrélées.

Conclusion (page suivante)Exercice démonstratif : variables aléatoires (page Précédente)
AccueilImprimerRéalisé avec SCENARI