Théorie des probabilités

Infos
Courbes de probabilité. La Théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude. Les objets centraux de la théorie des probabilités sont les variables aléatoires, les processus stochastiques, et les évènements: ils traduisent de manière abstraite des évènements non déterministes ou des quantités mesurées qui peuvent parfois évoluer dans le temps d'une manière apparemment aléatoire. En tant que fondeme
Théorie des probabilités

Courbes de probabilité. La Théorie des probabilités est l'étude mathématique des phénomènes caractérisés par le hasard et l'incertitude. Les objets centraux de la théorie des probabilités sont les variables aléatoires, les processus stochastiques, et les évènements: ils traduisent de manière abstraite des évènements non déterministes ou des quantités mesurées qui peuvent parfois évoluer dans le temps d'une manière apparemment aléatoire. En tant que fondement mathématique des statistiques, la théorie des probabilités est essentielle à la plupart des activités humaines qui nécessitent une analyse quantitative d'un grand nombre de mesures. Les méthodes de la théorie des probabilités s'appliquent également à la description de systèmes complexes dont on ne connait qu'en partie l'état, comme en mécanique statistique. Une grande découverte de la physique du vingtième siècle fut la nature probabiliste de phénomènes physiques à une échelle microscopique, décrite par la mécanique quantique.

Historique

La théorie mathématique des probabilités trouve ses origines dans l'analyse de jeux de hasard par Gerolamo Cardano au seizième siècle, et par Pierre de Fermat et Blaise Pascal au dix-septième siècle. Bien qu'un simple pile ou face ou un lancer de dès soit un évènement aléatoire, en les répétant de nombreuses fois on obtient une série de résultats qui va posséder certaines propriétés statistiques, que l'on peut étudier et prévoir. Deux résultats mathématiques fondamentaux à ce propos sont la loi des grands nombres et le théorème de la limite centrale. Initialement, la théorie des probabilités considérait surtout les évènements discrets, et ses méthodes étaient principalement combinatoires. Mais des considérations analytiques ont forcé l'introduction de variables aléatoires continues dans la théorie. Cette idée prend tout son essor dans la théorie moderne des probabilités, dont les fondations ont été posées par Andreï Nikolaevich Kolmogorov. Kolmogorov combina la notion d'univers, introduite par Richard von Mises et la théorie de la mesure pour présenter son système d'axiomes pour la théorie des probabilités en 1933. Très vite, son approche devint la base incontestée des probabilités modernes.

Théorie des probabilités discrète

La théorie discrète des probabilités s'occupe d'évènements dans le cadre d'un univers dénombrable. Exemples: Lancer de dés, expériences avec des paquets de cartes, et marche aléatoire. Définition classique: Initialement, la probabilité d'un évènement était définie comme le nombre de cas favorables pour l'évènement, divisé par le nombre total d'issues possibles à l'expérience aléatoire. Par exemple, si l'évènement est obtenir un nombre pair en lançant le dès, sa probabilité est donnée par \tfrac=\tfrac, puisque trois faces sur six ont un nombre pair. Définition moderne : La définition moderne commence par un ensemble appelé univers, qui correspond à l'ensemble des issues possibles à l'expérience dans la définition classique. Il est noté \Omega=\left \ x_1, x_2, \dots\right \. Ensuite, on a besoin d'une fonction f définie sur \Omega, qui va associer à chaque élément de \Omega sa probabilité, satisfaisant donc les propriétés suivantes :
-f(x)\in\mboxx\in \Omega
-\sum_x\in \Omega f(x) = 1 On définit ensuite un évènement comme un ensemble d'issues, c'est à dire un sous-ensemble de \Omega. La probabilité d'un évènement E est alors définie de manière naturelle par : :P(E)=\sum_x\in E f(x)\, Ainsi, la probabilité de l'univers est 1, et la probabilité de l'évènement nul (l'ensemble vide) est 0. Pour revenir à l'exemple du lancer dès, on peut modéliser cette expérience en se donnant un univers \Omega=\1;2;3;4;5;6\ correspondant aux valeurs possibles du dé, et une fonction f qui à chaque i\in\Omega associe f(i)=\tfrac.

Théorie des probabilités continue

La théorie des probabilités continue s'occupe des évènements qui se produisent dans un univers continu (par exemple la droite réelle). Définition classique: La définition classique est mise en échec lorsqu'elle est confrontée au cas continu (cf. paradoxe de Bertrand). Définition moderne Si l'univers est la droite réelle \mathbb, alors on assume l'existence d'une fonction appelée fonction de répartition F\, , qui donne P(X\le x) = F(x)\, pour une variable aléatoire X. Autrement dit, F(x) retourne la probabilité que X soit inférieur ou égal à x. La fonction de répartition doit satisfaire les propriétés suivantes :
-F\, est une fonction croissante et continue à droite.
-\lim_x\rightarrow -\infty F(x)=0
-\lim_x\rightarrow \infty F(x)=1 Si F\, est dérivable, alors on dit que la variable aléatoire X a une densité de probabilité f(x)=\frac\, . Pour un ensemble E \subseteq \mathbb, la probabilité que la variable aléatoire X soit dans E\, est définie comme : :P(X\in E) = \int_x\in E dF(x)\, Si la densité de probabilité existe, on peut alors la réécrire : :P(X\in E) = \int_x\in E f(x)\, dx Tandis que la densité de probabilité n'existe que pour les variables aléatoires continues, la fonction de répartition existe pour toute variable aléatoire (y compris les variables discrètes) à valeurs dans \mathbb. Ces concepts peuvent être généralisés dans les cas multidimensionnel sur \mathbb^n et d'autres univers continus.

La théorie des probabilités aujourd'hui

Certaines distributions peuvent être un mélange de distributions discrètes et continues, et donc n'avoir ni densité de probabilité ni fonction de masse. La distribution de Cantor constitue un tel exemple. L'approche moderne des probabilités résout ces problèmes par l'utilisation de la théorie de la mesure pour définir un espace probabilisé: Étant donné un ensemble \Omega\, (appelé aussi univers) muni d'une σ-algèbre \mathcal\, , une mesure \mu\, est appelée mesure de probabilité si:
-\mu\, est une mesure positive
-\mu(\Omega)=1\, Pour chaque fonction de répartition il existe une unique mesure de probabilité sur les boréliens, et vice versa. La mesure correspondant à une fonction de répartition est dite induite par la fonction. Dans le cas continu, cette mesure coïncide avec la mesure fd\lambda avec \lambda la mesure de Lebesgue si f est la densité de probabilité associée à la fonction de répartition (qui n'existe pas forcément) tandis que dans le cas discret, elle coïncide avec la fonction f définie précédemment. En plus de permettre une meilleure compréhension et une unification des théories discrètes et continues des probabilités, l'approche de la théorie de la mesure nous permet aussi de parler de probabilités en dehors de \mathbb^n, notamment dans la théorie des processus stochastiques. Par exemple pour l'étude du mouvement brownien, la probabilité est définie sur un espace de fonctions.

Lois de probabilité

Certaines variables aléatoires sont fréquemment rencontrées en théorie des probabilités car on les retrouve dans de nombreux processus naturels. Leur loi ont donc une importance particulière. Les lois discrètes les plus fréquentes sont la loi uniforme discrète, la loi de Bernoulli, ainsi que les lois binomiale, de Poisson et géométriques. Les lois uniforme continue, normale, exponentielle et gamma sont parmi les plus importantes lois continues.

Convergence de variables aléatoires

En théorie des probabilités, il y a plusieurs notions de convergence pour les variable aléatoire. En voici la liste: :Convergence en loi: une suite de variables aléatoires (X_n)_n\in\mathbb converge en loi vers la variable aléatoire X\, si et seulement si la suite des mesures images (\mu_)_n\in\mathbb converge étroitement vers la mesure image \mu_X. En particulier dans le cas réel, il suffit que les fonctions de répartitions convergent simplement vers la fonction de répartition de X. :Convergence en probabilités: (X_n)_n\in\mathbb converge en probabilités vers X\, ssi \forall \epsilon >0, \lim_n\rightarrow\inftyP\left(\left|X_n-X\right|\geq\varepsilon\right)=0. Cette convergence implique la convergence en loi. :Convergence presque sûre: (X_n)_n\in\mathbb converge presque sûrement vers X\, ssi P(\\omega/\lim_n\rightarrow\infty X_n(\omega)=X(\omega)\)=1.. Elle implique la convergence en probabilités, donc la convergence en loi. :Convergence dans \mathcal^1: (X_n)_n\in\mathbb converge dans \mathcal^1 vers X\, ssi \lim_n\rightarrow\inftyE(|X_n-X|)=0. Elle implique aussi la convergence en probabilités.

Voir aussi

===
Sujets connexes
Analyse (mathématiques)   Andreï Kolmogorov   Axiomes des probabilités   Blaise Pascal   Combinatoire   Densité de probabilité   Dimension     Ensemble   Ensemble vide   Escalier de Cantor   Espace probabilisé   Fonction de répartition   Gerolamo Cardano   Loi binomiale   Loi de Bernoulli   Loi de Poisson   Loi de probabilité   Loi des grands nombres   Loi exponentielle   Loi géométrique   Loi normale   Loi uniforme continue   Loi uniforme discrète   Mathématiques   Mesure de Lebesgue   Mouvement brownien   Mécanique quantique   Nombre réel   Paradoxe de Bertrand   Physique   Pierre de Fermat   Probabilité   Processus stochastique   Richard von Mises   Semi-continuité   Statistiques   Théorie de la mesure   Théorie des probabilités   Théorème de la limite centrale   Variable aléatoire  
#
Accident de Beaune   Amélie Mauresmo   Anisocytose   C3H6O   CA Paris   Carole Richert   Catherinettes   Chaleur massique   Championnat de Tunisie de football D2   Classement mondial des entreprises leader par secteur   Col du Bonhomme (Vosges)   De viris illustribus (Lhomond)   Dolcett   EGP  
^