Probabilité

Infos
La probabilité (du latin probare, « prouver », « tester ») est une évaluation du caractère probable d'un événement. En mathématiques l'étude des probabilités est un sujet de grande importance donnant lieu à de nombreuses applications. L'étude des probabilités, relativement récent dans l'histoire des mathématiques, a connu de nombreux développements au cours des trois derniers sciècles. L'étude de l'aspect alétoire et en partie imprév
Probabilité

La probabilité (du latin probare, « prouver », « tester ») est une évaluation du caractère probable d'un événement. En mathématiques l'étude des probabilités est un sujet de grande importance donnant lieu à de nombreuses applications. L'étude des probabilités, relativement récent dans l'histoire des mathématiques, a connu de nombreux développements au cours des trois derniers sciècles. L'étude de l'aspect alétoire et en partie imprévisible de certains phénomènes, en particulier les jeux de hasard, a conduit les mathématiciens à développer une théorie qui a ensuite eu des implications dans des domaines aussi variées que la météorologie, la finance ou la chimie. Cette article est une approche simplifiée des conceptes et résultats d'importance en probabilité.

Histoire

Contrairement à ce que l'on pourait penser de prime abord l'étude scientifique des probabilités est relativement récent dans l'histoire des mathématiques. D'autres domaines tels que la géométrie, l'arithmétique, l'algèbre ou l'astronomie faisaient l'objet d'étude mathématique durant l'Antiquité mais on ne trouve pas de trace de textes mathématiques sur les probabilités. La notion de "risque" n'est apparue qu'au pour l'évaluations de contrats commerciaux avec le Traité des contrats de Pierre de Jean Olivi, http://www.jehps.net/Juin2007/Piron_incertitude.pdf, Journ@l Electronique d’Histoire des Probabilités et de la Statistique et s'est développée au avec la généralisation des contrats d'assurance maritime. http://www.jehps.net/Juin2007/Ceccarelli_Risk.pdf, Journ@l Electronique d’Histoire des Probabilités et de la Statistique. Il faudra pourant attendre le et la correspondance entre Blaise Pascal et Pierre de Fermathttp://www.math93.com/abrege_dhistoire_des_maths.html, chronologie de l'histoire des mathématiqueshttp://mathenjeans.free.fr/amej/edition/actes/actespdf/94207214.pdf, un article sur la correspondance entre fermat et pascal pour un début de traitement scientifique du sujet autour de petits problèmes sur des jeux de hasard.

Les probabilités au XVIIe au XIXe siècle

copie de la lettre A part quelques considérations élémentaires par Girolamo Cardano http://www.cict.fr/~stpierre/histoire/node1.html site sur l'histoire des probabilitésau début du et par Galilée au début du , le véritable début de la théorie des probabilités date de la correspondance entre Pierre de Fermat et Blaise Pascal en 1654. Ceux-ci commencent à élaborer les bases du traitement mathématique des probabilités autour de l'étude de jeux de hasard proposés, entre autre, par le chevalier de Méré. (voir ci-contre une page de la correspondance entre Pascal et Fermat) Bien qu'étant considérés comme les fondateurs du traitement des probabilités ils n'ont rien publié de leur travaux et il faudra attendre Huygens pour un premier ouvrage sur le sujet. Encouragé par Pascal, Christiaan Huygens publie De ratiociniis in ludo aleae (raisonnements sur les jeux de dés) en 1657. Cet ouvrage constitue le premier ouvrage important sur les probabilités. Il y définit la notions d'espérance et y développe plusieurs problèmes de partages de gains lors de jeux ou de tirages dans des urnes. http://www.math93.com/theoreme/probabilites.html Deux ouvrages fondateurs sont également à noter: Ars Conjectandi de Jacques Bernoulli (posthume, 1713) qui définit la notion de variable aléatoire et donne la première version de la loi des grands nombres http://www.cict.fr/~stpierre/histoire/node3.html, une histoire de la probabilité jusqu'a laplace et Théorie de la probabilité de Abraham de Moivre (1718) qui généralise l'usage de la combinatoire. Ian Hacking L'emergence des probabilitées La "théorie des erreurs", qui cherche à quantifier l'écart entre la mesure que l'on fait d'une variable et sa vraie valeur et qui est une préfiguration des théorèmes central limite, voit le jour avec Opera Miscellanea de Roger Cotes (posthume, 1722). Le premier à l'appliquer aux erreurs sur les observations est Thomas Simpson en 1755. Pierre-Simon Laplace donne une première version du théorème central limite en 1812 qui ne s'applique alors que pour une variable à deux états, par exemple pile ou face mais pas un dé a 6 faces. Sous l'impulsion de Quételet, qui ouvre en 1841 le premier bureau statistique le Conseil Supérieur de Statistique http://statbel.fgov.be/info/quetelet_fr.asp, une biographie de quételet, les statistiques se développent et deviennent un domaine à part entière des mathématiques qui s'appuie sur les probabilités mais n'en font plus partie.

Naissance de la théorie moderne des probabilités

La théorie de la probabilité moderne ne prend réellement son esssort qu'avec la notion de mesure et d'ensembles mesurables qu'Emile Borel introduit en 1897. Cette notion de mesure est completé par Henri Léon Lebesgue et sa théorie de l'intégration. http://www.cict.fr/~stpierre/histoire/node4.html histoire des probabilités de Borel à la seconde guerre mondiale La première version moderne du théorème de la limite centrale est donné par Alexandre Liapounov en 1901 http://ljk.imag.fr/membres/Bernard.Ycart/smel/articles/etoiles/cadre_etoiles.html et la première preuve du théorème moderne donné par Paul Lévy en 1910. En 1902 Andrei Markov introduit les chaînes de Markovhttp://www.bibmath.net/dico/index.php3?action=affiche&quoi=./m/markov.html pour entreprendre une généralisation de la loi des grands nombres pour une suite d'expériences dépandant les unes des autres. Ces chaînes de Markov connaîtront de nombreuses applications entre autre pour modéliser la diffusion ou pour l'indexation de sites webs sur google. Il faudra attendre 1933 pour que la théorie des probabilités sorte d'un ensemble de méthodes et d'exemples divers et devienne une véritable théorie, axiomatisée par Kolmogorov. Kiyoshi Itô met en place une théorie et un lemme qui porte son nom dans les années 1940. Ceux-ci permettent de relier le calcul stochastique et les équations aux dérivées partielles faisant ainsi le lien entre analyse et probabilités. Le mathématicien Wolfgang Doeblin avait de son côté ébauché une théorie similaire avant de se suicider à la défaite de son bataillon en juin 1940. Ses travaux furent envoyés dans un pli cacheté à l'Académie des sciences qui ne fut ouvert qu'en 2000.

Applications

Les jeux de hasard sont l'application la plus naturelle des probabilités mais de nombreux autres domaines s'appuient ou se servent des probabilités. Citons entre autre:
- les statistiques, sont un vaste domaine qui s'appuie sur les probabilités pour le traitement et l'interpretation des données.
- La théorie des jeux s'appuie fortement sur la probabilité et est utile en économie et plus précisément en micro-économie.
- l'estimation optimale par usage de la loi de Bayes, qui sert de fondement à une grande partie des applications de décision automatique (imagerie médicale, astronomie, reconnaissance de caractères, filtres anti-pourriel).
- En physique ainsi qu'en biologie moléculaire l'étude du mouvement brownien pour de petites particules ainsi que les Équation de Fokker-Planck font intervenir des conceptes s'appuyant sur le calcul stochastique et la marche aléatoire
- L'épidémiologie fait intervenir de nombreux aspects des probabilités et des staistiques pour l'étude et la prévision d'épidémies.
- L'étude de matrices aléatoires à des implications en mécanique quantique ou dnas la théorie des cordes.
- les mathématiques financières font un large usage de la théorie des probabilités pour l'étude des cours de la bourse et des produits dérivés. Citons par exemple le Modèle de Black-Scholes pour l'étude des courrs de la bourse.
- La Cryptographie fait intervenir de nombreux aspects probabilistes entre autre pour la cryptanalyse (déchiffrement de textes cryptés). Notons aussi des tests probabilistes pour déterminer si un nombre est premier qui servent à la génération des clés pour le cryptage.
- et même la musique.

Principes fondamentaux

La probabilité d'un certain événement A, \textstyle\mathbb(A), est représenté par un nombre compris entre 0 et 1. Un évènement impossible a une probabilité de 0 et un évènement certain a une probabilité de 1. Il faut savoir que le contraire n'est pas forcément vrai. Un évenement qui a une probabilité 0 peut très bien se produire dans le cas où un nombre infini d'évenements différents peut se produire. Ceci est détaillé dans l'article Ensemble négligeable et un exemple d'évenement de probabilité 0 et pouvant se produire est (rapidement) esquissé dans la partie 'loi des grands nombres'. | class="wikitable" |+Quelques propriétés fondamentales |- !Evénement!!Probabilité |- |align=center|probabilité de A||\mathbb(A)\in\, |- |align=center|probabilité de ne pas avoir A||\mathbb(A^c)=1-\mathbb(A)\, |- |align=center|probabilité d'avoir A ou B |\begin \mathbb(A\cup B) & = \mathbb(A)+\mathbb(B)-\mathbb(A\cap B) \\ \end |- |align=center|probabilité d'avoir A et B |\begin \mathbb(A\cap B) & = \mathbb(A|B)\mathbb(B) \\ & = \mathbb(A)\mathbb(B) \qquad\mbox\\ \end |- |align=center|A sachant B |\mathbb(A|B)=\frac\mathbb(A\cap B)\mathbb(B)\, | \textstyle A\cup B est la réunion de A et B. \textstyle A\cap B est l'intersection de A et de B. \mathbb(A|B) est appelé la probabilité conditionnelle de A sachant B. C'est la probabilité d'avoir A quand on sait que l'on a B. Par exemple, pour un dé à 6 face la probabilité d'avoir un 2 (A) quand on sait que le résultat est paire (B) est égal à \textstyle\frac=1/3 car la probabilité d'avoir à la fois un 2 et un nombre pair est égal à 1/6 et la probabilité d'avoir un nombre pair est égal à 1/2. Ici on remarque que \textstyle A\cap B=A car on a toujours un nombre pair quand on a 2.

La notion d'indépendance

Deux évènements A et B sont indépendants si et seulement si la réalisation de l'un n'influe pas sur celle de l'autre. En terme mathématique, cela se formalise comme suit : :Deux évènements A et B sont indépendants si et seulement si ils vérifient :\mathbb(A \cap B) = \mathbb(A) \cdot \mathbb(B) Cette notion d'indépendance intervient dans de nombreux théorèmes par exemple dans la loi des grands nombres et le théorème central limite exposés plus bas.

Variable aléatoire

Une notion importante en probabilité est celle de variable aléatoire. Une variable aléatoire est une application qui à un résultat possible de l'expérience associe une valeur. Une variable aléatoire va donc prendre telle ou telle valeur suivant le résultat obtenu; et ce ne sont pas les valeurs possibles de la variable, ni la valeur qu'elle prend une fois que l'on connaît le résultat de l'expérience qui sont aléatoires, mais la valeur qu'elle va prendre avant d'avoir effectué l'expérience. Les variables aléatoires furent introduites à l'origine pour représenter un gain. Par exemple effectuons l'expérience suivante, lançons une pièce de monnaie et suivant que le résultat est pile nous gagnons dix euros, ou face nous perdons un euro. Soit G la variable aléatoire qui prend la valeur 10 lorsque nous obtenons pile et la valeur -1 lorsque nous obtenons face. G représente le gain à l'issue d'un lancer de la pièce. De façon plus générale une variable aléatoire est une certaine fonction, en règle générale noté X, qui dépend du résultat d'une expérience aléatoire par exemple dans ce cas le résultat du pile ou face.

Fonction de répartition et densité

Fonction de répartition de la loi normale centrée réduite En probabilité, la fonction de répartition d'une variable aléatoire X est la fonction \ F_X qui à tout réel x associe F_X(x) = \mathbb. C'est la probabilité que la variable X soit plus petite que x. La fonction de répartition d'une variable est une fonction strictement croissante allant de 0 à 1. Pour les variables continues on définit alors la densité de probabilité ou loi d'une variable par la fonction f qui est la dérivée de F par rapport à x.f_X(x) = \fracd \mathbb. La connaissance de la fonction de répartition permet alors de calculer, par exemple, la probabilité que X soit compris entre a et b en intégrant.

L'espérance

L'espérance est un nombre qui se confond souvent avec la moyenne d'une variable, voir à ce sujet la loi des grands nombres ou le prochain paragraphe. On la définit par: :\mathbb(X) = \sum_^p_i\, x_i pour une variable avec un nombre fini de réalisations possibles. :Par exemple, pour un dé à 6 faces, chaque face à une probabilité 1/6 d'apparaître et l'espérance vaut alors \textstyle\frac=3, 5. :\mathbb(X) = \int_\mathbb x\, f(x)\, dx pour une variable continue de densité f.

Deux théorèmes de base des probabilités

Deux théorèmes mathématiques ont une place particulière en probabilité. Ces deux théorèmes que sont la loi des grands nombres et le théorème central limite et sont présentés ici succintement pour en faire comprendre l'intérêt et l'usage.

Loi des grands nombres

On ne présente ici que la loi forte des grands nombres mais il faut savoir que d'autre versions de lois des grands nombres existent. Pour des variables aléatoires indépendantes, de même loi X_i et dont l'espérance existe: :\frac \rightarrow_n\rightarrow\infty \mathbb(X) Concrètement cette loi nous dit que la moyenne empirique d'une variable tend vers son espérance. Par exemple pour un dé à 6 faces que l'on jetterai plusieurs fois de suite la moyenne des lancers tend vers l'espérance 3, 5. Tendre vers est pris au sens presque sûrement, comme bien souvent en probabilité, c'est à dire que la probabilité que cela arrive est égal à 1. Comme esquissé dans les principes fondamentaux il peut très bien se faire que "exceptionnellement" cette moyenne ne tende pas vers l'espérance. On pourait très bien, par exemple, ne tirer que des 1 lors des lancers de dés et que la moyenne soit alors 1 mais cela n'arrive "jamais". En général, si on lance des dés suffisament de fois on tombera autant de fois sur chaqu'une des 6 faces. Ce théorème formalise cette remarque de bon sens.

Théorème central limite

loi normale Ce théorème central limite est utile pour savoir comment une somme entre une réalisation d'un variable et la valeur moyenne se comporte. La loi des grands nombres montre que la moyenne des réalisations tend vers l'espérance, le théorème central limite, quand à lui, montre de quel façon cette moyenne tend vers l'espérance. Une façon simple, mais pas très rigoureuse, d'écrire ce théorème permet de mieux comprendre son utilité: \frac\sum_^(X_i-\mathbb(X))\rightarrow_n\rightarrow\inftyN\left(0, \frac\sigma\sqrt\right) \textstyle N\left(0, \frac\sigma\sqrt\right) est la loi normale de variance \textstyle\frac\sigma\sqrt, autrement appelée gaussienne et representée çi contre. Ce théorème à une très grande utilité en physiques par exemple. Il peut se comprendre par "La moyenne des erreurs observés tend vers une loi normale." La somme d'un grand nombre d'erreurs sur des observations par exemple est presque gaussienne, elle serait gaussienne si on sommait une infinité d'erreurs mais en pratique cela n'est pas souvent le cas. La loi gaussienne fournit alors une approximation pour la loi de l'erreur souvent plus facilement utilisable que la loi exacte qui n'est pas tout le temps connue. De plus bon nombre de phénomènes naturels sont dus à la superposition de causes nombreuses, plus ou moins indépendantes qui se somment entre elles. Il en résulte que la loi normale les représente de manière raisonnablement efficace. Pour être plus correcte il faudrait écrire le théorème central limite de la façon suivante: \frac\sigma\sqrt\sum_^(X_i-\mathbb(X))\rightarrow_n\rightarrow\inftyN(0, 1) où la limite est prise au sens de "tendre en loi", c'est à dire que la distribution de terme de gauche tend vers la distribution d'une gaussienne. Il faut également savoir qu'il existe de nombreuses généralisations de ce théorème, entre autre pour des variables qui ne seraient pas identiquement distribuées (conditions de Liapounov ou conditions de Lindebergen:Central limit theorem) ou pour des variables de varriance infinie (due à Gnedenko et Kolmogorov)Gnedenko-Kolmogorov, Limit distributions for sums of independant random variables. Nouvelle édition. Addison Wesley, 1968

L'usage de la combinatoire en probabilité

Plusieurs problèmes de probabilités se ramènent à un calcul de dénombrement, en particulier ceux pour lesquels il y a un nombre fini d'évenements et où la probabilité de chaque évenement est la même. La difficulté pour calculer des probabilités réside alors uniquement dans la détermination du nombre de cas possibles, du nombre de cas favorables à la réalisation d'un évènement ou du nombre de réalisations d'un évènement.

La notion d'espace probabilisé et les axiomes de probabilité

L'étude des probabilités en mathématique se déroule dans un espace probabilisé décrit plus bas. Avec cet espace probabilisé on peut alors définir les axiomes des probabilités développés pas Kolmogorov et qui servent de base à une étude mathématique des probabilités. Un espace probabilisé comporte trois parties:
-un univers \Omega: L'univers est l'ensemble de tout les résultats possibles de l'évenement aléatoire. Par exemple pour un dé a 6 faces l'univers est Ω ≡ .
-un ensemble d'évenements \mathcal: C'est une tribu sur les évenements Ω. Cet ensemble contient tout les résultats possibles de l'évenement au sens large. Par exemple pour un dé à 6 faces il contient la possibilité d'avoir un 1 ou un 2: , la possibilité de ne rien sortir comme résultat: l'ensemble vide \textstyle\emptyset, la possibilité de sortir n'importe quel face du dé . En général en probabilité on se contente de prendre la tribu borélienne. A titre d'exemple la tribu borélienne pour le résultat d'un dé à 4 faces est donné (celle pour le dé à 6 faces est encore plus grande mais suit le même principe): :. On remarque que cette tribu contient l'ensmeble vide ø et Ω=. Ceci est le cas pour toutes les tribus.
-une mesure \mathbb: Cette mesure ou probabilité est la probabilité de réaliser l'un des élements de \mathcal. Cette probabilité est comprise entre 0 et 1 pour tout les élements de \mathcal, c'est le premier axiome des probabilités. Par exemple pour un dé a 6 faces: la probabilité d'avoir est 1/6, la probabilité de Ω=, tirer n'importe laquelle des 6 faces, est 1 (ceci est aussi toujours le cas, c'est le deuxième axiome des probabilités), la probabilité de l'ensemble vide ø est 0. Ceci est toujours le cas, c'est également une conséquence des axiomes des probabilités. Dans cette optique, pour des évènements deux à deux disjoints (c'est-à-dire, d'intersection deux à deux vide) A1, A2, A3…, la probabilité de leur union apparaît comme la somme de leurs probabilités, ou, avec les notations mathématiques, P\left(A_1\cup A_2\cup A_3\cup\cdots\right) =P(A_1)+P(A_2)+P(A_3)+\cdots. C'est le troisième et dernier axiome des probabilités. Par exemple, et toujours pour un dé à 6 faces, la probabilité de tirer un 1 ou un 2 \mathbb(\1, 2\)=\mathbb(\1\)+\mathbb(\2\)=2/6

Le calcul stochastique

Un processus stochastique, est un processus aléatoire qui dépent du temps. Ces processus stochastiques remplacent les équation différentielles ordinaires lorsque l'aléatoire entre en jeu. En temps discret, ces processus sont connus sous le nom de Séries temporelles et servent entre autre en économétrie. Un processus aléatoire X est une famille de variables aléatoires indexée par un sous-ensemble de \textstyle\R ou \textstyle\N, souvent assimilé au temps. C'est donc une fonction de deux variables : le temps et l'état du monde (un évenement ω). L'ensemble des états du monde, l'univers est traditionnellement noté Ω. L'application qui à t associe X(ω, t) est appelée trajectoire du processus. Le mouvement brownien est un exemple particulièrement simple de processus aléatoire indexé par \textstyle\R. On peut également le voir comme la limite d'une marche aléatoire lorsque le pas de temps tend vers 0. Quelques exemples d'utilisation des processus stochastiques incluent l'économétrie, le mouvement brownien, les fluctuations du marché boursier, la reconnaissance vocale.

Chaîne Markov

Une chaîne de Markov est un processus stochastique possédant la propriété markovienne. Dans un tel processus, la prédiction du futur à partir du présent ne nécessite pas la connaissance du passé. Nous considérons uniquement les chaînes de Markov en temps discret mais il faut savoir qu'il existe uen généralisation en temps continu. Une chaîne en temps discret est une séquence X1, X2, X3, ... de variables aléatoires. La valeur Xn étant l'état du processus au moment n. Si la distribution de probabilité conditionnelle de Xn+1 sur les états passés est une fonction de Xn seulement, alors : : P(X_=x|X_0, X_1, X_2, \ldots, X_n) = P(X_=x|X_n). où x est un état quelconque du processus. L'identité ci-dessus est la propriété de Markov pour le cas particulier d'une chaîne en temps discret. La probabilité P(X_=x|X_n=y) est appellé la probabilité de transition de x à y c'est la probabilité d'aller de x à y au temps n. Cette propriété de Markov s'oppose à la notion d'hystérésis ou l'état acuel dépend de l'histoire et non seulement de l'état actuel. Ces chaînes de Markov intervienent dans l'étude de la marche aléatoire et ont de nombreux champs d'application: Filtre ati-spam, mouvement brownien, Hypothèse ergodique, théorie de l'information, reconnaissance des formes, algorithme de Viterbi utilisé en téléphonie mobile, etc... Trois marches aléatoires (indépendantes) isotropes sur le réseau \mathbb^2 ; 10 000 pas. Citons entre autre comme cas particuliers de chaînes de Markov la marche aléatoire qui sert en particulier à l'étude de la diffusion ou du jeux de pile ou face. Une marche aléatoire est une chaîne de Markov où la probabilité de transition ne dépend que de x-y. Autrment dit une chaine de Markov où l'on a: P(X_=x|X_n=y)=f(x-y). Un jeux de pile ou face où l'on jourait 1 à chaque lancer est, par exemple une marche aléatoire. Si on a y après n lancers, P(X_=x|X_n=y)=1/2 si (x-y)=+1 ou -1 et 0 sinon. (on à une chance sur deux de gagner 1 une chance sur deux de perdre 1)

Equations aux dérivés stochastiques

Les équations aux dérivées stochastique sont une forme d'équation différentielle intégrant un terme de bruit blanc au premier ordre par exemple: \frac=\mu(X(t))+\sigma(X(t))\xi(t) Pour faire une analogie avec la physique \mu(X(t)) est la vitesse moyenne au point X(t) et \sigma est lié au coéfficient de diffusion. Le lemme d'Itô et l'intégrale d'Itô permettent alors de passer de ces équations stochastiques à des équations aux dérivées partielles classique ou à des équations intégrales. Par exemple en utilisant le lemme d'Itô on obtient pour la probabilité de se trouver à l'instant t au point x: : \frac\partial p(x, t)\partial t=\frac\sigma(x)^2 \frac\partial^2 p (x, t)\partial x^2 +\mu(x)\frac\partial p(x, t)\partial x Ce lemme est particulièrement important car il permet de faire le lien entre l'étude d'équation stochastique et les équations aux dérivées partielles qui relèvent de l'analyse. Ce lemme permet entre autre d'obtenir les équation de Fokker-Planck en physique et de traiter le mouvement brownien par des équations aux dérivées partielles classiques ou de modéliser les cours de la bourse en Mathématiques financières.

Probabilité en épistémologie

La théorie des probabilités est une branche importante des mathématiques qui est utilisée pour décrire et quantifier l'incertain. L'incertitude peut naître de notre ignorance, être due à un embrouillement ou une incompréhension, ou provoquée par l'aspect aléatoire essentiel de la nature. Dans tous les cas, nous mesurons l'incertitude des évènements sur une échelle de zéro (pour les évènements impossibles) à un (pour les évènements certains). Il existe deux façons de considérer les probabilités. La première historiquement a consisté à effectuer des calculs combinatoires dans le cas de jeux de hasard (Pascal, Bernoulli, Pólya…) cette approche peut se califier d'objective. La seconde, qui a commencé à se répandre vers 1974, est fondée sur le Théorème de Cox-Jaynes, qui démontre sous des hypothèses raisonnables que tout mécanisme d'apprentissage est soit isomorphe à la théorie des probabilités, soit inconsistant. Dans cette seconde approche, la probabilité est considérée comme la traduction numérique d'un état de connaissance et donc une valeur subjective (mais néanmoins obtenue par un processus rationnel) ; la subjectivité s'explique par le fait que le contexte d'interprétation d'un évènement diffère chez chacun. C'est l'école bayésienne. L'idée de probabilité est le plus souvent séparée en deux concepts:
- la probabilité de l'aléatoire, qui représente la probabilité d'évènements futurs dont la réalisation dépend de quelques phénomènes physiques aléatoires, comme obtenir un as en lançant un dé ou obtenir un certain nombre en tournant une roue ;
- la probabilité de l'épistémé, qui représente l'incertitude que nous avons devant des affirmations, lorsque nous ne disposons pas de la connaissance complète des circonstances et des causalités. De telles propositions peuvent avoir été vérifiées sur des évènements passés ou seront peut-être vraies dans le futur, mais ne se vérifient pas. Quelques exemples de probabilités de l'épistémé sont : :
- Assigner une probabilité à l'affirmation qu'une loi proposée de la physique est vraie, :
- Déterminer comment il est « probable » qu'un suspect ait commis un crime, en se basant sur les preuves présentées. Une probabilité est-elle réductible à notre incapacité à prédire précisément quelles sont les forces qui pourraient affecter un phénomène, ou fait-elle partie de la nature de la réalité elle-même ainsi que le suggère la mécanique quantique? La question reste à ce jour ouverte (voir aussi Principe d'incertitude). Bien que les mêmes règles mathématiques s'appliquent indépendamment de l'interprétation choisie, le choix a des implications philosophiques importantes : parlons-nous jamais du monde réel (et a-t-on le droit d'en parler ?) ou bien simplement des représentations que nous en avons? Ne pouvant par définition différencier le monde réel de ce que nous connaissons, il est bien entendu impossible de trancher de notre point de vue : la question est pour nous, par nature, subjective (voir aussi libre arbitre). Des descriptions mathématiques rigoureuses de ce type de problèmes ne virent le jour que récemment, en particulier depuis
- Blaise Pascal au pour le déductif,
- Thomas Bayes et Pierre-Simon Laplace au pour l'inductif. Pour donner un sens mathématique possible, et par ailleurs réducteur, à une probabilité, considérez une pièce de monnaie que vous lancez. Intuitivement, nous considérons la probabilité d'obtenir face à n'importe quel lancer de la pièce égale à 1/2; mais que signifie opérationnellement cette phrase ? Si nous lançons la pièce 9 fois de suite, la pièce ne pourra évidemment pas tomber « quatre fois et demie » de chaque côté; il est même possible d'obtenir 6 face et 3 pile, voire 9 face de suite. Que signifie dans ce cas le rapport 1/2 dans ce contexte et que pouvons-nous exactement en faire ?

Approche fréquentiste

Une approche initiale a été d'utiliser ce qui sera plus tard formalisé sous le nom de loi des grands nombres : nous supposons alors que nous effectuons un certain nombre de lancers d'une pièce, chaque lancer de la pièce étant indépendant - ce qui signifie que l'issue de chaque lancer n'est pas affectée par le lancer précédent. C'est ce que l'on nomme le modèle fréquentiste. Si nous effectuons N lancers de la pièce et que NF représente le nombre de fois où la pièce donne face, alors nous pouvons, pour n'importe quel N, considérer la proportion NF/N. À mesure que N devient de plus en plus grand, nous nous attendons dans notre exemple à ce que le rapport NF/N devienne de plus en plus proche de 1/2. Cela nous suggère de définir la probabilité P(F) d'obtenir face comme étant la limite, quand N tend vers l'infini, de la suite des proportions : :P(F) = \lim_N \to \inftyN_F \over N Dans la pratique, nous ne pouvons bien sûr pas lancer une pièce une infinité de fois ; aussi en général cette formule s'applique aux situations dans lesquelles nous avons à priori déjà assigné, à une issue particulière, une probabilité (dans ce cas, nous avons supposé que la pièce était honnête et donc que la probabilité d'obtenir face devait être égale à 1/2). La loi des grands nombres dit alors que, pour une probabilité P(F) donnée, et n'importe quel réel strictement positif ε arbitrairement petit, il existe un nombre n tel que pour tout N > n on ait, :\left| P(F) - N_F \over N\right| < \varepsilon En d'autres termes, en disant que « la probabilité d'obtenir face est égale à 1/2 », nous voulons dire que le rapport du nombre de faces par le nombre total de lancers deviendra arbitrairement proche de 1/2 lorsque le nombre de lancers augmente.

Limites de l'approche fréquentiste

Restriction aux phénomènes répétables

Supposons une pièce ou un dé réalisés en glace : on attribue à « pile » dans un cas, à l'as dans l'autre, une probabilité respective de 1/2 et 1/6. On ne peut pourtant espérer les lancer, en tout cas à température ambiante, qu'un nombre très limité de fois, et il est exclu d'espérer faire quelque observation dessus avec la loi des grands nombres. Devons nous pour autant nous priver dans leur cas d'utiliser les probabilités? Certes, on peut imaginer des lancers avec des milliers d'autres pièces ou dés similaires pour retrouver des grands nombres, mais puisqu'ils n'existent que dans notre représentation mentale, ce sont bien des états de connaissance. Il est clair qu'on a le droit en fiabilité de parler d'une probabilité de 10^-9 sans pour autant effectuer un milliard d'essais. Cela ne veut pas dire qu'il n'y aura pas défaillance dès le deuxième ou troisième essai... le sens de la probabilité, dans ce cas, pose problème.

Idée erronée qu'une probabilité est nécessairement objective

Cela est illustré par le paradoxe des camions prospecteurs: Un forage pétrolier coûtant cher, on se livre au préalable à des campagnes de prospection estimant une probabilité de trouver du pétrole ou non en forant à un endroit donné. Cette probabilité conduira en fonction de sa valeur, des coûts, et des réserves estimées (en probabilité elles aussi) à la décision de forer ou non. Imaginons deux camions prospecteurs l'un travaillant pour l'entreprise A et en début de campagne de mesure. Il estime la probabilité de présence de pétrole à 57%. Un autre juste en face travaillant pour l'entreprise B et en fin de campagne de mesure a ramené en fin de compte cette probabilité à 24 %. Tous les deux ont raison en fonction des mesures dont ils disposent. Quant au pétrole, il y en a, ou il n'y en a pas. Du point de vue de la roche, la probabilité est 1 ou 0, rien d'autre. C'est ainsi que des vérités multiples coexistent, parfois entre individus, parfois aussi chez le même individu. Le Théorème de Cox-Jaynes conduit à considérer en fait toute probabilité comme subjective, ou plus exactement propre au vécu personnel de l'observateur, et qui évolue à mesure que ses connaissances se raffinent. Il peut être aussi particulièrement difficile de tirer des conclusions significatives à partir des probabilités calculées. Une énigme amusante de probabilité, le problème de Monty Hall met en évidence certains pièges.

Reférences

===
Sujets connexes
Abraham de Moivre   Alexandre Liapounov   Algorithme de Viterbi   Algèbre   Analyse (mathématiques)   Andrei Markov (mathématicien)   Andreï Kolmogorov   Antoine Gombaud, chevalier de Méré   Arithmétique   Axiomes des probabilités   Biologie moléculaire   Blaise Pascal   Bruit blanc   Calcul stochastique   Chaîne de Markov   Chimie   Christiaan Huygens   Cindynique   Combinatoire   Cryptanalyse   Cryptographie   Densité de probabilité   Diffusion     Déduction logique   Dérivée   Ensemble négligeable   Espace probabilisé   Espérance   Finance   Fonction de répartition   Gaussienne   George Pólya   Géométrie   Henri Léon Lebesgue   Hypothèse ergodique   Hystérésis   Ian Hacking   Imagerie médicale   Induction (logique)   Intégrale d'Itô   Intégration   Jacques Bernoulli   Lambert Adolphe Jacques Quételet   Latin   Lemme d'Itô   Libre arbitre   Limite (mathématiques)   Loi de probabilité   Loi des grands nombres   Loi normale   Mathématiques   Mathématiques financières   Mesure   Mesure (mathématiques)   Modèle Black-Scholes   Mouvement brownien   Moyenne empirique   Musique   Mécanique quantique   Météorologie   Paul Lévy   Physique   Pierre-Simon Laplace   Pierre de Fermat   Pierre de Jean Olivi   Principe d'incertitude   Probabilité conditionnelle   Problème de Monty Hall   Processus stochastique   Propriété markovienne   Reconnaissance vocale   Roger Cotes   Statistiques   Subjectivité   Séries temporelles   Test de primalité   Thomas Bayes   Thomas Simpson   Théorie de l'information   Théorie de la décision   Théorie des cordes   Théorie des jeux   Théorie des probabilités   Théorème de Cox-Jaynes   Théorème de Moivre-Laplace   Théorème de la limite centrale   Tribu (mathématiques)   Tribu borélienne   Univers (probabilités)   Variable aléatoire   Variance (statistiques et probabilités)  
#
Accident de Beaune   Amélie Mauresmo   Anisocytose   C3H6O   CA Paris   Carole Richert   Catherinettes   Chaleur massique   Championnat de Tunisie de football D2   Classement mondial des entreprises leader par secteur   Col du Bonhomme (Vosges)   De viris illustribus (Lhomond)   Dolcett   EGP  
^