Comment calculer les probabilites - Guide complet

Apprenez les fondamentaux des probabilites : probabilite simple, evenements composes, probabilite conditionnelle, theoreme de Bayes et valeur esperee.

Qu'est-ce que la probabilite ?

La probabilite est l'etude mathematique de l'incertitude et du hasard. Elle attribue un nombre entre 0 et 1 a un evenement, ou 0 signifie que l'evenement est impossible et 1 signifie qu'il est certain. Une probabilite de 0,5 (ou 50 %) signifie que l'evenement a autant de chances de se produire que de ne pas se produire. La probabilite est nee des problemes de jeux de hasard au XVIIe siecle mais est depuis devenue fondamentale en science, ingenierie, medecine, finance et intelligence artificielle. Que vous prevoyiez la meteo, evaluiez la precision d'un test medical ou analysiez le risque financier, la probabilite fournit le cadre pour raisonner sur les resultats incertains.

Formule de probabilite de base

Pour des resultats equiprobables, la probabilite d'un evenement est le nombre de resultats favorables divise par le nombre total de resultats possibles : P(A) = resultats favorables / resultats totaux. Par exemple, la probabilite de tirer un 4 sur un de a six faces equitable est 1/6, car il y a un resultat favorable sur six possibilites. La probabilite de tirer un coeur d'un jeu standard de 52 cartes est 13/52 = 1/4. Cette approche par denombrement fonctionne quand chaque resultat dans l'espace echantillonnal est equiprobable, ce qui est le cas pour des des equilibres, des pieces equilibrees, des cartes bien melangees et des selections aleatoires dans une population uniforme.

Evenements complementaires

Le complementaire d'un evenement A, note A', consiste en tous les resultats qui ne sont pas dans A. Les probabilites d'un evenement et de son complementaire totalisent toujours 1 : P(A) + P(A') = 1. Cela signifie que P(A') = 1 - P(A). Cette regle est extremement utile quand il est plus facile de calculer la probabilite que quelque chose ne se produise pas. Par exemple, la probabilite d'obtenir au moins un 6 en quatre lancers d'un de est plus facile a calculer comme 1 moins la probabilite de n'obtenir aucun 6 : 1 - (5/6)^4 = 1 - 625/1296 = approximativement 0,518. Sans la regle du complementaire, il faudrait considerer chaque combinaison de lancers incluant au moins un 6.

Evenements composes : ET et OU

En combinant des evenements, la regle d'addition donne la probabilite de A ou B : P(A ou B) = P(A) + P(B) - P(A et B). La soustraction de P(A et B) empeche le double comptage des resultats appartenant aux deux evenements. Si A et B sont mutuellement exclusifs (ils ne peuvent pas se produire simultanement), alors P(A et B) = 0, et la formule se simplifie en P(A ou B) = P(A) + P(B). La regle de multiplication donne la probabilite de A et B : pour des evenements independants, P(A et B) = P(A) x P(B). Par exemple, la probabilite de tirer pile deux fois de suite est (1/2) x (1/2) = 1/4. L'independance signifie que la realisation d'un evenement n'affecte pas la probabilite de l'autre.

Probabilite conditionnelle

La probabilite conditionnelle mesure la probabilite de l'evenement A sachant que l'evenement B s'est deja produit, notee P(A|B). La formule est P(A|B) = P(A et B) / P(B). Par exemple, si un sac contient 3 billes rouges et 5 billes bleues et que vous tirez une bille rouge sans remise, la probabilite que la deuxieme bille soit rouge est P(rouge2|rouge1) = 2/7, car il ne reste que 2 billes rouges sur 7 au total. La probabilite conditionnelle est la cle pour comprendre comment une information nouvelle met a jour nos croyances. Elle est essentielle en diagnostic medical, en controle qualite, en filtrage de spam et dans tout scenario ou une connaissance prealable influence la probabilite des resultats.

Le theoreme de Bayes

Le theoreme de Bayes fournit un moyen d'inverser les probabilites conditionnelles. Il stipule : P(A|B) = P(B|A) x P(A) / P(B). Cela vous permet de mettre a jour la probabilite d'une hypothese A a la lumiere de nouvelles preuves B. Un exemple classique est le test medical : si une maladie affecte 1 % de la population et qu'un test a une sensibilite de 95 % (P(positif|maladie) = 0,95) et une specificite de 90 % (P(negatif|pas maladie) = 0,90), alors P(maladie|positif) = (0,95 x 0,01) / (0,95 x 0,01 + 0,10 x 0,99) = 0,0095 / 0,1085 = environ 8,8 %. Malgre le test positif, la probabilite reelle d'avoir la maladie est inferieure a 9 %, un resultat contre-intuitif mais important.

Valeur esperee

La valeur esperee d'une variable aleatoire est la moyenne a long terme si une experience est repetee de nombreuses fois. Elle est calculee comme la somme de chaque resultat multiplie par sa probabilite : E(X) = somme de (xi x P(xi)). Par exemple, dans un jeu ou vous lancez un de et gagnez 10 euros pour un 6 mais payez 2 euros pour tout autre resultat, la valeur esperee est (1/6 x 10) + (5/6 x (-2)) = 1,67 - 1,67 = 0,00, ce qui en fait un jeu equitable. La valeur esperee est le fondement de la theorie de la decision, de la tarification des assurances, de l'analyse des jeux de hasard et de la gestion des risques. Elle vous dit ce a quoi vous attendre « en moyenne », meme si un seul essai peut differer considerablement.

Distributions de probabilite courantes

Plusieurs distributions de probabilite apparaissent de maniere repetee en pratique. La distribution binomiale modelise le nombre de succes dans un nombre fixe d'essais independants, comme le nombre de faces en 10 lancers de piece. La distribution normale (gaussienne) decrit de nombreux phenomenes naturels et est caracterisee par sa forme en cloche, avec la moyenne et l'ecart type comme ses deux parametres. La distribution de Poisson modelise le nombre d'evenements rares dans un intervalle fixe, comme le nombre d'arrivees de clients par heure. Comprendre ces distributions vous permet de modeliser mathematiquement l'incertitude et de faire des previsions avec un degre de confiance quantifie.

Calculatrices Associées