Cómo calcular la probabilidad — guía completa
Aprende los fundamentos de la probabilidad incluyendo probabilidad básica, eventos compuestos, probabilidad condicional, teorema de Bayes y valor esperado con ejemplos resueltos.
¿Qué es la probabilidad?
La probabilidad es el estudio matemático de la incertidumbre y la aleatoriedad. Asigna un número entre 0 y 1 a un evento, donde 0 significa que el evento es imposible y 1 significa que es seguro. Una probabilidad de 0.5 (o 50%) significa que el evento tiene igual probabilidad de ocurrir o no. La probabilidad se originó a partir de problemas de juegos de azar en el siglo XVII, pero desde entonces se ha convertido en algo fundamental para la ciencia, la ingeniería, la medicina, las finanzas y la inteligencia artificial. Ya sea que estés prediciendo el clima, evaluando la precisión de pruebas médicas o analizando riesgos financieros, la probabilidad proporciona el marco para razonar sobre resultados inciertos.
Fórmula básica de probabilidad
Para resultados igualmente probables, la probabilidad de un evento es el número de resultados favorables dividido entre el número total de resultados posibles: P(A) = resultados favorables / resultados totales. Por ejemplo, la probabilidad de sacar un 4 en un dado justo de seis caras es 1/6, porque hay un resultado favorable de seis posibilidades. La probabilidad de sacar un corazón de una baraja estándar de 52 cartas es 13/52 = 1/4. Este enfoque de conteo funciona cuando cada resultado en el espacio muestral es igualmente probable, que es el caso para dados justos, monedas justas, barajas bien barajadas y selecciones aleatorias de una población uniforme.
Eventos complementarios
El complemento de un evento A, escrito A', consiste en todos los resultados que no están en A. Las probabilidades de un evento y su complemento siempre suman 1: P(A) + P(A') = 1. Esto significa P(A') = 1 - P(A). Esta regla es extremadamente útil cuando es más fácil calcular la probabilidad de que algo no suceda. Por ejemplo, la probabilidad de obtener al menos un 6 en cuatro lanzamientos de un dado es más fácil de calcular como 1 menos la probabilidad de no obtener ningún 6: 1 - (5/6)⁴ = 1 - 625/1296 = aproximadamente 0.518. Sin la regla del complemento, necesitarías considerar cada combinación de lanzamientos que incluya al menos un 6.
Eventos compuestos: Y y O
Al combinar eventos, la regla de adición da la probabilidad de A o B: P(A o B) = P(A) + P(B) - P(A y B). La sustracción de P(A y B) evita contar doble los resultados que pertenecen a ambos eventos. Si A y B son mutuamente excluyentes (no pueden ocurrir ambos), entonces P(A y B) = 0, y la fórmula se simplifica a P(A o B) = P(A) + P(B). La regla de multiplicación da la probabilidad de A y B: para eventos independientes, P(A y B) = P(A) x P(B). Por ejemplo, la probabilidad de obtener cara dos veces seguidas es (1/2) x (1/2) = 1/4. La independencia significa que la ocurrencia de un evento no afecta la probabilidad del otro.
Probabilidad condicional
La probabilidad condicional mide la probabilidad del evento A dado que el evento B ya ha ocurrido, escrita P(A|B). La fórmula es P(A|B) = P(A y B) / P(B). Por ejemplo, si una bolsa contiene 3 canicas rojas y 5 azules y sacas una canica roja sin reemplazo, la probabilidad de que la segunda canica sea roja es P(roja2|roja1) = 2/7, porque solo quedan 2 canicas rojas de 7 en total. La probabilidad condicional es la clave para entender cómo la nueva información actualiza nuestras creencias. Es esencial en diagnóstico médico, control de calidad, filtrado de spam y cualquier escenario donde el conocimiento previo influye en la probabilidad de los resultados.
Teorema de Bayes
El teorema de Bayes proporciona una forma de invertir las probabilidades condicionales. Establece: P(A|B) = P(B|A) x P(A) / P(B). Esto te permite actualizar la probabilidad de una hipótesis A dada nueva evidencia B. Un ejemplo clásico es la prueba médica: si una enfermedad afecta al 1% de la población y una prueba tiene 95% de sensibilidad (P(positivo|enfermedad) = 0.95) y 90% de especificidad (P(negativo|sin enfermedad) = 0.90), entonces P(enfermedad|positivo) = (0.95 x 0.01) / (0.95 x 0.01 + 0.10 x 0.99) = 0.0095 / 0.1085 = aproximadamente 8.8%. A pesar de la prueba positiva, la probabilidad real de tener la enfermedad es menos del 9%, un resultado contraintuitivo pero importante.
Valor esperado
El valor esperado de una variable aleatoria es el resultado promedio a largo plazo si un experimento se repite muchas veces. Se calcula como la suma de cada resultado multiplicado por su probabilidad: E(X) = suma de (x_i x P(x_i)). Por ejemplo, en un juego donde lanzas un dado y ganas $10 por un 6 pero pagas $2 por cualquier otro número, el valor esperado es (1/6 x $10) + (5/6 x (-$2)) = $1.67 - $1.67 = $0.00, haciéndolo un juego justo. El valor esperado es la base de la teoría de decisiones, la fijación de precios de seguros, el análisis de juegos de azar y la gestión de riesgos. Te dice qué esperar "en promedio", aunque cualquier prueba individual pueda diferir sustancialmente.
Distribuciones de probabilidad comunes
Varias distribuciones de probabilidad aparecen repetidamente en la práctica. La distribución binomial modela el número de éxitos en un número fijo de ensayos independientes, como el número de caras en 10 lanzamientos de moneda. La distribución normal (gaussiana) describe muchos fenómenos naturales y se caracteriza por su forma de campana, con la media y la desviación estándar como sus dos parámetros. La distribución de Poisson modela el número de eventos raros en un intervalo fijo, como el número de llegadas de clientes por hora. Comprender estas distribuciones te permite modelar la incertidumbre matemáticamente y hacer predicciones con confianza cuantificada.