Introducción
¿Cuál es la probabilidad de que
llueva hoy? Probablemente pienses en el clima de tu región. Pero, ¿y si te digo
que el cielo está completamente nublado? Tu respuesta cambia, ¿verdad? Este es
el poder de la probabilidad condicionada: la probabilidad de un evento
dado que ya conocemos información adicional.
En esta guía aprenderás a
calcular probabilidades cuando tienes información parcial, entenderás el famoso
Teorema de Bayes, y verás aplicaciones prácticas en medicina, finanzas y más.
Definición de Probabilidad Condicionada
La probabilidad condicionada
de A dado B, escrita como P(A|B), es la probabilidad de que ocurra A
sabiendo que B ya ha ocurrido.
P(A|B) = P(A ∩ B) / P(B)
Esta fórmula tiene sentido
intuitivo: de todos los casos donde B ocurre, ¿en cuántos también ocurre A?
Ejemplo Básico
En una clase de 30 alumnos: 12
estudian música, 10 practican deportes, y 4 hacen ambas cosas.
Si seleccionamos un alumno que
practica deportes, ¿cuál es la probabilidad de que también estudie música?
• A = estudia música, B =
practica deportes
• P(A ∩ B) = 4/30
• P(B) = 10/30
• P(A|B) = (4/30) / (10/30)
= 4/10 = 0.4 = 40%
Regla de la Multiplicación
De la fórmula de probabilidad
condicionada, despejamos la probabilidad conjunta:
P(A ∩ B) = P(A|B) × P(B) = P(B|A) × P(A)
Esta regla es fundamental para
calcular probabilidades en cadenas de eventos dependientes.
El Teorema de Bayes
El Teorema de Bayes
permite "invertir" una probabilidad condicionada: si conoces P(B|A),
puedes calcular P(A|B).
P(A|B) = [P(B|A) × P(A)] / P(B)
Ejemplo Médico del Teorema de Bayes
Una prueba médica tiene 95% de
sensibilidad (detecta correctamente enfermos) y 90% de especificidad (detecta
correctamente sanos). La enfermedad afecta al 1% de la población. Si una
persona da positivo, ¿cuál es la probabilidad de que realmente esté enferma?
• P(E) = 0.01 (probabilidad de
estar enfermo)
• P(+|E) = 0.95 (sensibilidad)
• P(+|~E) = 0.10 (1 -
especificidad = falsos positivos)
• P(+) = P(+|E)×P(E) +
P(+|~E)×P(~E) = 0.95×0.01 + 0.10×0.99 = 0.1085
• P(E|+) = (0.95 × 0.01) /
0.1085 ≈ 0.088 = 8.8%
Sorprendente, ¿verdad? A pesar
de una prueba "buena", solo el 8.8% de los positivos están realmente
enfermos.
Diagramas de Árbol
Los diagramas de árbol
son una herramienta visual excelente para calcular probabilidades
condicionadas. Cada rama representa un evento, y las probabilidades se
multiplican a lo largo del camino.
Aplicaciones de la Probabilidad Condicionada
Medicina: Diagnóstico
basado en síntomas y pruebas.
Filtros de spam: Clasificación
bayesiana de correos.
Finanzas: Evaluación de
riesgo crediticio basado en historial.
Conclusión
La probabilidad condicionada es
fundamental para tomar decisiones en situaciones de incertidumbre cuando
tenemos información parcial. El Teorema de Bayes nos permite actualizar
nuestras creencias a medida que obtenemos nueva evidencia, una habilidad
crucial en ciencia, medicina e inteligencia artificial.