Fundamentos Matemáticos en Python de Probabilidad
La probabilidad es la rama de las matemáticas que estudia la incertidumbre
Mide la posibilidad de ocurrencia de un evento.
En Python podemos calcular probabilidades.
Usando bibliotecas como NumPy, SciPy y SymPy.
Conceptos básicos de probabilidad
Espacio muestral (S)
Conjunto de todos los resultados posibles.
Evento (E)
Subconjunto del espacio muestral.
Que contiene resultados favorables.
Probabilidad de un evento
Eventos mutuamente excluyentes
No pueden ocurrir al mismo tiempo.
Eventos independientes
La ocurrencia de un evento no afecta la ocurrencia del otro.
Probabilidad con Python
Probabilidad básica con Python
Ejemplo
Lanzamiento de un dado
import numpy as np
# Espacio muestral (1 a 6)
espacio_muestral = np.array([1, 2, 3, 4, 5, 6])
# Evento: sacar un número par (2, 4, 6)
evento = np.array([2, 4, 6])
# Calcular la probabilidad
probabilidad = len(evento) / len(espacio_muestral)
print(f»Probabilidad de obtener un número par: {probabilidad:.2f}»)
Salida
Probabilidad de obtener un número par: 0.50
Ejemplo
Lanzar dos dados y calcular.
La probabilidad de obtener suma = 7
from itertools import product
# Espacio muestral: todas las combinaciones de dos dados
espacio_muestral = list(product(range(1, 7), repeat=2))
# Evento: suma de 7
evento = [par for par in espacio_muestral if sum(par) == 7]
# Calcular la probabilidad
probabilidad = len(evento) / len(espacio_muestral)
print(f»Probabilidad de obtener una suma de 7: {probabilidad:.2f}»)
Salida
Probabilidad de obtener una suma de 7: 0.17
Distribuciones de Probabilidad
Las distribuciones de probabilidad describen la forma.
En que los valores de una variable.
Aleatoria están distribuidos.
Distribución Uniforme
En la distribución uniforme
Los eventos tienen la misma probabilidad.
Ejemplo
Generar 10 números aleatorios entre 0 y 1
import numpy as np
# Generar 10 valores de una distribución uniforme
datos_uniformes = np.random.uniform(0, 1, 10)
print(datos_uniformes)
Distribución Binomial
La distribución binomial modela el número de éxitos.
En n ensayos de una prueba.
De Bernoulli éxito o fracaso.
Ejemplo
Probabilidad de obtener 3 caras en 5 lanzamientos.
De una moneda (p = 0.5)
from scipy.stats import binom
n = 5 # número de ensayos
p = 0.5 # probabilidad de éxito (cara)
k = 3 # número de éxitos deseados
# Calcular la probabilidad
probabilidad = binom.pmf(k, n, p)
print(f»Probabilidad de obtener exactamente 3 caras: {probabilidad:.3f}»)
Distribución Normal
La distribución normal o gaussiana.
Ejemplo
Graficar una distribución normal con media = 0
Desviación estándar = 1
import seaborn as sns
import matplotlib.pyplot as plt
from scipy.stats import norm
# Generar datos
x = np.linspace(-4, 4, 100)
y = norm.pdf(x, loc=0, scale=1)
# Graficar distribución normal
sns.lineplot(x=x, y=y)
plt.title(«Distribución Normal»)
plt.xlabel(«Valores»)
plt.ylabel(«Densidad de Probabilidad»)
plt.show()
Teorema de Bayes
El Teorema de Bayes permite actualizar probabilidades.
En función de nueva evidencia.
Cálculo de una probabilidad condicional en Python
# Probabilidades dadas
P_A = 0.02 # Probabilidad de tener una enfermedad
P_B_A = 0.99 # Probabilidad de que el test sea positivo si tienes la enfermedad
P_B_no_A = 0.05 # Probabilidad de un falso positivo
P_no_A = 1 – P_A # No tener la enfermedad
# Aplicar Teorema de Bayes
P_A_B = (P_B_A * P_A) / ((P_B_A * P_A) + (P_B_no_A * P_no_A))
print(f»Probabilidad de tener la enfermedad dado un test positivo: {P_A_B:.4f}»)
Salida
Probabilidad de tener la enfermedad dado un test positivo: 0.2857
Aplicaciones de Probabilidad en IA
Modelos de Aprendizaje Automático
Bayes Naïve, Regresión Logística, Redes Neuronales.
Análisis de datos
Identificación de distribuciones y detección de anomalías.
Procesamiento de Lenguaje Natural (NLP)
Modelos probabilísticos como Hidden Markov Models.
Visión Computacional
Algoritmos de reconocimiento basados en probabilidades.
Python facilita el cálculo de probabilidades y distribuciones estadísticas.
NumPy, SciPy y Seaborn son bibliotecas para trabajar con probabilidades.
El Teorema de Bayes es esencial para modelos predictivos y diagnósticos.







