Probabilidad

 

Fundamentos Matemáticos en Python de Probabilidad

 

La probabilidad es la rama de las matemáticas que estudia la incertidumbre

 

Mide la posibilidad de ocurrencia de un evento.

 

En Python podemos calcular probabilidades.

 

Usando bibliotecas como NumPy, SciPy y SymPy.

 

Conceptos básicos de probabilidad

 

Espacio muestral (S)

 

Conjunto de todos los resultados posibles.

 

Evento (E)

 

Subconjunto del espacio muestral.

 

Que contiene resultados favorables.

 

Probabilidad de un evento

 

 

Eventos mutuamente excluyentes

 

No pueden ocurrir al mismo tiempo.

 

Eventos independientes

 

La ocurrencia de un evento no afecta la ocurrencia del otro.

 

Probabilidad con Python

 

Probabilidad básica con Python

 

Ejemplo

 

Lanzamiento de un dado

 

import numpy as np

# Espacio muestral (1 a 6)
espacio_muestral = np.array([1, 2, 3, 4, 5, 6])

# Evento: sacar un número par (2, 4, 6)
evento = np.array([2, 4, 6])

# Calcular la probabilidad
probabilidad = len(evento) / len(espacio_muestral)
print(f»Probabilidad de obtener un número par: {probabilidad:.2f}»)

 

 

Salida

 

Probabilidad de obtener un número par: 0.50

 

Ejemplo

 

Lanzar dos dados y calcular.

 

La probabilidad de obtener suma = 7

 

from itertools import product

# Espacio muestral: todas las combinaciones de dos dados
espacio_muestral = list(product(range(1, 7), repeat=2))

# Evento: suma de 7
evento = [par for par in espacio_muestral if sum(par) == 7]

# Calcular la probabilidad
probabilidad = len(evento) / len(espacio_muestral)
print(f»Probabilidad de obtener una suma de 7: {probabilidad:.2f}»)

 

 

Salida

 

Probabilidad de obtener una suma de 7: 0.17

 

Distribuciones de Probabilidad

 

Las distribuciones de probabilidad describen la forma.

 

En que los valores de una variable.

 

Aleatoria están distribuidos.

 

Distribución Uniforme

 

En la distribución uniforme

 

Los eventos tienen la misma probabilidad.

 

Ejemplo

 

Generar 10 números aleatorios entre 0 y 1

 

import numpy as np

# Generar 10 valores de una distribución uniforme
datos_uniformes = np.random.uniform(0, 1, 10)
print(datos_uniformes)

 

 

Distribución Binomial

 

La distribución binomial modela el número de éxitos.

 

En n ensayos de una prueba.

 

De Bernoulli éxito o fracaso.

 

Ejemplo

 

Probabilidad de obtener 3 caras en 5 lanzamientos.

 

De una moneda (p = 0.5)

 

from scipy.stats import binom

n = 5 # número de ensayos
p = 0.5 # probabilidad de éxito (cara)
k = 3 # número de éxitos deseados

# Calcular la probabilidad
probabilidad = binom.pmf(k, n, p)
print(f»Probabilidad de obtener exactamente 3 caras: {probabilidad:.3f}»)

 

 

Distribución Normal

 

La distribución normal o gaussiana.

 

Ejemplo

 

Graficar una distribución normal con media = 0

 

Desviación estándar = 1

 

import seaborn as sns
import matplotlib.pyplot as plt
from scipy.stats import norm

# Generar datos
x = np.linspace(-4, 4, 100)
y = norm.pdf(x, loc=0, scale=1)

# Graficar distribución normal
sns.lineplot(x=x, y=y)
plt.title(«Distribución Normal»)
plt.xlabel(«Valores»)
plt.ylabel(«Densidad de Probabilidad»)
plt.show()

 

 

Teorema de Bayes

 

El Teorema de Bayes permite actualizar probabilidades.

 

En función de nueva evidencia.

 

 

Cálculo de una probabilidad condicional en Python

 

# Probabilidades dadas
P_A = 0.02 # Probabilidad de tener una enfermedad
P_B_A = 0.99 # Probabilidad de que el test sea positivo si tienes la enfermedad
P_B_no_A = 0.05 # Probabilidad de un falso positivo
P_no_A = 1 – P_A # No tener la enfermedad

# Aplicar Teorema de Bayes
P_A_B = (P_B_A * P_A) / ((P_B_A * P_A) + (P_B_no_A * P_no_A))

print(f»Probabilidad de tener la enfermedad dado un test positivo: {P_A_B:.4f}»)

 

 

Salida

 

Probabilidad de tener la enfermedad dado un test positivo: 0.2857

 

Aplicaciones de Probabilidad en IA

 

Modelos de Aprendizaje Automático

 

Bayes Naïve, Regresión Logística, Redes Neuronales.

 

Análisis de datos

 

Identificación de distribuciones y detección de anomalías.

 

Procesamiento de Lenguaje Natural (NLP)

 

Modelos probabilísticos como Hidden Markov Models.

 

Visión Computacional

 

Algoritmos de reconocimiento basados en probabilidades.

 

Python facilita el cálculo de probabilidades y distribuciones estadísticas.

 

NumPy, SciPy y Seaborn son bibliotecas para trabajar con probabilidades.

 

El Teorema de Bayes es esencial para modelos predictivos y diagnósticos.

 

 

Manu Duque
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Puedes revisar nuestra política en la página de Política de Privacidad, Condiciones de Uso y Cookies.