Precisión es una medida de desempeño.
Utilizada en tareas de clasificación.
En problemas de clasificación binaria,
Detección de anomalías.
Evalúa la proporción de predicciones correctas.
Entre las instancias que el modelo clasificó como positivas.
Definición de Precisión
TP (True Positives)
Instancias clasificadas correctamente como positivas.
FP (False Positives)
Instancias clasificadas incorrectamente como positivas.
Interpretación
La precisión mide cuántas de las instancias clasificadas.
Como positivas realmente pertenecen a la clase positiva.
Ejemplo Práctico
Un modelo de detección de spam.
Predice si un correo es spam o no.
TP
Correos que son spam.
El modelo los predice correctamente como spam.
FP
Correos que no son spam.
El modelo los clasifica erróneamente como spam.
Si el modelo predice 100 correos como spam.
Solo 80 de ellos realmente son spam.
El 80% de las predicciones positivas son correctas.
Contexto de Uso
Relevancia de la Precisión
Crucial cuando los falsos positivos son costosos o problemáticos.
Detección de fraudes financieros
Clasificar una transacción legítima fraudulenta.
Puede causar molestias al usuario.
Diagnóstico médico
En un diagnóstico de cáncer.
Clasificar erróneamente un paciente sano.
Como enfermo puede llevar.
A procedimientos innecesarios.
Complementariedad con Recall
No considera los falsos negativos
Cuando el modelo no detecta una instancia positiva.
Suele complementarse con la métrica de recall
Ventajas de la Precisión
Enfoque en predicciones correctas
Evalúa la confiabilidad de las predicciones positivas.
Relevancia en ciertas aplicaciones
Cuando el objetivo es minimizar los falsos positivos.
En sistemas de seguridad o sistemas de recomendación.
Limitaciones de la Precisión
Ignora los falsos negativos
Un modelo puede tener alta precisión.
Ignorando la mayoría de las instancias positivas.
Deseable en problemas donde los falsos negativos son críticos.
No refleja el equilibrio general del modelo
La precisión no evalúa el desempeño global del modelo.
Si la clase positiva tiene una frecuencia baja en los datos.
Aquí se muestra cómo calcular la precisión usando scikit-learn
from sklearn.metrics import precision_score
# Etiquetas verdaderas
y_true = [0, 1, 1, 0, 1, 1, 0, 0, 1, 0]
# Predicciones del modelo
y_pred = [0, 1, 1, 0, 0, 1, 0, 1, 1, 0]
# Calcular la precisión
precision = precision_score(y_true, y_pred)
print(f»Precisión: {precision:.2f}»)
Salida:
Precisión: 0.80
El modelo tiene una precisión del 80%
La precisión es una métrica de modelos de clasificación.
En contextos donde los falsos positivos.
Son más problemáticos que los falsos negativos.
Debe utilizarse en combinación con otras métricas.
Como el recall y el F1-score.
Obtener una visión más completa.
Del desempeño del modelo.
Te puede interesar;










