F1-Score

 

F1-Score es una medida de desempeño que combina la Precisión y el Recall

Único valor utilizando el promedio armónico de ambas.

En problemas de clasificación.

Evaluar el equilibrio entre la precisión y la capacidad.

Detectar instancias positivas.

 

Interpretación

El F1-Score toma en cuenta los falsos positivos

Los falsos negativos

Útil cuando hay un desbalance entre las clases.

 

Contexto de Uso

Hay un desbalance de clases

Detección de fraudes o enfermedades raras.

Las instancias positivas son menos frecuentes que las negativas.

 

Se necesita un balance entre Precisión y Recall

Diagnósticos médicos.

Minimizar tanto falsos positivos como negativos.

Clasificación de spam.

Reducir errores en ambas direcciones.

Resultados en un conjunto de datos.

 

TP (True Positives): 80

FP (False Positives): 20

FN (False Negatives): 10

 

Ventajas del F1-Score

Equilibrio entre Precisión y Recall

Problemas en los que ambas métricas son importantes.

Ninguna puede ser ignorada.

 

Robusto ante desbalances de clases

Clases están desbalanceadas.

F1-Score mejor evaluación que la exactitud.

 

Interpretación intuitiva

F1-Score alto indica que tiene un buen desempeño.

En la identificación de positivos.

En la reducción de errores.

 

Limitaciones del F1-Score

 

No diferencia entre clases

El F1-Score debe calcularse para cada clase.

Utilizar una variante.

Micro, macro o ponderado.

 

No captura todo el desempeño

Si el costo de los errores es diferente.

Un falso positivo es más costoso que un falso negativo.

El F1-Score no refleja esta diferencia.

 

Complejidad adicional

Menos intuitivo que otras como la precisión o la exactitud.

 

Variantes del F1-Score

 

Micro promedio

Calcula el F1-Score considerando.

Los TP, FP y FN

cCmo un solo grupo.

 

Macro promedio

Calcula el F1-Score para cada clase.

Promedia sin ponderar.

 

Ponderado promedio

Similar al macro promedio,

Pondera según el tamaño de cada clase.

Usando scikit-learn

 

from sklearn.metrics import f1_score

# Etiquetas verdaderas
y_true = [0, 1, 1, 0, 1, 1, 0, 0, 1, 0]

# Predicciones del modelo
y_pred = [0, 1, 1, 0, 0, 1, 0, 1, 1, 0]

# Calcular F1-Score
f1 = f1_score(y_true, y_pred)

print(f»F1-Score: {f1:.2f}»)

Salida:

F1-Score: 0.89

 

El modelo tiene un buen balance entre precisión y recall.

 

Comparación con Otras Métricas

 

Métrica Definición Uso Principal
Precisión Proporción de predicciones positivas correctas. Cuando los falsos positivos son costosos.
Recall Proporción de positivos correctamente detectados. Cuando los falsos negativos son críticos.
F1-Score Promedio armónico de precisión y recall. Para un balance entre precisión y recall.
Exactitud Proporción de predicciones correctas totales. Útil en problemas balanceados.

 

 

F1-Score es una métrica clave en problemas de clasificación.

En escenarios con clases desbalanceadas.

Lograr un equilibrio entre precisión y recall.

Su capacidad para integrar dos métricas en un solo valor.

 

 

MINDMARK™: Arquitectura Data AI Stack

  MINDMARK™ es un sistema de marketing computacional centrado en la toma de decisiones humanas, que integra:   Data –  Datos comportamentales y contextuales Inteligencia Artificial – Modelos predictivos y adaptativos Ciencia del comportamiento –

Leer más »
Manu Duque
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Nunca almacenamos información personal.

Puedes revisar nuestra política en la página de Política de Privacidad, Condiciones de Uso y Cookies.