F1-Score es una medida de desempeño que combina la Precisión y el Recall
Único valor utilizando el promedio armónico de ambas.
En problemas de clasificación.
Evaluar el equilibrio entre la precisión y la capacidad.
Detectar instancias positivas.
Interpretación
El F1-Score toma en cuenta los falsos positivos
Los falsos negativos
Útil cuando hay un desbalance entre las clases.
Contexto de Uso
Hay un desbalance de clases
Detección de fraudes o enfermedades raras.
Las instancias positivas son menos frecuentes que las negativas.
Se necesita un balance entre Precisión y Recall
Diagnósticos médicos.
Minimizar tanto falsos positivos como negativos.
Clasificación de spam.
Reducir errores en ambas direcciones.
Resultados en un conjunto de datos.
TP (True Positives): 80
FP (False Positives): 20
FN (False Negatives): 10
Ventajas del F1-Score
Equilibrio entre Precisión y Recall
Problemas en los que ambas métricas son importantes.
Ninguna puede ser ignorada.
Robusto ante desbalances de clases
Clases están desbalanceadas.
F1-Score mejor evaluación que la exactitud.
Interpretación intuitiva
F1-Score alto indica que tiene un buen desempeño.
En la identificación de positivos.
En la reducción de errores.
Limitaciones del F1-Score
No diferencia entre clases
El F1-Score debe calcularse para cada clase.
Utilizar una variante.
Micro, macro o ponderado.
No captura todo el desempeño
Si el costo de los errores es diferente.
Un falso positivo es más costoso que un falso negativo.
El F1-Score no refleja esta diferencia.
Complejidad adicional
Menos intuitivo que otras como la precisión o la exactitud.
Variantes del F1-Score
Micro promedio
Calcula el F1-Score considerando.
Los TP, FP y FN
cCmo un solo grupo.
Macro promedio
Calcula el F1-Score para cada clase.
Promedia sin ponderar.
Ponderado promedio
Similar al macro promedio,
Pondera según el tamaño de cada clase.
Usando scikit-learn
from sklearn.metrics import f1_score
# Etiquetas verdaderas
y_true = [0, 1, 1, 0, 1, 1, 0, 0, 1, 0]
# Predicciones del modelo
y_pred = [0, 1, 1, 0, 0, 1, 0, 1, 1, 0]
# Calcular F1-Score
f1 = f1_score(y_true, y_pred)
print(f»F1-Score: {f1:.2f}»)
Salida:
F1-Score: 0.89
El modelo tiene un buen balance entre precisión y recall.
Comparación con Otras Métricas
Métrica | Definición | Uso Principal |
---|---|---|
Precisión | Proporción de predicciones positivas correctas. | Cuando los falsos positivos son costosos. |
Recall | Proporción de positivos correctamente detectados. | Cuando los falsos negativos son críticos. |
F1-Score | Promedio armónico de precisión y recall. | Para un balance entre precisión y recall. |
Exactitud | Proporción de predicciones correctas totales. | Útil en problemas balanceados. |
F1-Score es una métrica clave en problemas de clasificación.
En escenarios con clases desbalanceadas.
Lograr un equilibrio entre precisión y recall.
Su capacidad para integrar dos métricas en un solo valor.
Te puede interesar;