Saltar la navegación

Métricas de evaluación de modelos

Las métricas de evaluación son medidas utilizadas para cuantificar el rendimiento de un modelo de aprendizaje automático, dependiendo del tipo de problema y los objetivos específicos. Algunas métricas comunes incluyen la precisión, el recall, la precisión, el F1-score, el área bajo la curva ROC (AUC-ROC) y la pérdida logarítmica.

Estas métricas proporcionan una medida cuantitativa del rendimiento del modelo en diferentes aspectos, como la precisión y la capacidad de generalización.



Tipos de métricas de evaluación

Revisemos a continuación el detalle de seis métricas de evaluación.

Presione cada opción para ver el detalle.

Precisión

La precisión es una medida de la exactitud global del modelo y se calcula como el número de predicciones correctas dividido por el número total de predicciones. Es útil cuando las clases están balanceadas en el conjunto de datos.

Recall (Sensibilidad)

El recall es la proporción de ejemplos positivos que fueron correctamente identificados por el modelo. Se calcula como el número de verdaderos positivos dividido por la suma de verdaderos positivos y falsos negativos. Es útil cuando es importante detectar todos los ejemplos positivos, incluso a costa de cometer más falsos positivos.

Especificidad

La especificidad es la proporción de ejemplos negativos que fueron correctamente identificados por el modelo. Se calcula como el número de verdaderos negativos dividido por la suma de verdaderos negativos y falsos positivos.

Valor F1

El valor F1 es la media armónica de precisión y recall y se utiliza para medir el equilibrio entre ambas métricas. Es útil cuando se desea una medida única que combine precisión y recall en un solo número.

AUC-ROC (Área Bajo la Curva de Características Operativas del Receptor)

La AUC-ROC es una métrica que evalúa la capacidad del modelo para distinguir entre clases. Representa el área bajo la curva ROC, que es un gráfico de la tasa de verdaderos positivos frente a la tasa de falsos positivos en diferentes umbrales de decisión.

Matriz de Confusión

La matriz de confusión es una tabla que muestra el número de predicciones correctas e incorrectas realizadas por el modelo en cada clase. Es útil para visualizar el rendimiento del modelo en diferentes clases y calcular métricas como precisión, recall y especificidad.

Estas son algunas de las métricas de evaluación más comunes en el aprendizaje automático, pero existen muchas otras dependiendo del tipo de problema y del contexto específico de la aplicación. La elección de la métrica adecuada depende de los objetivos del modelo y las características del conjunto de datos.

Creado con eXeLearning (Ventana nueva)