¿Qué es overfitting?

El overfitting (sobreajuste) ocurre cuando una red neuronal (o cualquier modelo de IA) aprende demasiado bien los datos de entrenamiento, hasta el punto de memorizar sus detalles y errores, en lugar de aprender patrones generales.

What is underfitting and overfitting in machine learning and how to deal with it. | by Anup Bhande | GreyAtom | Medium


🔍 Ejemplo intuitivo

Imagina que enseñas a un niño a reconocer perros:

  • Si le muestras solo tus fotos de tu perro, aprenderá a reconocer a TU perro, pero fallará con otros.

  • Eso es overfitting: el niño (el modelo) se adaptó demasiado a ejemplos específicos y no generaliza.


📉 Síntomas de overfitting

  • Alta precisión en entrenamiento, pero baja precisión en validación/test.

  • La red se vuelve muy compleja: muchos parámetros ajustados a detalles irrelevantes.

  • El error de validación empieza a subir mientras el error de entrenamiento sigue bajando.


⚠️ Causas principales

  • Pocos datos de entrenamiento.

  • Modelo demasiado complejo (muchas capas, demasiados parámetros).

  • Entrenamiento demasiado largo sin control.

  • Datos ruidosos o desbalanceados.


🛠️ Cómo evitarlo

  1. Más datos o data augmentation.

  2. Regularización (L1, L2).

  3. Dropout (apagar neuronas al azar).

  4. Early stopping (detener cuando la validación empeora).

  5. Modelos más simples (no siempre “más grande” es mejor).

  6. Cross-validation para comprobar que generaliza.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *