Explicación sencilla de los sistemas de visión artificial con deserción

CONTENIDO

COMPARTIR TAMBIÉN

Explicación sencilla de los sistemas de visión artificial con deserción

Un sistema de visión artificial con abandono utiliza la función de abandono para desactivar aleatoriamente algunas neuronas durante el entrenamiento en modelos de aprendizaje profundo. Este método ayuda a prevenir el sobreajuste, un problema común en el aprendizaje automático cuando un modelo memoriza imágenes de entrenamiento pero tiene dificultades con las nuevas. El abandono permite una mejor generalización, lo que aumenta la fiabilidad de los modelos de visión artificial para tareas del mundo real. En conjuntos de datos de referencia, el abandono mejora la precisión de las pruebas y reduce la pérdida de datos en comparación con otros métodos de regularización.

Gráfico de barras que compara la precisión de las pruebas y la pérdida de pruebas entre distintas técnicas

En la práctica, un sistema de visión artificial con dropout puede aumentar la estabilidad del modelo en aproximadamente un 20 % y reducir la varianza de la predicción en un 25 %. Estos resultados demuestran que el dropout fortalece tanto el aprendizaje automático como los sistemas de visión artificial.

Puntos clave

  • La función Dropout ayuda a los modelos de visión artificial a evitar el sobreajuste al deshabilitar aleatoriamente las neuronas durante el entrenamiento, lo que mejora su capacidad para reconocer nuevas imágenes.
  • El uso de la deserción conduce a mejor precisión del modelo, estabilidad y generalización, lo que hace que los sistemas de visión sean más confiables en tareas del mundo real.
  • Las tasas típicas de abandono varían entre 0.2 y 0.5, y es necesario realizar un ajuste cuidadoso para equilibrar el aprendizaje y evitar el sobreajuste o el subajuste.
  • La deserción escolar funciona mejor cuando Colocado después de estar completamente conectado o capas convolucionales y deben desactivarse durante las pruebas para garantizar predicciones estables.
  • La combinación de la deserción con otros métodos como la regularización L2 y el aumento de datos puede mejorar aún más el rendimiento del modelo y reducir los errores.

¿Qué es la deserción escolar?

Sobreajuste en modelos de visión

El sobreajuste ocurre Cuando un modelo aprende demasiado bien los datos de entrenamiento, memoriza detalles y ruido en lugar de comprender los patrones principales. En el aprendizaje automático, especialmente en el aprendizaje profundo, el sobreajuste provoca un rendimiento deficiente de los modelos con imágenes nuevas. Las redes neuronales profundas suelen tener millones de parámetros. Estas redes pueden ajustar fácilmente los datos de entrenamiento, pero tienen dificultades para generalizarlos a ejemplos desconocidos.

Un sistema de visión artificial con dropout utiliza el dropout como técnica de aprendizaje automático para abordar este problema. El dropout desactiva aleatoriamente algunas neuronas durante el entrenamiento. Este proceso obliga a la red a aprender características más robustas. Como resultado, el modelo no depende demasiado de ninguna neurona o ruta individual. Los investigadores probaron el dropout en conjuntos de datos de visión estándar como MNIST, CIFAR-10, CIFAR-100, SVHN e ImageNet. Descubrieron que el dropout mejoraba sistemáticamente la generalización y reducía los errores de prueba en comparación con los modelos sin dropout. En MNIST, los modelos con dropout mostraron errores de prueba mucho menores en diferentes arquitecturas. El dropout combinado con la regularización de norma máxima logró los errores de generalización más bajos entre los regularizadores probados, superando el decaimiento de peso L2, Lasso y la escasez de KL.

La deserción en el aprendizaje profundo funciona mejor dentro de un rango de tamaño de conjunto de datos determinado. No mejora o incluso puede perjudicar el rendimiento en conjuntos de datos extremadamente pequeños o muy grandes.

Por qué es importante la deserción escolar

La deserción juega un papel clave en la regularización del aprendizaje de redes neuronales profundas. Ayuda a reducir el sobreajuste y mejora la capacidad de los modelos para procesar nuevos datos. En el aprendizaje profundo, la deserción actúa como una herramienta simple pero potente para aumentar la fiabilidad de los modelos. Al descartar neuronas aleatoriamente, la red no puede depender de rutas específicas. Esto fomenta que el modelo aprenda patrones generales que funcionan para muchas imágenes.

Los investigadores han aplicado la función de abandono a las capas convolucionales en SVHN y han observado un rendimiento mejorado. Este resultado demuestra que incluso las capas que antes se consideraban menos propensas al sobreajuste pueden beneficiarse de la función de abandono. La tasa óptima de abandono para las capas ocultas es de aproximadamente 0.5, mientras que la capa de entrada necesita una tasa cercana a 1.0. Las capas de abandono suelen colocarse después de las capas densas en arquitecturas como DenseNet121 y después de los bloques residuales en ResNets.

En las tareas modernas de visión artificial, la pérdida de datos (dropout) sigue siendo una opción popular. Las tasas de pérdida de datos varían según el conjunto de datos, como 0.1 para imágenes cervicales y 0.2 para osteoartritis de rodilla. La pérdida de datos de Monte Carlo, que repite las predicciones varias veces y promedia los resultados, mejora la estabilidad del modelo y reduce la variabilidad test-retest. Este enfoque se ha validado en tareas de imágenes médicas mediante redes neuronales profundas como ResNet18, ResNet50 y DenseNet121.

  • Los modelos de abandono muestran una repetibilidad y calibración mejoradas, especialmente en los límites de clase.
  • Después de aproximadamente 20 iteraciones de Monte Carlo, las ganancias de repetibilidad adicionales se vuelven mínimas.
  • La deserción implica un mayor coste computacional pero ofrece mejor estabilidad y reduce el sobreajuste.

La deserción destaca como un método confiable de regularización del aprendizaje en el aprendizaje profundo. Facilita la generalización de los modelos de aprendizaje automático y reduce el riesgo de sobreajuste. Para quienes desarrollan un sistema de aprendizaje automático, la deserción ofrece una forma práctica de mejorar el rendimiento y la confiabilidad.

Fundamentos del sistema de visión artificial con deserción

Cómo funciona la deserción escolar

Un sistema de visión artificial con abandono utiliza el abandono para mejorar la fiabilidad de las redes neuronales profundas. El abandono funciona desactivando aleatoriamente algunas neuronas durante el entrenamiento. Este proceso evita que la red dependa demasiado de una sola neurona. Los siguientes pasos describen cómo funciona la implementación del abandono en la práctica:

  1. Durante cada iteración de entrenamiento, el sistema selecciona cada neurona (excepto las neuronas de salida) que se eliminará con una probabilidad denominada tasa de abandono.
  2. El sistema elige qué neuronas descartar al azar.
  3. El pase hacia adelante utiliza la red reducida, con las neuronas descartadas establecidas en cero.
  4. La retropropagación actualiza solo las neuronas activas, ignorando las descartadas.
  5. Durante la prueba, la deserción se desactiva y todas las neuronas permanecen activas.
  6. Para mantener la salida consistente, el sistema escala los pesos de las neuronas en (1 – tasa de abandono) durante la prueba.

Este enfoque crea un conjunto implícito de redes neuronales. Cada iteración entrena una subred ligeramente diferente. El método de abandono de redes neuronales ayuda a los modelos de aprendizaje profundo a generalizar mejor, obligándolos a aprender características robustas. La regularización de abandono garantiza que el modelo no dependa de neuronas específicas, lo que ayuda. reducir el sobreajuste y mejora el rendimiento con nuevos datos.

Consejo: La implementación de Dropout no elimina las neuronas permanentemente. Solo las ignora temporalmente durante cada paso de entrenamiento.

Tasas típicas de abandono escolar

Elegir la probabilidad de abandono correcta es importante para una regularización eficaz. La mayoría de los modelos de aprendizaje profundo utilizan tasas de abandono entre 0.2 y 0.5. El efecto de las diferentes tasas depende del tipo de red y de la tarea:

  • Es posible que tasas de abandono de alrededor de 0.2 no sean suficientes para evitar el sobreajuste en redes neuronales profundas y grandes.
  • Las tasas cercanas a 0.5 funcionan bien para capas completamente conectadas, especialmente en modelos de aprendizaje profundo para reconocimiento de imágenes.
  • Tasas muy altas, como 0.7, pueden provocar un desajuste al descartar demasiadas neuronas, lo que dificulta el aprendizaje del modelo.
  • En las redes neuronales convolucionales, la pérdida espacial elimina mapas de características completos, generalmente con tasas entre 0.2 y 0.3.
  • En el caso de redes neuronales recurrentes, la pérdida se aplica a conexiones no recurrentes, a menudo con tasas de entre 0.3 y 0.5.

La siguiente tabla resume las tasas de abandono típicas y sus efectos en diferentes arquitecturas:

Tipo de red Tasa típica de abandono escolar Efecto sobre el modelo
Capas totalmente conectadas 0.5 Equilibra el sobreajuste y el subajuste
Redes neuronales convolucionales 0.2 – 0.3 Evita el sobreajuste, especialmente en modelos profundos
Redes neuronales recurrentes 0.3 – 0.5 Mejora la generalización de los datos de secuencia.

Ajustar la tasa de abandono para cada arquitectura y conjunto de datos es fundamental. La regularización del abandono funciona mejor cuando la tasa se ajusta a la complejidad del modelo y al tamaño del conjunto de datos.

Impacto en el rendimiento del modelo

La regularización de la pérdida de datos tiene un fuerte impacto en el rendimiento de las redes neuronales profundas en el aprendizaje automático y la visión artificial. Mediante la pérdida de datos, los modelos pueden lograr una mayor precisión y requerir menos épocas de entrenamiento. La siguiente tabla muestra cómo la pérdida de datos afecta a diferentes modelos en conjuntos de datos de referencia:

Modelo Conjunto de datos Precisión de referencia (%) Precisión de la variante de abandono (%) Épocas efectivas (abandono) Notas
EfficientNet-B0 CIFAR-10 ~ 88-90 89.87 – 90.01 ~ 9-10 Mantiene o mejora la precisión con menos épocas
EfficientNet-B0 CIFAR-100 ~ 60-68 68.80 – 70.75 33 – 46 Mejora la precisión y reduce las épocas de entrenamiento.
MobileNet-V2 CIFAR-10 ~ 87.4 87.44 – 87.62 ~ 9-10 Precisión comparable con menos épocas
MobileNet-V2 CIFAR-100 ~ 63-75 63.31 – 75.23 40 – 55 Mejora la precisión y reduce las épocas.
ResNet-50 CIFAR-10 ~ 87-88 87.01 – 88.20 7 – 10 Mantiene la precisión con menos épocas
ResNet-50 CIFAR-100 ~ 60-81 60.22 – 81.45 21 – 42 Mejora la precisión y reduce las épocas.
EfficientFormer-L1 CIFAR-10 ~ 80.6 80.66 – 80.81 15 Precisión comparable con menos épocas
EfficientFormer-L1 CIFAR-100 ~ 58-87 58.08 – 87.78 39 – 76 Mejora la precisión y reduce las épocas.
ViT-B-MAE (preentrenado) CIFAR-100 ~ 86.9 86.94 – 87.45 71 – 82 Ligera mejora de la precisión con la deserción

Los resultados del sistema de visión artificial con abandono muestran que la regularización del abandono puede mantener o incluso mejorar la precisión, a la vez que reduce el número de épocas de entrenamiento. Esto hace que el entrenamiento sea más eficiente y económico.

El siguiente gráfico muestra cómo el cambio del umbral de abandono afecta la precisión en el conjunto de datos CIFAR-100 utilizando EfficientNet-B0:

Gráfico de líneas que muestra el impacto de los umbrales de abandono en la precisión del modelo

A medida que aumenta el umbral de abandono, la precisión generalmente mejora hasta cierto punto. Este patrón muestra que la implementación del abandono puede mejorar la generalización en modelos de aprendizaje profundo. Sin embargo, establecer un umbral demasiado alto puede provocar un subajuste.

La regularización de la pérdida de datos también ayuda a reducir el sobreajuste, reduciendo la sensibilidad del modelo al ruido en los datos de entrenamiento. En el aprendizaje profundo, esto permite una mejor generalización y predicciones más fiables en nuevas imágenes. Los diseñadores de sistemas de visión artificial con pérdida de datos suelen combinar la pérdida de datos con otros métodos de regularización del aprendizaje para obtener los mejores resultados en tareas de visión artificial.

Aprendizaje profundo y abandono escolar

Dónde utilizar Dropout

Los ingenieros suelen colocar capas de abandono después de capas densas o completamente conectadas en los modelos de aprendizaje profundo. Estas capas ayudan a prevenir sobreajuste Desactivando aleatoriamente algunas neuronas durante el entrenamiento. En redes neuronales convolucionales, la deserción funciona mejor después de los bloques convolucionales o justo antes de la capa de clasificación final. Esta ubicación permite que el modelo aprenda características sólidas de las imágenes, a la vez que aprovecha los beneficios de la regularización.

La pérdida de datos en el aprendizaje profundo también se produce en algunas capas de entrada, pero los expertos utilizan tasas más bajas en ellas. Por ejemplo, un modelo podría utilizar una tasa de pérdida de datos de 0.2 después de la capa de entrada y de 0.5 después de las capas ocultas. Este enfoque ayuda al modelo a evitar la pérdida excesiva de información en las primeras etapas del proceso. Al desarrollar un sistema de aprendizaje automático para visión, los desarrolladores deben experimentar con diferentes ubicaciones y tasas para encontrar la configuración óptima para sus datos.

Consejo: Coloque capas de abandono después de funciones de activación como ReLU para obtener mejores resultados.

Errores comunes

Muchos equipos cometen errores al usar la tasa de abandono. El error más común consiste en establecer una tasa de abandono demasiado alta. Si el modelo descarta demasiadas neuronas, no puede aprender lo suficiente de los datos. Este problema provoca un subajuste, donde el modelo tiene un rendimiento deficiente tanto en las imágenes de entrenamiento como en las de prueba.

Otro error consiste en usar la función de abandono durante las pruebas o la inferencia. Esta función solo debería funcionar durante el entrenamiento. Si se deja activada durante las pruebas, el modelo genera predicciones inestables y poco fiables.

La siguiente tabla enumera los errores más comunes y sus soluciones:

Trampa Solución
La tasa de abandono escolar es demasiado alta Utilice tasas entre 0.2 y 0.5
Dropout utilizado durante la prueba Desactivar la deserción para la inferencia
Abandono antes de las capas convolucionales Colocar después de capas convolucionales o densas

Los desarrolladores deben supervisar siempre el rendimiento del modelo y ajustar la configuración de abandono según sea necesario. Un ajuste meticuloso garantiza que los modelos de aprendizaje profundo se generalicen correctamente y eviten tanto el sobreajuste como el subajuste.

Comparación de métodos de regularización

Abandono vs. Regularización de L2

Tanto la regularización de abandono como la regularización L2 ayudan a los modelos de aprendizaje profundo a evitar sobreajusteUtilizan diferentes enfoques. La regularización L2 añade una penalización a la función de pérdida para pesos altos. Esta penalización insta al modelo a mantener pesos bajos. Pesos más bajos ayudan al modelo a mantenerse simple y evitan la memorización de los datos de entrenamiento.

La regularización por abandono funciona desactivando neuronas aleatoriamente durante el entrenamiento. Este método obliga a la red a aprender características que no dependen de ninguna neurona. La regularización por abandono crea muchas subredes más pequeñas dentro de la red principal. Cada subred aprende a resolver la tarea de forma ligeramente diferente. Este proceso permite una mejor generalización.

La regularización por abandono suele funcionar bien con la regularización L2. Muchos ingenieros combinan ambos métodos para obtener mejores resultados.

La regularización L2 modifica el modelo al reducir los pesos. La regularización por abandono modifica el modelo al eliminar partes de la red durante el entrenamiento. Ambos métodos reducen el sobreajuste, pero la regularización por abandono suele ofrecer mejores resultados en redes neuronales profundas para tareas de visión.

Abandono vs. Aumento de datos

Regularización de la deserción escolar y aumento de datos Ambos mejoran el rendimiento del modelo, pero utilizan estrategias diferentes. La regularización de abandono modifica la red durante el entrenamiento. La mejora de datos modifica las imágenes de entrada. Los ingenieros utilizan la mejora de datos para crear nuevas muestras de entrenamiento invirtiendo, difuminando o combinando imágenes. Este proceso ayuda al modelo a ver más ejemplos y a aprender a gestionar diferentes situaciones.

La siguiente tabla muestra cómo el aumento de datos mejora los resultados en las tareas de visión artificial:

Método mAP@0.50 Precisión Recordar
Línea base (sin aumento) 0.654 BCBHXNUMX* BCBHXNUMX*
Aumento clásico (volteo, desenfoque) 0.821 BCBHXNUMX* BCBHXNUMX*
Composición de imágenes (método propuesto) 0.911 0.904 0.907

La regularización por abandono no modifica los datos de entrada. Ayuda al modelo a aprender características robustas, evitando la dependencia de un único conjunto de características. El aumento de datos aumenta la variedad de los datos de entrenamiento. Ambos métodos reducen el sobreajuste y mejoran la generalización. Muchos equipos utilizan la regularización por abandono y el aumento de datos conjuntamente para obtener los mejores resultados.

El aumento de datos puede generar grandes ganancias en precisión, pero la regularización de la pérdida de datos sigue siendo una herramienta clave para construir sistemas de visión artificial sólidos y confiables.

Ejemplos del mundo real

Ejemplos del mundo real

Caso de clasificación de imágenes

Un equipo de investigadores exploró la clasificación de imágenes utilizando el conjunto de datos CIFAR-10. Construyeron dos modelos: uno con regularización y otro sin ella. El modelo sin regularización aprendió rápidamente las imágenes de entrenamiento. Sin embargo, su pérdida de validación aumentó después de solo unas pocas rondas de entrenamiento. Este patrón mostró que el modelo memorizaba los datos de entrenamiento, pero no lograba un buen rendimiento con nuevas imágenes. Posteriormente, el equipo añadió regularización al segundo modelo. Colocaron capas de regularización en la arquitectura de red utilizando PyTorch. El nuevo modelo aprendió más lentamente, pero su precisión de validación mejoró. La pérdida de validación se mantuvo baja, incluso después de muchas rondas de entrenamiento. Este resultado demostró que la regularización ayudó al modelo a generalizar mejor. El equipo concluyó que la regularización sobreajuste reducido y un rendimiento mejorado en imágenes no vistas.

Resumen de resultados

Los proyectos recientes de visión artificial utilizan varios métricas de resultados Para medir el éxito de los métodos de regularización. La siguiente tabla resume estas métricas:

Métrica de resultado Descripción
Abandono temprano Participantes que completaron el primer módulo pero no continuaron o iniciaron sesión menos de siete días únicos.
Duración del participante Número de días entre el primer y el último inicio de sesión en el sistema.
Éxito de la intervención Finalización de todos los módulos y logro de los objetivos previstos, como alcanzar un umbral de registro específico.
Precisión de clasificación Precisión del modelo de aprendizaje automático en la predicción del abandono temprano, con valores de hasta el 81.81 % después del ajuste.

Los equipos de visión artificial suelen utilizar algoritmos como árboles de decisión, SVM y métodos de boosting como LightGBM y CatBoost. Aplican técnicas como SMOTE para equilibrar los datos y utilizan el ajuste de hiperparámetros para mejorar los resultados. Los algoritmos de boosting suelen ofrecer el mejor rendimiento predictivo. Estas métricas ayudan a los equipos a comprender el rendimiento de sus modelos y dónde se necesitan mejoras.


La deserción fortalece los sistemas de visión artificial al reducir el sobreajuste y mejorar la generalización. Los ingenieros obtienen los mejores resultados al colocar la deserción después de capas completamente conectadas y al monitorizar el progreso con métricas como la precisión de la validación y la pérdida de entrenamiento.

  • La deserción funciona bien con tasas de aprendizaje y un impulso más elevados, aunque puede aumentar el tiempo de capacitación.
  • La normalización por lotes a menudo reemplaza la pérdida en las capas convolucionales.
  • Los equipos deben experimentar con tasas de abandono entre 0.2 y 0.5, utilizando una cuadrícula o una búsqueda aleatoria para ajustar.

La evaluación constante y la documentación cuidadosa ayudan a los equipos a construir modelos de visión confiables y de alto rendimiento.

Preguntas Frecuentes

¿Cuál es el principal beneficio de utilizar dropout en sistemas de visión artificial?

La deserción escolar ayuda a los modelos evitar el sobreajusteMejora la capacidad del sistema para reconocer nuevas imágenes. Los ingenieros obtienen resultados más fiables en tareas del mundo real.

¿Se puede utilizar el dropout con otros métodos de regularización?

Sí. Los ingenieros suelen combinar la deserción con la regularización L2 o el aumento de datos. Esta combinación puede mejorar aún más el rendimiento y la estabilidad del modelo.

¿El abandono escolar ralentiza el entrenamiento?

La deserción puede aumentar el tiempo de entrenamiento, ya que el modelo aprende de muchas subredes. Sin embargo, suele generar mayor precisión y resultados más estables.

¿Cómo elegir la tasa de abandono escolar adecuada?

Los ingenieros prueban diferentes tasas, generalmente entre 0.2 y 0.5. Monitorean la precisión y la pérdida de la validación. La tasa óptima depende del modelo y el conjunto de datos.

Vea también

Entendiendo cómo la electrónica impulsa los sistemas de visión artificial

Una guía completa sobre las cámaras utilizadas en visión artificial

Exploración de modelos de visión artificial dentro de sistemas de visión artificial

Introducción a la clasificación mediante tecnología de visión artificial

Comparación de la visión artificial basada en firmware con los métodos tradicionales

Vea también

Guía para principiantes sobre segmentación de imágenes para visión artificial
Cómo la detección de puntos clave impulsa los sistemas de visión artificial modernos
Comprensión de la red totalmente convolucional FCN en sistemas de visión artificial
Sistemas de propuesta de regiones y su importancia en la visión artificial
Los principios básicos de la transformación de características invariantes de escala SIFT en visión artificial
Mecanismos de atención definidos para aplicaciones de visión artificial
Una definición sencilla de agrupamiento en visión artificial
Explicación de los sistemas de visión artificial con detector de una sola etapa
¿Qué es un sistema de visión artificial con estimación de pose y cómo funciona?
¿Qué significa ajustar un sistema de visión artificial?
Ir al Inicio