Selección de modelos en sistemas de visión artificial simplificada

CONTENIDO

COMPARTIR TAMBIÉN

Selección de modelos en sistemas de visión artificial simplificada

Seleccionar el modelo adecuado para un sistema de visión artificial no tiene por qué ser abrumador. Ahora, numerosas herramientas y métricas facilitan el proceso.

  • Los métodos de validación cruzada arrojan puntuaciones de precisión claras, como 84.4%, para comparar modelos directamente.
  • Paquetes como scikit-learn y glmnet de R ofrecen regularización y validación cruzada integradas, que ayudan a los usuarios a evitar el sobreajuste.
  • Métricas como el error absoluto medio y el R cuadrado proporcionan formas sencillas de evaluar el rendimiento del modelo.
    Un enfoque paso a paso aclara cada etapa, desde la definición del problema hasta la elección del mejor modelo. Esta estructura ayuda a los equipos a alinear su trabajo con los objetivos del mundo real. Con la orientación adecuada, el sistema de visión artificial para la selección de modelos se vuelve fácil de gestionar para cualquier equipo.

Puntos clave

  • Elija modelos de visión artificial según la complejidad de la tarea; las tareas simples se adaptan a los modelos tradicionales, las tareas complejas necesitan un aprendizaje profundo.
  • Use buen hardware como cámaras de alta resolución e iluminación adecuada para mejorar la calidad de la imagen y la precisión del modelo.
  • Evaluar modelos con métricas claras como precisión, exactitud, recuperación y puntuación F1 para garantizar un rendimiento confiable.
  • Siga un flujo de trabajo paso a paso que incluye controles de calidad de datos, selección de características, ajuste de modelos y pruebas de imparcialidad para obtener mejores resultados.
  • Evite errores comunes como sobreajuste, ignorar sesgos y documentación deficiente para construir sistemas de visión artificial confiables.

Necesidades de aplicación

Tarea de visión

Un sistema de visión artificial debe adaptar su tarea de visión a las necesidades de la Práctica En las fábricas, los sistemas de procesamiento de imágenes facilitan muchas tareas. Estas incluyen la clasificación de piezas, el guiado de robots, el recuento de artículos y la detección de defectos. Por ejemplo, un sistema podría contar tornillos en una cinta transportadora o comprobar si un producto tiene la etiqueta correcta. Algunas tareas requieren que el sistema mida el tamaño de los objetos o lea códigos de barras. Otras requieren que el sistema detecte pequeños defectos en las superficies o se asegure de que los trabajadores usen equipo de seguridad.

Los sistemas industriales de procesamiento de imágenes suelen utilizar cámaras para capturar imágenes en tiempo real. El procesamiento de la información de las imágenes las analiza para detectar problemas o contabilizar los artículos. Los controladores lógicos programables (PLC) pueden utilizar esta información para retirar productos defectuosos o alertar a los trabajadores. La elección del hardware y el software depende de la tarea de visión. Por ejemplo, la detección de defectos superficiales requiere cámaras de alta definición y procesamiento avanzado de imágenes. En cambio, la monitorización de la temperatura de los alimentos utiliza termografía y aprendizaje profundo. La siguiente tabla muestra cómo las diferentes tareas requieren hardware y software diferentes:

Necesidad/Tarea de la aplicación Elección del hardware Elección de software Razón / Impacto
Detección de defectos superficiales Cámaras de alta definición Aprendizaje profundo, procesamiento de imágenes Inspección detallada, alta precisión.
Análisis de la composición interna Sensores hiperespectrales, rayos X Clasificación de imágenes multiespectrales Propiedades internas, imágenes avanzadas
Medición de volumen y tamaño Cámaras estéreo 3D, cámaras RGB-D Algoritmos de análisis de profundidad Estimación precisa del volumen

Criterio de desempeño

Rendimiento Es fundamental para cualquier sistema de procesamiento de imágenes. El sistema debe funcionar con rapidez y ofrecer resultados precisos. Las medidas de rendimiento comunes incluyen exactitud, precisión, recuperación y puntuación F1. Estas ayudan a los usuarios a saber si el sistema de visión artificial detecta defectos o cuenta los elementos correctamente. Por ejemplo, la exactitud muestra la frecuencia con la que el sistema acierta. La precisión indica cuántos defectos detectados son reales. La recuperación muestra cuántos defectos reales encuentra el sistema. La puntuación F1 combina precisión y recuperación para una visión equilibrada.

Otros factores de rendimiento incluyen la velocidad del sistema y su consumo de energía. Algunos sistemas deben procesar imágenes en tiempo real, por lo que una baja latencia es fundamental. El tamaño del modelo también es importante, especialmente para dispositivos pequeños. Los conjuntos de datos estándar, como ImageNet, ayudan a comparar diferentes sistemas. Las pruebas estadísticas y los intervalos de confianza garantizan la significatividad de los resultados. Un buen procesamiento de la información de imágenes depende tanto de un hardware potente como de un software inteligente. El hardware especializado, como las GPU, puede optimizar el funcionamiento de algunos algoritmos, pero puede limitar el de otros. Esto demuestra que las necesidades de la aplicación determinan la elección tanto del hardware como del software en un sistema de visión artificial.

Sistema de visión artificial para selección de modelos

Tipos de modelo

La selección de modelos para sistemas de visión artificial comienza con la comprensión de los principales tipos de modelos. Existen dos grupos principales: modelos de aprendizaje automático tradicionales y... modelos de aprendizaje profundoCada grupo tiene fortalezas únicas y se adapta a diferentes necesidades en un sistema de visión artificial.

La siguiente tabla compara estos dos grupos:

Aspecto Aprendizaje automático tradicional (ML) Aprendizaje profundo (DL)
Tiempo de entrenamiento Más corto; segundos a minutos Más largo; necesita más tiempo y GPU más potentes
Recursos Computacionales Funciona con CPU estándar; rentable Necesita GPU o hardware especial
Requisito de tamaño del conjunto de datos Funciona con pequeños conjuntos de datos Necesita grandes conjuntos de datos etiquetados
Complejidad del modelo Modelos simples (por ejemplo, árboles de decisión, regresión lineal) Arquitecturas complejas de múltiples capas
Escalabilidad Limitado con big data Mejora con más datos; altamente escalable
Interpretabilidad Fácil de entender y depurar. Difícil de explicar; a menudo una "caja negra"
Tiempo de procesamiento Inferencia muy rápida Inferencia más lenta en comparación con ML

Los modelos tradicionales incluyen árboles de decisión, máquinas de vectores de soporte y regresión logística. Estos modelos funcionan bien cuando los datos son limitados y el problema es simple. Los modelos de aprendizaje profundo, como las redes neuronales convolucionales (CNN), procesan imágenes complejas y grandes conjuntos de datos. Aprenden patrones directamente de los datos sin procesar, lo que los hace eficaces para tareas como la detección de objetos y la clasificación de imágenes.

Cuándo usar cada uno

La selección de modelos para sistemas de visión artificial depende de la tarea y los datos. Tareas sencillas, como contar objetos o leer códigos de barras, suelen utilizar modelos tradicionales. Estos modelos requieren menos datos y se ejecutan en hardware básico. Además, ofrecen razones claras para sus decisiones, lo que aumenta la confianza de los usuarios en los resultados.

Los modelos de aprendizaje profundo destacan en tareas complejas. Por ejemplo, detectar pequeños defectos en una superficie o reconocer rostros en una multitud requiere aprendizaje profundo. Estos modelos procesan muchos detalles de la imagen y aprenden de grandes conjuntos de datos. Requieren mayor potencia de procesamiento, pero pueden detectar patrones que los modelos tradicionales pasan por alto.

Los investigadores descubrieron que la complejidad de las tareas influye en el modelo que mejor funciona. Cuando un sistema de visión artificial se enfrenta a una tarea sencilla, puede utilizar un enfoque sin modelos, como un modelo tradicional. A medida que la tarea se vuelve más compleja, el sistema se beneficia de un enfoque basado en modelos, como el aprendizaje profundo. El cerebro también utiliza esta estrategia. Cambia a métodos más flexibles y exploratorios cuando las tareas se vuelven complejas. Cuando la incertidumbre es alta, el sistema puede recurrir a modelos más simples para mayor fiabilidad.

Consejo: Siempre ajuste el modelo a la tarea. Los trabajos sencillos requieren modelos sencillos. Los trabajos complejos requieren modelos avanzados.

La selección del modelo del sistema de visión artificial también necesita una evaluación sólida. Validación cruzada Ayuda a los equipos a probar modelos y evitar el sobreajuste. El sobreajuste ocurre cuando un modelo aprende los datos de entrenamiento demasiado bien, pero falla con datos nuevos. La validación cruzada divide los datos en partes, entrena el modelo con algunas partes y lo prueba con otras. Este proceso verifica si el modelo funciona correctamente con diferentes datos.

Las estrategias comunes de validación cruzada incluyen:

  • La validación cruzada K-Fold divide los datos en K grupos y prueba cada grupo.
  • La validación cruzada anidada ayuda a elegir la complejidad correcta del modelo y verifica la generalización.
  • La validación cruzada estratificada mantiene el equilibrio de clases, lo cual es importante para los defectos poco frecuentes.
  • La validación cruzada de series de tiempo respeta el orden de las imágenes en tareas basadas en el tiempo.
  • La regularización agrega penalizaciones al modelo, haciéndolo más simple y menos propenso a sobreajustes.
  • Mantener los datos relacionados juntos en el mismo archivo evita fugas de datos.

La selección de modelos para sistemas de visión artificial se simplifica con estas herramientas. Los equipos pueden comparar modelos utilizando puntuaciones promedio de la validación cruzada, como el R² o el error absoluto medio. Estos pasos garantizan el correcto funcionamiento del modelo elegido en entornos reales.

Hardware de visión artificial

Hardware de visión artificial

Cámara y lente

La cámara y el objetivo forman el núcleo de cualquier unidad de adquisición de imágenes En hardware de visión artificial. Sus decisiones determinan la calidad y la utilidad de las imágenes capturadas. El campo de visión y la resolución establecen los límites de lo que el sistema puede ver y medir. Las cámaras de alta resolución permiten a la unidad de adquisición de imágenes detectar defectos minúsculos, lo que mejora el rendimiento en tareas como la inspección de superficies. La lente también desempeña un papel fundamental. Diferentes tipos de distorsión de la lente, como la distorsión de barril o la distorsión de cojín, pueden alterar la apariencia de los objetos. Estas distorsiones pueden causar errores en la estimación del tamaño, a veces de hasta un 30 %. Los algoritmos de calibración y corrección ayudan a solucionar estos problemas y a mejorar la precisión de la medición.

Impacto de la distorsión de la lente Efecto sobre el rendimiento de la visión artificial
Distorsión máxima de hasta 1.4 píxeles en ciertas lentes. Provoca disminuciones mensurables en la precisión de la medición si no se corrige
Pequeñas distorsiones estadísticamente significativas No se puede ignorar en aplicaciones prácticas debido al impacto en la confiabilidad.
Parámetros de distorsión altamente significativos sin sobreajuste Indica una influencia constante en la precisión del sistema.

Una combinación adecuada de cámara y lente en la unidad de adquisición de imágenes garantiza que el hardware de visión artificial satisfaga las necesidades de la aplicación. Las cámaras de alta velocidad permiten la inspección en tiempo real, lo cual es importante para líneas de producción rápidas. La resolución óptica y el aumento ayudan al sistema a visualizar con claridad los detalles pequeños.

Sensores e iluminación

Los sensores y la iluminación completan la unidad de adquisición de imágenes y afectan directamente rendimiento del hardware de visión artificialLa resolución del sensor determina la cantidad de detalle que el sistema puede capturar. Los sensores avanzados, combinados con la iluminación adecuada, revelan defectos que las configuraciones de menor calidad podrían pasar por alto. Las condiciones de iluminación, como el brillo y el ángulo, modifican la apariencia de las características en las imágenes. Estudios demuestran que una iluminación optimizada mejora la claridad de la imagen, lo que ayuda a los modelos de redes neuronales a alcanzar una alta precisión. Por ejemplo, EfficientNet logró una precisión de detección de defectos superior al 98 % al combinarse con una buena iluminación y sensores.

Los factores ambientales, como el polvo y la humedad, también pueden afectar el rendimiento del sensor. El hardware de visión artificial suele utilizar la fusión de sensores, combinando datos de corriente eléctrica, vibración y visión. Este enfoque aumenta la precisión del modelo y ayuda al sistema a adaptarse a diferentes tareas. La combinación adecuada de sensores e iluminación en la unidad de adquisición de imágenes garantiza resultados fiables y facilita la selección del modelo óptimo para cada aplicación.

Evaluación del modelo

Criterios de comparación

Los equipos utilizan criterios claros para comparar modelos En proyectos de visión artificial, se analiza la eficacia de cada modelo para la tarea de procesamiento de imágenes. Las métricas comunes incluyen exactitud, precisión, recuperación y puntuación F1. Estos números indican si un modelo encuentra defectos o cuenta objetos correctamente. Para la detección de objetos, los equipos utilizan la intersección sobre unión (IoU) y la precisión media promedio (mAP). Las tareas de segmentación de imágenes se basan en el coeficiente de Dice y el índice de Jaccard. Cada métrica ofrece una visión diferente del rendimiento del modelo.

Tipo de tarea Métricas de evaluación comunes Propósito/Descripción
Clasificación de imagen Exactitud, Precisión, Recordatorio, Puntuación F1, Matriz de Confusión Medir la exactitud de la clasificación, el equilibrio entre precisión y recuperación, y los tipos de error.
Detección de objetos Intersección sobre la unión (IoU), precisión media promedio (mAP) Evaluar la precisión de localización y detección en todas las clases
Segmentación de imagen Coeficiente de dados, índice de Jaccard, precisión de píxeles Evaluar la superposición y similitud entre las máscaras de segmentación previstas y las verdaderas
Generación de imágenes Puntuación de inicio (IS), distancia de inicio de Frechet (FID) Cuantificar la calidad y diversidad de las imágenes generadas en comparación con los datos reales

Algunos equipos utilizan un marco de Análisis de Decisiones Multicriterio (MCDA). Este método combina varias métricas, como la precisión y la complejidad computacional, para clasificar los modelos. El Proceso de Jerarquía Analítica (AHP) ayuda a los equipos a decidir qué criterios son más importantes. Este enfoque es eficaz para tareas complejas de procesamiento de información de imágenes donde una sola métrica no es suficiente.

Los equipos también utilizan pruebas A/B para comparar las predicciones del modelo con la realidad. Realizan un seguimiento de las versiones del modelo y utilizan herramientas visuales como matrices de confusión. Las métricas personalizadas son útiles cuando las estándar no se adaptan a la tarea de procesamiento de imágenes.

Herramientas y puntos de referencia

La industria utiliza herramientas y benchmarks de confianza para probar modelos de visión artificial. MLPerf destaca como un referente para el procesamiento de imágenes y la detección de objetos. DAWNBench mide el tiempo y el coste del entrenamiento en plataformas en la nube. DeepBench comprueba el rendimiento del hardware para el procesamiento de información de imágenes. Los benchmarks de TensorFlow y Nvidia CUDA ayudan a los equipos a perfilar modelos y optimizar el uso de la GPU.

  1. MLPerf: prueba modelos en muchos tipos de hardware y tareas de procesamiento de imágenes.
  2. DAWNBench: se centra en la velocidad y el costo del entrenamiento y la inferencia.
  3. DeepBench: mide el rendimiento del hardware de bajo nivel.
  4. Conjunto de pruebas de rendimiento de TensorFlow: perfila el rendimiento del modelo en todos los dispositivos.
  5. Puntos de referencia de Nvidia CUDA: comprueba la velocidad de la GPU y el uso de energía.

Los equipos analizan la latencia, el rendimiento, el uso de memoria y la eficiencia energética. Seleccionan herramientas que se adaptan a sus necesidades de procesamiento de imágenes y hardware. Estos puntos de referencia ayudan a los equipos a elegir el mejor modelo para el procesamiento de información de imágenes en situaciones reales.

Flujo de trabajo de selección

Flujo de trabajo de selección

Proceso paso a paso

Un flujo de trabajo claro ayuda a los equipos a elegir el mejor modelo para un sistema de visión artificial. La siguiente lista de verificación guía a los usuarios en cada paso importante:

  1. Comprobar la calidad de los datos
    Elimine los datos de baja calidad y las muestras con valores faltantes. Por ejemplo, filtre las características con una frecuencia mínima inferior a 0.01 para conservar únicamente la información fiable.

  2. Evaluar la relevancia de las características
    Calcular los coeficientes de correlación para cada característica. Este paso muestra qué características son más importantes para la tarea.

  3. Seleccionar y probar funciones
    Entrene modelos con diferentes subconjuntos de características. Mida cómo cada conjunto afecta la precisión y el uso de recursos.

  4. Dividir los datos correctamente
    Utilice conjuntos separados para el entrenamiento, la validación y las pruebas. Mantenga siempre el conjunto de prueba final separado de los demás para evitar sesgos.

  5. Ajuste de los parámetros del modelo
    Ajuste parámetros como el número de árboles en un bosque aleatorio o el tipo de kernel en una SVM. Este paso mejora el rendimiento del modelo.

  6. Evaluar con múltiples métricas
    Utilice la precisión, la recuperación y otras métricas. Realice pruebas A/B para ver cómo los cambios en el modelo afectan los objetivos de negocio.

  7. Prueba de imparcialidad y sesgo
    Recopilar datos sobre grupos subrepresentados. Verificar si alguna característica se vincula con categorías protegidas.

  8. Comprobar la obsolescencia del modelo
    Compara los modelos nuevos con los antiguos. Decide con qué frecuencia reentrenar según las caídas de rendimiento.

  9. Garantizar la reproducibilidad
    Minimizar la aleatoriedad en el entrenamiento. Ejecutar pruebas unitarias y de integración en todo el pipeline.

  10. Informar claramente
    Siga una lista de verificación estructurada, como la lista PRIME de 7 elementos, para reducir errores y sesgos.

Consejo: Los equipos que siguen esta lista de verificación a menudo ven menos errores y resultados más confiables.

Errores comunes

Muchos equipos se enfrentan a problemas similares durante la selección de modelos. Conocer estos obstáculos ayuda a evitar errores costosos:

  • Omitir los controles de calidad de los datos puede generar malos resultados.
  • El uso de datos superpuestos para entrenamiento y pruebas provoca sobreajuste.
  • Ignorar la relevancia de las características desperdicia recursos y reduce la precisión.
  • No realizar pruebas para detectar sesgos puede crear modelos injustos.
  • No actualizar los modelos da lugar a predicciones obsoletas.
  • La falta de documentación clara hace que sea difícil reproducir los resultados.

Los equipos deben revisar cada paso y evitar atajos. Una planificación cuidadosa garantiza el éxito de un sistema de visión artificial.

Ejemplos

Detección de defectos

Sistemas de visión artificial Ayudan a las fábricas a detectar defectos en los productos con rapidez y precisión. Estos sistemas utilizan cámaras y modelos inteligentes para detectar problemas como grietas, piezas faltantes o imperfecciones superficiales. Los ingenieros miden el rendimiento de estos sistemas mediante métricas claras.

Métrico Definición y función en la detección de defectos
Exactitud Muestra cuántas predicciones totales son correctas, tanto para defectos como para no defectos.
Precisión Mide cuántos defectos detectados son realmente defectos reales.
Recordar Indica cuántos defectos reales encuentra el sistema de todos los defectos posibles.
Puntuación F1 Equilibra la precisión y la recuperación, otorgando una puntuación única para ambas.
Curva ROC Grafica la tasa de verdaderos positivos contra la tasa de falsos positivos, mostrando qué tan bien el modelo separa los defectos de las piezas buenas.
AUC Proporciona un número único para la curva ROC, que muestra la capacidad general del modelo para distinguir entre defectos y no defectos.

Por ejemplo, un modelo ResNet-50 utilizado para la detección de defectos de soldadura alcanzó una precisión promedio del 96.1 %. Esta alta puntuación significa que el sistema puede detectar la mayoría de los defectos y evitar falsas alarmas. Los equipos también examinan la precisión y la recuperación para garantizar que el sistema no pase por alto problemas reales ni marque demasiadas piezas en buen estado como defectuosas. Estas métricas ayudan a las fábricas a confiar en sus sistemas de visión artificial.

Los equipos a menudo utilizan estas métricas para comparar diferentes modelos y elegir el mejor para sus necesidades.

Conteo de objetos

El conteo de objetos es otra tarea común para la visión artificial. Los sistemas cuentan artículos como botellas en una cinta transportadora o coches en una carretera. Un conteo rápido y preciso ayuda a las empresas a controlar la producción y gestionar el inventario.

Modelo Velocidad (FPS) Precisión/Eficiencia (mAP)
YOLOv2 40 40.2%
YOLOv3 30 57.9%
YOLOv4 65 43.5%
YOLOv7 120 50.0%

Gráfico de barras que muestra la velocidad y la precisión del modelo

Los detectores de una etapa como el YOLOv7 procesan imágenes con gran rapidez, alcanzando hasta 120 fotogramas por segundo. Esta velocidad permite el conteo en tiempo real en entornos concurridos. El YOLOv5 destaca por su precisión de detección del 98.1 % en el conteo de vehículos, superando a otros modelos como el Yolo4-CSP y el VC-UAV. Estos modelos también consumen menos energía, lo que permite que las fábricas los ejecuten en dispositivos más pequeños.

  • Los modelos YOLO equilibran velocidad y precisión, lo que los hace ideales para tareas en tiempo real.
  • Las empresas utilizan estos sistemas para la monitorización del tráfico, el embalaje y la gestión de almacenes.

Los sistemas de visión artificial con modelos de conteo potentes ayudan a las empresas a ahorrar tiempo y reducir errores.


Selección de modelo En los sistemas de visión artificial, el proceso sigue pasos claros. Los equipos definen la tarea, eligen el modelo adecuado y prueban el rendimiento. Un hardware de imagen adecuado, como la iluminación y las cámaras, puede garantizar hasta un 80 % del éxito del sistema. Los algoritmos de software procesan los datos a nivel de píxel para obtener resultados precisos. Las métricas clave incluyen:

  • Precisión de sincronización para una sincronización precisa
  • Consumo de energía para un funcionamiento eficiente
  • Rendimiento para un procesamiento rápido de datos

Siguiendo este flujo de trabajo, los equipos pueden construir sistemas confiables. Cualquiera puede lograr resultados sólidos con el enfoque y las herramientas adecuadas.

Preguntas Frecuentes

¿Cuál es el factor más importante a la hora de elegir un modelo de visión artificial?

Los equipos deben centrarse en el requisitos de la tareaLas tareas sencillas requieren modelos básicos. Las tareas complejas requieren aprendizaje profundo. La calidad de los datos y el hardware también juegan un papel importante. Adaptar el modelo a la tarea garantiza los mejores resultados.

¿Pueden los modelos tradicionales de aprendizaje automático funcionar para todas las tareas de visión?

Los modelos tradicionales gestionan bien tareas sencillas, como contar o clasificar. Presentan dificultades con imágenes complejas o grandes conjuntos de datos. Los modelos de aprendizaje profundo funcionan mejor en tareas como la detección de defectos o el reconocimiento facial.

¿Cómo afecta el hardware al rendimiento del modelo?

El hardware, como las cámaras y los sensores, marca los límites de la calidad de imagen. Las cámaras de alta resolución y una buena iluminación ayudan a los modelos a detectar pequeños detalles. Un hardware deficiente puede ocultar defectos o ralentizar el procesamiento.

¿Cómo pueden los equipos evitar el sobreajuste en los sistemas de visión artificial?

Los equipos utilizan la validación cruzada y la regularización para evitar el sobreajuste. Dividen los datos en conjuntos de entrenamiento y de prueba. Este proceso verifica si el modelo funciona correctamente con imágenes nuevas, no solo con los datos de entrenamiento.

Vea también

Comprensión de los sistemas de visión artificial y los modelos de visión por computadora

Cómo posicionar correctamente los equipos en los sistemas de visión artificial

Uso de sistemas de visión artificial para identificar piezas de forma fiable en la fabricación

Una descripción general de las cámaras utilizadas en los sistemas de visión artificial

Explicación de las técnicas de procesamiento de imágenes en sistemas de visión artificial

Vea también

Cómo la calibración de la cámara mejora la precisión de la visión artificial
Guía para principiantes sobre la transformación de imágenes en visión artificial
¿Por qué la mejora de la imagen es esencial para los sistemas de visión artificial?
Guía para principiantes sobre filtrado de imágenes en visión artificial
Comprensión de la calibración de lentes para visión artificial
Lo que necesita saber sobre el software de procesamiento de imágenes para visión artificial
Sistemas de visión artificial en espacio de color para una detección precisa del color
Cómo la detección de bordes impulsa la visión artificial moderna
Cómo el flujo óptico impulsa la visión artificial moderna
Decodificación de formatos de archivos de imagen para aplicaciones de visión artificial
Ir al Inicio