Guía para principiantes sobre segmentación de imágenes para visión artificial

CONTENIDO

COMPARTIR TAMBIÉN

Guía para principiantes sobre segmentación de imágenes para visión artificial

La segmentación de imágenes en un sistema de visión artificial permite a una máquina separar una imagen en partes, lo que le permite encontrar cada objeto y comprender qué sucede. Este proceso facilita las tareas de visión artificial, como la detección de objetos y el análisis de escenas. En aplicaciones reales, la segmentación permite a las máquinas inspeccionar cientos de piezas por minuto, detectar defectos con una precisión superior al 99 % y reducir el tiempo de inactividad en un 25 %.

  • El conjunto de datos SA-1B ofrece más de mil millones de máscaras para entrenamiento, lo que ayuda a las máquinas a reconocer objetos en muchos entornos.
  • Modelos de segmentación como U-Net y Mask R-CNN ayudan a las máquinas a encontrar pequeñas anomalías y a guiar a los vehículos autónomos para que vean objetos como peatones y señales de tráfico.
    La tecnología del sistema de visión artificial con segmentación de imágenes abre la puerta a un análisis de objetos más preciso, rápido y confiable.

Puntos clave

  • La segmentación de imágenes ayuda a las máquinas a dividir las imágenes en partes para identificar y analizar objetos con precisión.
  • Diferentes tipos de segmentación (semántica, de instancia y panóptica) cumplen propósitos específicos a la hora de reconocer y contar objetos.
  • Los sistemas de visión artificial utilizan segmentación para mejorar la velocidad, la precisión y la confiabilidad de la inspección en industrias como la manufactura y la atención médica.
  • Los métodos de aprendizaje profundo como U-Net y Mask R-CNN ofrecen una mayor precisión pero necesitan más datos y potencia de cálculo que las técnicas tradicionales.
  • Los principiantes pueden empezar a aprender Segmentación de imágenes utilizando herramientas gratuitas y proyectos simples, desarrollando habilidades para aplicaciones de visión artificial en el mundo real.

Segmentación de imágenes en visión artificial

¿Qué es la segmentación de imágenes?

Segmentación de imagen Es un proceso de visión artificial en el que una máquina divide una imagen en partes más pequeñas. Cada parte, o segmento, representa un objeto o región diferente. Esto ayuda a la máquina a distinguir dónde termina un objeto y dónde empieza otro. Por ejemplo, en la foto de una calle, la segmentación puede separar coches, personas y señales de tráfico. La máquina puede entonces centrarse en cada objeto para un análisis más profundo.

La segmentación utiliza diferentes técnicas para agrupar píxeles que parecen similares. Algunos métodos utilizan color, textura o forma. Otros utilizan técnicas avanzadas. modelos de visión por computadora que aprenden de muchas imágenes. Estos modelos ayudan a la máquina a encontrar los bordes de los objetos, incluso cuando se superponen o tienen formas complejas.

Los investigadores utilizan diversas métricas para medir la eficacia de la segmentación. La siguiente tabla muestra las métricas comunes y su significado:

Métrica/Criterio Descripción/Caso de uso Notas/Consideraciones
Coeficiente de similitud de dados (DSC) Las medidas se superponen entre la segmentación predicha y la verdad fundamental; se utilizan ampliamente en la segmentación de imágenes médicas Bueno para clases desequilibradas; se centra en los verdaderos positivos
Intersección sobre unión (IoU) Mide la relación entre la intersección y la unión de las regiones predichas y de verdad fundamental. El umbral de IoU debe estar claramente definido
Puntuación F1 Media armónica de precisión y recuperación; relacionada con DSC e IoU Especifique la estrategia de promedio y el umbral de IoU
Sensibilidad y especificidad Medir la tasa de verdaderos positivos y la tasa de verdaderos negativos respectivamente Puede ser engañoso en escenarios desequilibrados.
Exactitud Corrección general de la clasificación No siempre es confiable para tareas desequilibradas
Kappa de Cohen Mide la concordancia entre lo predicho y la verdad fundamental más allá del azar Útil para evaluar la confiabilidad
Distancia media de Hausdorff (AHD) Mide la discrepancia espacial entre contornos Importante para la evaluación exacta del contorno

Consejo: Al evaluar la segmentación, verifique siempre si la métrica se calcula para cada píxel o para cada objeto. Esto ayuda a evitar confusiones y garantiza una comparación justa.

Por qué es Importante

La segmentación de imágenes desempeña un papel fundamental en la visión artificial. Permite a una máquina comprender escenas separando e identificando objetos. Esto es importante para muchas tareas del mundo real, como la detección de objetos, la imagenología médica y los vehículos autónomos.

La segmentación mejora tanto la precisión como la fiabilidad de los sistemas de visión artificial. Los investigadores utilizan métricas como la precisión, la recuperación, la puntuación F1 y el IoU para medir la eficacia de la segmentación para encontrar y separar objetos. Por ejemplo:

  • Los métodos de segmentación que utilizan la detección de comunidades, como Lovaina o Leiden, muestran alta precisión y robustez.
  • A menudo se utiliza un umbral de IoU de 0.5 para equilibrar los verdaderos positivos y los falsos positivos, lo que hace que la detección de objetos sea más confiable.
  • Los métodos de umbral avanzados, como el Optimizador de equilibrio, logran puntuaciones más altas en PSNR y SSIM, lo que significa una mejor calidad de segmentación y menos errores.
  • Los algoritmos adaptativos pueden ajustarse en tiempo real, reduciendo los falsos positivos y negativos, lo que es importante para entornos cambiantes.

Los indicadores de referencia del sector también destacan el valor de la segmentación. Modelos como el Modelo de Segmentación de Cualquier Cosa (SAM) utilizan la entropía cruzada binaria y el IoU para medir la precisión. SAM y sus versiones mejoradas, como DIS-SAM y MedSAM, establecen nuevos estándares en campos como el diseño artístico, la edición de imágenes y la conducción autónoma al perfeccionar la forma en que las máquinas detectan los límites de los objetos.

Una comparación de métodos de segmentación muestra que los modelos de aprendizaje profundo, como U-Net y Mask R-CNN, alcanzan la mayor precisión, pero tardan más en procesar las imágenes. Los métodos de aprendizaje automático ofrecen un equilibrio entre velocidad y precisión, mientras que los métodos simples son más rápidos, pero menos precisos. Esta compensación ayuda a los usuarios a elegir el enfoque más adecuado a sus necesidades.

Tipos de segmentación de imágenes

Tipos de segmentación de imágenes

Segmentación semántica

Segmentación semántica Ayuda a un sistema de visión artificial a comprender el contenido de una imagen. Este método asigna una etiqueta a cada píxel de la imagen. Cada píxel se agrupa por categoría, como carretera, coche o árbol. Al sistema no le importa a qué objeto pertenece el píxel, solo la clase. Por ejemplo, todos los píxeles que muestran un coche reciben la misma etiqueta, incluso si hay muchos. La segmentación semántica es eficaz en tareas donde conocer el tipo de objeto es más importante que saber de qué objeto se trata.

Nota: La segmentación semántica no puede distinguir entre dos objetos de la misma clase. Trata todos los objetos similares como un solo grupo.

Segmentación de instancia

Segmentación de instancias Lleva el proceso a otro nivel. No solo etiqueta cada píxel por categoría, sino que también separa cada instancia de objeto. El sistema puede distinguir un coche de otro, incluso si se tocan. La segmentación de instancias es importante para contar objetos o rastrearlos. En una fábrica, el sistema utiliza la segmentación de instancias para contar cada producto en una cinta transportadora. Este método es útil en situaciones donde la cantidad de objetos es importante.

La siguiente tabla muestra la diferencia entre la segmentación semántica y la segmentación de instancias:

Feature Segmentación semántica Segmentación de instancia
Etiquetas por píxel
Distingue objetos No
Cuenta objetos No

Segmentación panóptica

La segmentación panóptica combina las ventajas de la segmentación semántica y la segmentación de instancias. Asigna una etiqueta semántica a cada píxel y separa cada instancia de objeto. El sistema puede identificar el tipo de objeto presente y de qué instancia específica se trata. La segmentación panóptica resulta útil en escenas complejas donde tanto la clase como la identidad de cada objeto son importantes. Por ejemplo, en escenas callejeras, la segmentación panóptica permite al sistema ver cada coche, persona y señal de tráfico, y distinguir cuál es cuál.

La segmentación panóptica ofrece una visión completa de la escena. Admite tanto el reconocimiento de objetos como el seguimiento de instancias.

Sistema de visión artificial para segmentación de imágenes

Tipos de sistema

Los sistemas de visión artificial se presentan en tres tipos principales: 1D, 2D y 3D. Cada tipo utiliza la segmentación para resolver diferentes problemas. En los sistemas 1D, la máquina analiza los datos a lo largo de una sola línea, que suele utilizarse para inspeccionar cables o etiquetas impresas. La combinación de mapas de características 1D y 2D puede mejorar la precisión en tareas como el análisis de datos de EEG y el reconocimiento facial. Por ejemplo, las características compuestas han aumentado la precisión hasta en un 18.75 % en los conjuntos de datos de la enfermedad de Parkinson.

Los sistemas de visión artificial 2D funcionan con imágenes planas. Ayudan a las máquinas a inspeccionar superficies, comprobar dimensiones y leer códigos de barras. Los fabricantes de automóviles utilizan estos sistemas para inspeccionar más de 30,000 piezas por vehículo. La segmentación 2D detecta defectos y garantiza la calidad en industrias como la electrónica y la alimentaria.

Los sistemas de visión artificial 3D añaden información de profundidad. Permiten que las máquinas midan formas y volúmenes. En imágenes médicas, la arquitectura 3D TransUNet combina redes neuronales convolucionales y transformadores. Este enfoque mejora la segmentación de órganos y tumores, lo que permite un mejor diagnóstico. Los sistemas 3D también facilitan la alineación y el ensamblaje precisos en la fabricación.

Los sistemas de visión artificial que utilizan segmentación han reducido las tasas de error de reconocimiento facial del 4% al 0.08% entre 2014 y 2020. Estas mejoras muestran el poder de la tecnología avanzada. sistema de visión artificial de segmentación de imágenes .

Flujo de trabajo de segmentación

Un sistema típico de visión artificial para segmentación de imágenes sigue un flujo de trabajo claro. El proceso comienza con la adquisición de imágenes. Cámaras o escáneres de alta resolución capturan imágenes detalladas. En la investigación médica y biológica, la excitación de dos fotones y la microscopía de barrido láser producen imágenes con límites celulares nítidos.

Siguiente, El preprocesamiento prepara las imágenes Para la segmentación. Técnicas como la denoising BM3D eliminan el ruido, pero conservan detalles importantes. Apilar múltiples escaneos también puede mejorar la relación señal-ruido.

La segmentación se realiza después del preprocesamiento. Modelos como el Modelo de Segmentación de Cualquier Cosa (SAM) utilizan el aprendizaje de disparo cero para identificar objetos sin entrenamiento adicional. El posprocesamiento refina los resultados, eliminando máscaras superpuestas o parciales y mejorando la precisión.

Este flujo de trabajo produce resultados excelentes. Por ejemplo, la combinación de la eliminación de ruido y el posprocesamiento de BM3D con SAM-H logró una tasa de error promedio de tan solo el 3.0 % en tareas de segmentación celular. La siguiente tabla muestra cómo cada paso mejora la precisión:

Configuration Tasa de error promedio (%)
Original + SAM 17.4
BM3D + SAM 5.3
BM3D + SAM + Posprocesamiento 3.0

Los sistemas de visión artificial que utilizan este flujo de trabajo procesan imágenes en milisegundos. Reducen el tiempo de inspección en un 25 % y la tasa de defectos hasta en un 80 %. El gráfico a continuación muestra mejoras medibles en el flujo de trabajo:

Gráfico de barras que muestra cuatro mejoras mensurables del flujo de trabajo como porcentajes

La segmentación en los sistemas de visión artificial permite inspecciones rápidas y de alta precisión. Facilita la monitorización en tiempo real, mejora la seguridad y aumenta la producción. El sistema de visión artificial con segmentación de imágenes se ha vuelto esencial para la industria y la investigación modernas.

Técnicas de segmentación de imágenes

Métodos tradicionales

Técnicas tradicionales de segmentación de imágenes Han desempeñado un papel fundamental en la visión artificial durante muchos años. Estas técnicas incluyen la umbralización, la detección de bordes, la agrupación en clústeres y la segmentación basada en atlas. Cada método utiliza reglas diferentes para separar los objetos de una imagen. Por ejemplo, la umbralización establece un valor para dividir los píxeles en grupos. La detección de bordes encuentra líneas donde se unen los objetos. La agrupación en clústeres agrupa píxeles con colores o texturas similares. La segmentación basada en atlas utiliza imágenes de referencia para guiar el proceso.

Estas técnicas dependen de características artesanales y del conocimiento de expertos. Funcionan bien en escenas sencillas, pero presentan dificultades con el ruido y los cambios de iluminación. Los factores humanos pueden afectar los resultados, haciéndolos menos fiables en nuevas situaciones. En imágenes médicas, los contornos geométricos activos ayudan a segmentar formas complejas, como órganos o tumores. Este método se adapta a límites irregulares, pero requiere una configuración cuidadosa y mayor potencia de procesamiento.

Los investigadores utilizan diversas métricas para medir el rendimiento de la segmentación tradicional. La siguiente tabla muestra las métricas comunes y su significado en visión artificial:

Métrico Descripción Ejemplo de rendimiento
Precisión Proporción de predicciones positivas verdaderas entre todas las predicciones positivas realizadas La alta precisión reduce los falsos positivos
Recordar Proporción de verdaderos positivos identificados entre todos los positivos reales Una alta tasa de recuperación reduce los falsos negativos
Puntuación F1 Media armónica de precisión y recuperación, equilibrando ambas métricas El ejemplo F1 de 0.997 muestra una precisión de segmentación muy alta

Estas métricas ayudan a los usuarios a comprender la compensación entre la falta de objetos y la detección de demasiados falsos. Unas puntuaciones F1 altas indican que la técnica equilibra adecuadamente ambos aspectos.

Consejo: Las técnicas tradicionales de segmentación de imágenes son rápidas y fáciles de usar, pero pueden no funcionar bien con imágenes complejas o ruidosas.

Métodos de aprendizaje profundo

Métodos de aprendizaje profundo Han cambiado la forma en que las máquinas segmentan imágenes. Estas técnicas utilizan redes neuronales convolucionales (CNN) para aprender características de grandes conjuntos de datos. Las CNN pueden encontrar patrones en imágenes que los humanos podrían pasar por alto. Las técnicas de segmentación basadas en aprendizaje profundo, como U-Net y Mask R-CNN, se han popularizado por su alta precisión y adaptabilidad.

A diferencia de los métodos tradicionales, las técnicas de aprendizaje profundo no requieren características personalizadas. Aprenden de los datos, lo que las hace más flexibles. En el campo de las imágenes médicas, los métodos de aprendizaje profundo gestionan imágenes complejas con ruido o artefactos mejor que las técnicas anteriores. Por ejemplo, estudios demuestran que modelos de aprendizaje profundo como FastSurferCNN y Kwyk producen resultados más fiables que las canalizaciones tradicionales, incluso cuando las imágenes presentan artefactos de movimiento.

Un estudio reciente comparó 24 métodos de segmentación en imágenes de TC de pulmón. La siguiente tabla muestra el rendimiento del aprendizaje profundo y de los métodos convencionales utilizando el coeficiente de Sørensen-Dice (DSC):

Tipo de método Mejor puntuación DSC Notas sobre el rendimiento y la demanda computacional
Aprendizaje profundo ~ 0.830 Mayor precisión, mayor robustez, requiere más entrenamiento y potencia computacional.
Convencional ~ 0.610-0.808 Menor precisión, más rápido, se necesita menos entrenamiento

Las técnicas de segmentación basadas en aprendizaje profundo suelen requerir más recursos informáticos y tiempos de entrenamiento más largos. Sin embargo, ofrecen mayor precisión y pueden adaptarse a nuevos tipos de imágenes.

Nota: El aumento de datos, como voltear o rotar imágenes, ayuda a que los modelos de aprendizaje profundo aprendan mejor y mejora su rendimiento.

Pros y contras

Cada técnica de segmentación de imágenes tiene sus propias ventajas y desventajas. La siguiente tabla resume las principales ventajas y desventajas de las técnicas más utilizadas en visión artificial:

Tecnologia Ventajas Desventajas
Graduado-CAM Resalta regiones importantes de la imagen; visualización robusta Puede pasar por alto detalles finos; información espacial limitada
Gradientes Integrados (IG) Cuantifica la importancia de las características; se utiliza ampliamente en la segmentación. Puede generar ruido en regiones no relacionadas
Explicaciones contrafácticas (EC) Mejora la interpretabilidad y la rendición de cuentas Computacionalmente complejo; requiere una calibración cuidadosa

Grad-CAM ayuda a los usuarios a ver en qué partes de una imagen se centra una CNN durante la clasificación o segmentación. Los gradientes integrados muestran qué características son más importantes para la decisión del modelo. Las explicaciones contrafácticas proporcionan una comprensión más profunda, pero requieren mayor potencia de procesamiento.

En la práctica, las técnicas tradicionales de segmentación de imágenes ofrecen velocidad y simplicidad. Funcionan bien para tareas básicas y cuando los recursos informáticos son limitados. Los métodos de aprendizaje profundo proporcionan mayor precisión y se adaptan a escenas complejas. Requieren más datos, entrenamiento y potencia de procesamiento. Ambos tipos de técnicas desempeñan un papel importante en la visión artificial, según el problema y los recursos disponibles.

Nota: La elección de la técnica de segmentación de imágenes adecuada depende de la tarea, la calidad de las imágenes y la necesidad de precisión o velocidad.

Técnicas y aplicaciones de procesamiento de imágenes

Usos del mundo real

Las técnicas de procesamiento de imágenes impulsan numerosas aplicaciones prácticas en manufactura, imágenes médicas, vigilancia y robótica. En las fábricas, estas técnicas ayudan a las máquinas a inspeccionar productos, detectar defectos y contar artículos en las líneas de ensamblaje. Las imágenes médicas utilizan procesamiento avanzado para identificar órganos, tumores o vasos sanguíneos, lo que facilita la detección y el diagnóstico tempranos. La robótica se basa en el reconocimiento y la segmentación de objetos para tareas de navegación y manipulación. Los sistemas de vigilancia utilizan la visión artificial para rastrear personas y vehículos, mejorando así la seguridad.

La siguiente tabla muestra el rendimiento de las técnicas de procesamiento de imágenes en imágenes médicas en diferentes puntos de referencia:

Modalidad de imagen Coeficiente de similitud de dados (DSC) Dados de superficie normalizados (NSD)
extensión BTC CT 85.38% 87.82%
ACDC MRI 92.16% 96.54%
EndoVis17 Endoscopia 67.14% 68.70%
ATLAS23 MRI 84.06% 88.47%

Gráfico de barras que muestra los porcentajes de DSC y NSD para cada punto de referencia en imágenes médicas

Estos resultados muestran que las técnicas de procesamiento profundo de imágenes, como SAMA-UNet, logran una alta precisión en la segmentación de imágenes médicas.

Herramientas y conjuntos de datos

Muchas herramientas y conjuntos de datos admiten técnicas de procesamiento de imágenes para la detección y el reconocimiento de objetos. Bibliotecas de código abierto como OpenCV, scikit-image y PyTorch Proporcionan fácil acceso a las funciones de procesamiento. Los principiantes pueden usar estas herramientas para experimentar con tareas de segmentación y detección de objetos.

Los conjuntos de datos populares ayudan a entrenar y probar modelos para diversas aplicaciones. La siguiente tabla enumera algunos conjuntos de datos ampliamente utilizados:

Conjunto de datos Descripción y escala Dominios de aplicación
VOC PASCAL 11,530 imágenes, 27,450 objetos anotados ROI, 6,929 segmentaciones; 21 clases de objetos Segmentación general, detección de objetos
MS COCO 328 imágenes, 2.5 millones de instancias segmentadas y etiquetadas, 91 tipos de objetos Escenas cotidianas complejas, detección de objetos
Paisajes urbanos 5,000 imágenes completamente anotadas, 20,000 fotogramas con anotaciones débiles, 30 clases Escenas callejeras urbanas, conducción autónoma
ADE20K 20,210 imágenes de entrenamiento, 2,000 de validación, 3,000 de prueba; 150 categorías semánticas Análisis de escenas, segmentación semántica
KITTI Secuencias de vídeo de escenas de tráfico, anotaciones manuales de segmentación semántica Robótica móvil, conducción autónoma

Gráfico de barras que muestra el número de imágenes para cuatro conjuntos de datos

Los modelos U-Net entrenados con conjuntos de datos de imágenes médicas muestran un rendimiento excelente, medido por el Coeficiente de Similitud de Dice. Estos conjuntos de datos respaldan tanto la investigación académica como las aplicaciones industriales.

Introducción

Los principiantes pueden empezar Con técnicas sencillas de procesamiento de imágenes usando Python y OpenCV, pueden probar la umbralización, la detección de bordes o la segmentación básica en imágenes de muestra. Numerosos tutoriales guían a los usuarios en proyectos de reconocimiento y detección de objetos. Como primer proyecto, los estudiantes pueden segmentar monedas en una foto o detectar coches en escenas callejeras. Utilizando conjuntos de datos públicos, pueden entrenar modelos profundos para aplicaciones más avanzadas. La práctica con estas técnicas les permite desarrollar habilidades para aplicaciones prácticas en visión artificial.

Consejo: Empieza poco a poco y ve aumentando. Experimenta con diferentes técnicas de procesamiento y conjuntos de datos para ver qué funciona mejor para cada aplicación.


La segmentación de imágenes continúa transformando la forma en que una máquina interpreta y analiza datos visuales en diferentes industrias. La segmentación permite una detección precisa en imágenes médicas, manufactura y robótica, con modelos de aprendizaje profundo como U-Net y Mask R-CNN que impulsan aplicaciones en tiempo real. Estudios a largo plazo demuestran que dominar las técnicas de aprendizaje tradicional y profundo ofrece beneficios duraderos.

  • El mercado global de visión artificial crece rápidamente, impulsado por las necesidades de automatización y garantía de calidad.
  • Los principiantes deben compartir código, utilizar flujos de trabajo sólidos y validar proyectos de segmentación con datos del mundo real.

Las habilidades de segmentación seguirán siendo esenciales a medida que nuevas tecnologías como Vision Transformers y la visión 3D amplíen el campo.

Preguntas Frecuentes

¿Cuál es el objetivo principal de la segmentación de imágenes en visión artificial?

Segmentación de imagen Ayuda a una máquina a separar una imagen en diferentes partes. Cada parte muestra un objeto o región diferente. Este proceso facilita la búsqueda y el análisis de objetos.

¿Cómo mejora el aprendizaje profundo la segmentación de imágenes?

Los modelos de aprendizaje profundo aprenden patrones de muchas imágenes. Estos modelos encuentran objetos incluso en escenas complejas o con ruido. Suelen ofrecer mayor precisión que los métodos tradicionales.

¿Qué industrias utilizan más la segmentación de imágenes?

La fabricación, la atención médica, la robótica y los sistemas de seguridad utilizan la segmentación de imágenes. Por ejemplo, las fábricas la utilizan para revisar productos y los hospitales para detectar tumores en escáneres.

¿Pueden los principiantes intentar la segmentación de imágenes en casa?

¡Sí! Los principiantes pueden utilizar herramientas gratuitas Como OpenCV o scikit-image. Muchos tutoriales en línea muestran cómo segmentar imágenes simples, como monedas o coches.

¿Cuál es la diferencia entre segmentación semántica y segmentación de instancias?

Feature Segmentación semántica Segmentación de instancia
Etiquetas de objetos Por tipo Por tipo e instancia
Cuenta objetos No

La segmentación semántica agrupa por tipo. La segmentación de instancias también separa cada objeto.

Vea también

Comprender cómo los sistemas de visión artificial procesan las imágenes

Tendencias futuras de la segmentación en sistemas de visión artificial

Visión artificial para la automatización industrial

Introducción a la clasificación mediante tecnología de visión artificial

Principios fundamentales de la detección de bordes en la visión artificial

Vea también

carcasa de la bomba
Explicación de los sistemas de visión artificial para la inspección de calidad para fabricantes
Cómo funcionan los sistemas de visión artificial de reconocimiento facial
Definición de sistemas de visión artificial para navegación autónoma en 2025
Sistemas de visión artificial para verificación de ensamblajes y su papel en el control de calidad
Cómo las herramientas de nube de puntos impulsan la visión artificial en 2025
Explorando la definición y funcionalidad de las herramientas de etiquetado en visión artificial
¿Cuáles son las principales aplicaciones y casos de uso de los sistemas de visión artificial?
Guía para principiantes sobre bibliotecas de procesamiento de imágenes de profundidad en visión artificial
Comprensión de las aplicaciones de Python y C++ en visión artificial
Ir al Inicio