¿Qué es el aprendizaje autosupervisado en visión artificial?

CONTENIDO

COMPARTIR TAMBIÉN
¿Qué es el aprendizaje autosupervisado en visión artificial?

El aprendizaje autosupervisado transforma la forma de entrenar modelos de visión artificial. Permite que los sistemas aprendan de datos sin etiquetar creando sus propias etiquetas. Este enfoque resulta esencial cuando los conjuntos de datos etiquetados son escasos o costosos de producir. Puede usar el aprendizaje autosupervisado para descubrir patrones ocultos en imágenes y videos, lo que permite un entrenamiento más eficiente. Al aprovechar la estructura de los datos, este método permite construir sistemas más inteligentes. Un sistema de visión artificial con aprendizaje autosupervisado puede adaptarse a tareas complejas sin depender excesivamente de la anotación humana.

Puntos clave

  • El aprendizaje autosupervisado permite que los modelos aprendan sin datos etiquetados. Esto ahorra dinero.

  • Las tareas de pretexto son clave. Permiten que los modelos creen etiquetas y aprendan patrones útiles.

  • Este método facilita el trabajo de los modelos en diversas tareas. Se adapta fácilmente a nuevos usos.

  • El aprendizaje autosupervisado funciona bien en tiempo real, como en robots o cámaras. Se adapta rápidamente.

  • El uso del aprendizaje autosupervisado facilita sistemas de visión artificial mejores y más preciso en muchas áreas.

En qué se diferencia el aprendizaje autosupervisado de otros paradigmas

Aprendizaje supervisado vs. aprendizaje autosupervisado

El aprendizaje supervisado se basa en datos etiquetados para entrenar modelos. Se proporcionan etiquetas claras para cada entrada, lo que permite al sistema aprender patrones específicos. En cambio, el aprendizaje autosupervisado utiliza datos sin etiquetar y crea sus propias etiquetas mediante tareas de pretexto. Esto lo hace ideal para situaciones donde los datos etiquetados son escasos o costosos de obtener.

Aspecto

Aprendizaje supervisado

Aprendizaje auto-supervisado

Eficiencia Computacional

Generalmente más rápido debido al entrenamiento directo en datos etiquetados

Más lento debido a múltiples etapas de entrenamiento y generación de pseudoetiquetas

Requerimientos de datos

Requiere datos etiquetados, que pueden ser escasos

Requiere grandes cantidades de datos sin etiquetar para lograr una precisión similar

Adecuación de la tarea

Ideal para tareas con etiquetas claras.

Depende en gran medida de la elección de las tareas de pretexto, cuya eficacia puede variar.

El aprendizaje autosupervisado ofrece flexibilidad al aprovechar datos sin etiquetar, pero requiere un mayor esfuerzo computacional. Puede usarlo para entrenar modelos para tareas como clasificación de imágenes sin depender de anotaciones humanas.

Aprendizaje no supervisado vs. aprendizaje autosupervisado

El aprendizaje no supervisado se centra en descubrir patrones en datos sin etiquetas predefinidas. Puede utilizarse para la agrupación en clústeres o la detección de anomalías. El aprendizaje autosupervisado, en cambio, genera etiquetas a partir de los propios datos mediante tareas de pretexto. Este enfoque permite entrenar modelos para tareas similares al aprendizaje supervisado, como la clasificación o la regresión.

Aspecto

Aprendizaje sin supervisión

Aprendizaje auto-supervisado

Definición

Aprende de datos sin etiquetas predefinidas

Genera etiquetas a partir de datos mediante tareas de pretexto

Verdad fundamental

No se mide contra ninguna verdad fundamental conocida

Medidas contra una verdad fundamental derivada implícitamente

Casos de uso

Agrupamiento, detección de anomalías, reducción de dimensionalidad

Tareas de clasificación y regresión típicas del aprendizaje supervisado

Mecanismo de aprendizaje

Se centra en descubrir estructuras inherentes.

Optimizado utilizando una función de pérdida, similar a los modelos supervisados

Ejemplo

Motor de recomendaciones de comercio electrónico

Predecir partes faltantes de la entrada usando el contexto circundante

Aprendizaje auto supervisado Une los enfoques supervisados ​​y no supervisados ​​combinando las ventajas de ambos. Permite entrenar modelos con datos sin etiquetar y obtener resultados similares a los de los métodos supervisados.

Reduciendo la brecha entre el aprendizaje supervisado y no supervisado

El aprendizaje autosupervisado actúa como un punto intermedio entre los paradigmas supervisados ​​y no supervisados. Al diseñar cuidadosamente las tareas de pretexto y ajustar los hiperparámetros, se pueden alcanzar niveles de rendimiento comparables a los del aprendizaje supervisado. Por ejemplo, métodos como SimCLR y VICReg demuestran cómo las técnicas contrastivas y no contrastivas pueden unificar diferentes enfoques. Esta flexibilidad permite entrenar modelos con un buen rendimiento en diversas tareas sin depender excesivamente de datos etiquetados.

El aprendizaje autosupervisado transforma la forma de abordar las tareas de visión artificial. Reduce la necesidad de datos etiquetados a la vez que mantiene una alta precisión, lo que lo convierte en una herramienta potente para los sistemas de IA modernos.

Mecanismos del aprendizaje autosupervisado

Tareas de pretexto en el aprendizaje autosupervisado

Las tareas de pretexto desempeñan un papel crucial en el aprendizaje autosupervisado, ya que permiten a los modelos generar etiquetas a partir de datos no etiquetados. Estas tareas implican la resolución de problemas auxiliares que ayudan al modelo a aprender representaciones significativas. Por ejemplo, se pueden usar tareas como la coloración, la predicción de parches o la resolución de rompecabezas para entrenar un modelo de aprendizaje profundo. La combinación de varias tareas de pretexto suele generar mejores resultados.

Guión

Tareas de pretexto combinadas

Precisión de clasificación

1

Coloración + Predicción de parches

0.94

2

Coloración + Rompecabezas

0.96

3

Predicción de parches + Rompecabezas

0.95

4

Coloración + Predicción de parches + Rompecabezas

0.98

Estas tareas mejoran la eficiencia del aprendizaje al fomentar que el modelo se centre en la estructura inherente de los datos. Por ejemplo, la combinación de coloración con predicción de parches y rompecabezas logra una precisión de clasificación de 0.98, lo que demuestra la eficacia del aprendizaje multitarea.

Gráfico de barras que muestra la precisión de la clasificación en cuatro escenarios de tareas de pretexto

Técnicas de aprendizaje contrastivo

Las técnicas de aprendizaje contrastivo ayudan a los modelos a aprender comparando muestras de datos. Se puede entrenar un modelo para identificar similitudes y diferencias entre pares de imágenes. Este enfoque utiliza una función de pérdida que minimiza la distancia entre muestras similares y maximiza la distancia entre muestras diferentes. Métodos como SimCLR y MoCo han demostrado mejoras significativas en el aprendizaje de la representación para el aprendizaje autosupervisado. Estas técnicas son particularmente eficaces en tareas como la clasificación de imágenes, donde comprender las diferencias sutiles entre clases es esencial.

Aprendizaje autopredictivo y modelado enmascarado

El aprendizaje autopredictivo se centra en predecir las partes faltantes de los datos de entrada. El modelado enmascarado, un método popular en esta categoría, implica enmascarar partes de una imagen y entrenar el modelo para reconstruirlas. Esta técnica ayuda al modelo a capturar características globales y locales de forma eficaz. Por ejemplo, OBI-CMF supera a métodos como MAE y MFM al capturar mejor los detalles globales, lo que lo hace ideal para distinguir clases con grandes diferencias entre ellas.

Modelo

Descripción de rendimiento

OBI-CMF

Captura detalles globales mejor que MAE y MFM y es eficaz para distinguir clases con grandes diferencias entre clases.

MAE

Menos eficaz para capturar detalles globales en comparación con OBI-CMF.

MFM

Limitaciones similares a MAE en el manejo de muestras difíciles.

El modelado enmascarado ha mostrado resultados prometedores en varios conjuntos de datos, incluidos Caltech101 y Oxford Flowers.

Gráfico de barras agrupadas que muestra el rendimiento del aprendizaje autopredictivo con modelado enmascarado en varios conjuntos de datos

Técnicas de aprendizaje autosupervisado en sistemas de visión artificial

Técnicas de aprendizaje autosupervisado en sistemas de visión artificial
Fuente de imagen: unsplash

Aprendizaje de aumento y representación de imágenes

El aumento de imágenes desempeña un papel fundamental en la mejora del aprendizaje autosupervisado. Al aplicar transformaciones como el recorte aleatorio, la inversión y la distorsión de color, se puede ayudar a los modelos de visión artificial a aprender características robustas. Estas técnicas obligan al modelo a centrarse en los patrones esenciales de las imágenes, en lugar de en los detalles superficiales. Por ejemplo, el recorte aleatorio garantiza que el modelo se adapte a diferentes perspectivas, mientras que la distorsión de color le dificulta identificar objetos independientemente de las condiciones de iluminación.

Las redes generativas antagónicas (GAN) llevan la aumentación un paso más allá. Crean transformaciones personalizadas que impulsan al modelo a aprender representaciones más profundas. Este enfoque mejora la capacidad de generalización de los modelos de aprendizaje autosupervisado, haciéndolos más eficaces en tareas posteriores como detección de objetos y clasificación de imágenes. Diversas estrategias de aumento, combinadas con el aprendizaje de representación, mejoran significativamente la robustez y la adaptabilidad de los modelos de visión artificial.

Preentrenamiento contrastivo para tareas de visión

El preentrenamiento contrastivo ayuda a entrenar modelos de visión artificial comparando pares de imágenes. Esta técnica enseña al modelo a identificar similitudes y diferencias entre muestras. Por ejemplo, métodos como DINO y SimCLR utilizan funciones de pérdida contrastiva para acercar imágenes similares en el espacio de características y alejar las diferentes.

Los métodos contrastivos reducen la necesidad de datos etiquetados, abordando así uno de los mayores desafíos del aprendizaje autosupervisado. Modelos como DINO demuestran un rendimiento competitivo sin necesidad de ajustes, lo que demuestra su eficacia. Experimentos demuestran que los modelos entrenados con conjuntos de datos seleccionados superan a los entrenados con datos menos seleccionados. Además, destilar un modelo a partir de uno más grande produce mejores resultados que entrenar desde cero. Estos hallazgos resaltan la importancia de la calidad de los datos y las estrategias de preentrenamiento en el aprendizaje autosupervisado.

Enfoques basados ​​en agrupamiento en visión artificial

Las técnicas basadas en clustering agrupan puntos de datos similares para obtener representaciones significativas. Estos métodos se pueden usar para entrenar modelos de visión artificial sin etiquetas. Por ejemplo, algoritmos de clustering como k-medias o clustering jerárquico ayudan al modelo a identificar patrones y estructuras en los datos.

DINOv2 demuestra el potencial de los enfoques basados ​​en clusterización. Utiliza aprendizaje autosupervisado para agrupar imágenes similares, lo que permite al modelo aprender características que se generalizan fácilmente en diferentes tareas. El rendimiento mejora a medida que aumenta la cantidad de datos de entrenamiento, lo que enfatiza la escalabilidad de los métodos de clusterización. Estas técnicas reducen la dependencia de la costosa anotación de datos, lo que las hace ideales para sistemas de visión artificial a gran escala.

Aplicaciones del aprendizaje autosupervisado en visión artificial

Clasificación de imágenes y detección de objetos

El aprendizaje autosupervisado ha revolucionado la clasificación de imágenes y la detección de objetos. Es posible entrenar modelos para reconocer objetos y clasificar imágenes sin depender de grandes conjuntos de datos etiquetados. Al aprovechar las tareas de pretexto, estos modelos aprenden a identificar patrones y características en las imágenes. Por ejemplo, predecir la rotación de una imagen o reconstruir partes faltantes ayuda al modelo a comprender las relaciones espaciales y las estructuras de los objetos.

Este enfoque resulta especialmente útil en escenarios donde los datos etiquetados son limitados. Por ejemplo, en el monitoreo de fauna silvestre, se puede utilizar el aprendizaje autosupervisado para clasificar especies animales a partir de imágenes de cámaras trampa. El modelo aprende de los datos no etiquetados y logra una alta precisión en la identificación de objetos. Además, métodos de aprendizaje autosupervisado como SimCLR y BYOL han demostrado un rendimiento competitivo en pruebas de detección de objetos, rivalizando con los modelos supervisados.

Síntesis y generación de imágenes

El aprendizaje autosupervisado permite crear imágenes realistas mediante síntesis y generación. Los modelos entrenados con este enfoque pueden generar imágenes de alta calidad al aprender la estructura subyacente de los datos visuales. Por ejemplo, las redes generativas antagónicas (GAN) combinadas con el aprendizaje autosupervisado producen imágenes detalladas y realistas.

Esta capacidad se puede aplicar en campos como el entretenimiento, donde la generación de fondos o personajes realistas es esencial. En el campo de las imágenes médicas, el aprendizaje autosupervisado ayuda a sintetizar imágenes para enfermedades raras, lo que facilita el diagnóstico y la investigación. La capacidad de generar datos sintéticos también reduce la dependencia de costosos conjuntos de datos etiquetados. Esto convierte al aprendizaje autosupervisado en una solución rentable para diversas industrias.

Comprensión de videos y reconocimiento de acciones

El aprendizaje autosupervisado desempeña un papel fundamental en la comprensión de videos y el reconocimiento de acciones. Al analizar datos de video sin etiquetar, los modelos pueden aprender a identificar acciones y eventos. Se pueden usar tareas de pretexto, como predecir el orden de los fotogramas de video o reconstruir los fotogramas faltantes, para entrenar estos modelos.

Las investigaciones han demostrado que el aprendizaje autosupervisado logra resultados de vanguardia en el reconocimiento de acciones en video. Entre los hallazgos clave se incluyen:

  • Establecer puntos de referencia para el aprendizaje autosupervisado de la representación de vídeo, permitiendo comparaciones justas de tareas de pretexto.

  • Demostrando un alto rendimiento con significativamente menos datos de preentrenamiento.

  • Destacando la importancia del tamaño del conjunto de datos y la complejidad de la tarea para lograr resultados óptimos.

Por ejemplo, el aprendizaje autosupervisado permite entrenar modelos para sistemas de vigilancia, donde el reconocimiento de actividades sospechosas es crucial. Experimentos con PackNet han demostrado que las redes autosupervisadas pueden igualar o incluso superar el rendimiento de los modelos supervisados ​​por LiDAR. Esto es especialmente importante para la robótica y los sistemas autónomos.

La escalabilidad del aprendizaje autosupervisado lo hace ideal para aplicaciones basadas en video. A medida que aumenta la resolución y el tamaño de los conjuntos de datos, mejora el rendimiento de estos modelos, haciéndolos idóneos para escenarios reales.

Diagnóstico e imágenes médicas

Las imágenes médicas han experimentado avances notables con la integración del aprendizaje autosupervisado. Este enfoque permite entrenar modelos con grandes cantidades de datos médicos sin etiquetar, como radiografías, resonancias magnéticas y tomografías computarizadas. Al aprovechar las tareas de pretexto, estos modelos pueden aprender a identificar patrones y anomalías cruciales para un diagnóstico preciso.

Una de las principales ventajas del aprendizaje autosupervisado en imágenes médicas es su capacidad para reducir la dependencia de conjuntos de datos etiquetados. Anotar imágenes médicas requiere experiencia y tiempo, lo que hace que los datos etiquetados sean escasos y costosos. Con el aprendizaje autosupervisado, se pueden utilizar imágenes sin etiquetar para preentrenar modelos, que posteriormente pueden ajustarse para tareas de diagnóstico específicas. Por ejemplo, un modelo entrenado con radiografías de tórax sin etiquetar puede adaptarse posteriormente para detectar neumonía o cáncer de pulmón.

ConsejoEl aprendizaje autosupervisado le ayuda a descubrir patrones sutiles en imágenes médicas que los métodos tradicionales podrían pasar por alto.

Otra ventaja reside en su capacidad para mejorar la precisión diagnóstica. Los modelos entrenados con aprendizaje autosupervisado pueden identificar características complejas en imágenes médicas, como la textura de los tejidos o la forma de las anomalías. Estas características suelen ser cruciales para la detección temprana de enfermedades. Por ejemplo, en la mamografía, los modelos autosupervisados ​​pueden analizar el tejido mamario para identificar signos tempranos de cáncer, mejorando así los resultados de las pacientes.

El aprendizaje autosupervisado también facilita el desarrollo de modelos robustos para enfermedades raras. Se pueden entrenar modelos con conjuntos de datos limitados mediante técnicas como el aprendizaje contrastivo o el modelado enmascarado. Estos métodos permiten que el modelo se generalice mejor, incluso con datos mínimos. Esta capacidad es especialmente valiosa para el diagnóstico de enfermedades raras, donde recopilar grandes conjuntos de datos resulta complicado.

Además del diagnóstico, el aprendizaje autosupervisado contribuye a la síntesis de imágenes médicas. Se pueden generar imágenes sintéticas para complementar los conjuntos de datos de entrenamiento, lo que mejora el rendimiento del modelo. Por ejemplo, generar resonancias magnéticas sintéticas puede ayudar a entrenar modelos para detectar tumores cerebrales con mayor eficacia. Esto reduce la dependencia de datos reales y acelera el desarrollo de herramientas de diagnóstico.

La aplicación del aprendizaje autosupervisado en la imagenología médica está transformando la atención médica. Permite crear modelos que no solo son precisos, sino también escalables y rentables. Con este enfoque, se pueden abordar algunos de los desafíos más urgentes de la medicina. diagnóstico, allanando el camino para una mejor atención al paciente.

El futuro del aprendizaje autosupervisado en sistemas de visión artificial

Reducir la dependencia de los datos etiquetados

Se espera que el aprendizaje autosupervisado reduzca significativamente la dependencia de datos etiquetados en el futuro. Esta técnica de aprendizaje automático permite a los modelos aprender directamente de datos sin procesar y sin etiquetar, creando sus propias etiquetas mediante tareas de pretexto. Como resultado, se pueden entrenar modelos sin necesidad de anotaciones manuales costosas y laboriosas. Por ejemplo, en sectores como la salud o la conducción autónoma, donde los conjuntos de datos etiquetados suelen ser limitados, el aprendizaje autosupervisado puede abrir nuevas posibilidades.

Los avances en algoritmos y potencia computacional mejorarán aún más esta capacidad. Los investigadores están desarrollando tareas y arquitecturas de pretexto más eficientes que requieren menos datos para lograr una alta precisión. Este progreso facilitará la implementación de sistemas de visión artificial en escenarios reales, incluso cuando los datos etiquetados son escasos.

Mejorar la generalización en las tareas de visión

El aprendizaje autosupervisado también está transformando la forma en que los modelos se generalizan en diferentes tareas de visión. En lugar de sobreajustarse a conjuntos de datos específicos, los modelos entrenados con este enfoque pueden adaptarse a nuevas tareas y entornos. Métodos emergentes como el Aprendizaje por Refuerzo Curricular (Curr-ReFT) están liderando el camino.

  • Curr-ReFT mejora la generalización de los modelos de lenguaje de visión (VLM) en diversas tareas.

  • A diferencia del ajuste fino supervisado tradicional, evita el sobreajuste y funciona bien en configuraciones fuera del dominio (OOD).

  • Los modelos entrenados con Curr-ReFT igualan el rendimiento de modelos más grandes, incluso en escenarios desafiantes.

Estos avances permiten crear modelos con un rendimiento consistente en diversas aplicaciones, desde la detección de objetos hasta la comprensión de vídeo. Esta flexibilidad convierte al aprendizaje autosupervisado en una herramienta potente para los futuros sistemas de visión artificial.

Aplicaciones en tiempo real en visión artificial

El futuro del aprendizaje autosupervisado incluye Aplicaciones en tiempo real en visión artificialPuede utilizar este enfoque para desarrollar sistemas que procesen y analicen datos visuales al instante. Por ejemplo, en vigilancia, los modelos autosupervisados ​​pueden detectar actividades inusuales en tiempo real, lo que mejora la seguridad.

En robótica, estos modelos permiten a las máquinas navegar e interactuar con su entorno de forma más eficaz. Al aprender de datos no etiquetados, los robots pueden adaptarse a nuevas tareas sin necesidad de un reentrenamiento exhaustivo. Esta adaptabilidad es crucial para aplicaciones como la automatización de almacenes o la respuesta ante desastres.

A medida que el hardware se vuelve más potente, los sistemas autosupervisados ​​en tiempo real serán más accesibles. Verá estas tecnologías integradas en dispositivos cotidianos, desde teléfonos inteligentes hasta vehículos autónomos, haciéndolos más inteligentes y eficientes.

El aprendizaje autosupervisado ofrece ventajas únicas para los sistemas de visión artificial. Permite entrenar modelos con datos sin etiquetar, lo que reduce la necesidad de costosas anotaciones. Este enfoque mejora la eficiencia al descubrir patrones y estructuras dentro de los datos sin procesar. Puede aplicarse en diversas tareas, desde la clasificación de imágenes hasta la comprensión de vídeos, obteniendo resultados comparables a los de los métodos supervisados.

El algoritmo propuesto, Aprendizaje Autosupervisado Contextual (ContextSSL), aprende la equivarianza en todas las transformaciones (en lugar de la invariancia). De esta manera, el modelo puede aprender a codificar todas las características relevantes como representaciones generales, a la vez que ofrece la versatilidad de reducir las simetrías de cada tarea al proporcionar algunos ejemplos como contexto. Empíricamente, demostramos mejoras significativas en el rendimiento con respecto a los métodos existentes en tareas relacionadas con la equivarianza, respaldadas por evaluaciones tanto cualitativas como cuantitativas.

El potencial transformador del aprendizaje autosupervisado reside en su capacidad de generalizarse en diversas tareas y adaptarse a los desafíos del mundo real. A medida que continúan los avances, cabe esperar que este paradigma redefina el futuro de las aplicaciones de IA y visión artificial.

Preguntas Frecuentes

¿Cuál es la principal ventaja del aprendizaje autosupervisado en visión por computadora?

El aprendizaje autosupervisado permite entrenar modelos con datos sin etiquetar, lo que reduce la necesidad de costosas anotaciones. Este enfoque ayuda a descubrir patrones en imágenes y vídeos, lo que facilita el desarrollo de modelos robustos. sistemas de visión por computadora para tareas como detección de objetos y clasificación de imágenes.

¿Cómo mejora el aprendizaje autosupervisado las tareas de visión artificial?

Al aprovechar las tareas de pretexto, el aprendizaje autosupervisado ayuda a los modelos a aprender representaciones significativas a partir de datos sin procesar. Esto mejora la precisión de las tareas de visión artificial, como el reconocimiento de objetos o la comprensión de contenido de vídeo, incluso cuando los conjuntos de datos etiquetados son limitados.

¿Puede el aprendizaje autosupervisado reemplazar al aprendizaje supervisado en la visión por computadora?

El aprendizaje autosupervisado complementa el aprendizaje supervisado en lugar de sustituirlo. Puede utilizarse para preentrenar modelos con datos sin etiquetar, lo que reduce la necesidad de conjuntos de datos etiquetados. Esto lo convierte en una herramienta valiosa para mejorar los sistemas de visión artificial en escenarios con anotaciones limitadas.

¿Qué papel juega el aprendizaje contrastivo en la visión por computadora?

El aprendizaje contrastivo ayuda a entrenar modelos para identificar similitudes y diferencias entre imágenes. Esta técnica mejora la capacidad de los sistemas de visión artificial para reconocer patrones y características, lo que la hace esencial para tareas como la clasificación de imágenes y la detección de objetos.

¿Es el aprendizaje autosupervisado adecuado para aplicaciones de visión artificial en tiempo real?

Sí, el aprendizaje autosupervisado puede impulsar aplicaciones en tiempo real como la vigilancia y la robótica. Al aprender de datos sin etiquetar, los modelos se adaptan rápidamente a nuevos entornos. Esto los hace ideales para tareas dinámicas de visión artificial que requieren análisis y toma de decisiones instantáneos.

Vea también

Comprensión del aprendizaje activo y de pocos disparos en visión artificial

El impacto del aprendizaje profundo en los sistemas de visión artificial

Perspectivas esenciales sobre el aprendizaje por transferencia para la visión artificial

Utilización de datos sintéticos para mejorar los sistemas de visión artificial

Definición del mantenimiento predictivo en aplicaciones de visión artificial

Vea también

Guía para principiantes sobre segmentación de imágenes para visión artificial
Cómo la detección de puntos clave impulsa los sistemas de visión artificial modernos
Comprensión de la red totalmente convolucional FCN en sistemas de visión artificial
Sistemas de propuesta de regiones y su importancia en la visión artificial
Los principios básicos de la transformación de características invariantes de escala SIFT en visión artificial
Mecanismos de atención definidos para aplicaciones de visión artificial
Una definición sencilla de agrupamiento en visión artificial
Explicación de los sistemas de visión artificial con detector de una sola etapa
¿Qué es un sistema de visión artificial con estimación de pose y cómo funciona?
¿Qué significa ajustar un sistema de visión artificial?
Ir al Inicio