Compartir tecnología

SLAM visual y posicionamiento: puntos característicos del front-end y coincidencia

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Artículo de referencia o enlace

Comparación de imágenes desde las más elaboradas hasta las más complejas: una encuesta
Correspondencia de imágenes en líneas base amplias: del papel a la práctica
Técnicas de registro de imágenes: una encuesta
Posicionamiento visual basado en mapas

Evaluación del rendimiento de los puntos característicos.

Artículos de referencia:

Repetibilidad
Error promedio de detección de esquinas
Error de posicionamiento de esquina

En resumen, un buen extractor de puntos característicos puede extraer de manera estable y precisa puntos 2D formados proyectando puntos 3D en el mismo espacio sobre la imagen bajo diferentes condiciones cambiantes (como ángulo de visión, iluminación, etc.).

Puntos característicos y descriptores tradicionales (solo puntos característicos o puntos característicos + descriptores)

Los puntos de características visuales se diseñaron originalmente basándose en el pensamiento de los investigadores, como SIFT, SURF, ORB y Harris, etc. También se utilizaron en visual slam o posicionamiento durante el mismo período.
[Harris
,1988] VINS
[Shi-Tomasi, 1994] MonoSLAM
[RÁPIDO
,1998] ORB_SLAM, T265 VIOMSCKF-VIO, VSLAM abierto, OKVIS, ROVIO, PTAM
[Blob y esquina]GOLPE SUAVE
[TAMIZAR
, 1999] MSCFC
[FENÓMENO,2012] Localización asistida por visión para robots terrestres

descriptor tradicional

[BREVE, 2010] se utiliza a menudo junto con puntos de esquina rápidos, comoORB_SLAMLDSOesperar
[ENÉRGICO, 2011]: Una mejora de BRIEF con invariancia de escala y rotación

Limitaciones de los descriptores tradicionales: están diseñados en función de los sentimientos humanos y no son lo suficientemente específicos para las computadoras. Por ejemplo, no pueden hacer frente a cambios en los ángulos de iluminación y otros cambios.

Puntos destacados basados ​​en el aprendizaje profundo

Detección de CoV
Redes cuádruples
Red de afiliados
Red de claves
Punto mágico

Descriptores basados ​​en aprendizaje profundo

L2Net: Nuevos modos de muestreo y errores, CVPR2017
DeepCD: los descriptores de coma flotante y los descriptores binarios son complementarios, ICCV2017
Spread-out: Aprendizaje de la distribución espacial de descriptores, ICCV2017
HardNet: Error mejorado basado en L2Net, NIPS2017
SoSNet: descriptor de aprendizaje basado en regularización de similitud de segundo orden, CVPR2019
REGALO: Uso de conjuntos de convolución grupal para aprender descriptores con cierta invariancia de escala y rotación, NIPS2019
S2DNet: convierta el aprendizaje de descriptores en un problema de clasificación y entrene de escaso a denso, ECCV2020
CAPS: Aprendizaje de descriptores utilizando únicamente restricciones epipolares.

Puntos destacados + descriptores basados ​​​​en aprendizaje profundo

Superpunto:Aprendizaje autosupervisado de puntos característicos y descriptores, con cierta solidez a la iluminación, DX-SLAM, CVPR2018
ELEVAR: Transformación de características invariantes basada en el aprendizaje, 2016:
DISCO: Utilice el método de gradiente de políticas en el aprendizaje por refuerzo para aprender a extraer y describir características, que tiene cierta solidez en áreas débiles de artes y ciencias, NIPS2020
R2D2: Propuesto para la repetibilidad y confiabilidad de puntos característicos, NeurIPS2019
D2Net: Las características locales detectan y describen conjuntamente CNN entrenable, CVPR2019
ASLganancia: Aprendizaje de descriptores locales para forma y posicionamiento precisos, CVPR2020

A menudo se proponen puntos característicos y descriptores basados ​​en el aprendizaje profundo para abordar las deficiencias de los métodos tradicionales en aplicaciones prácticas y son más sólidos para la iluminación, los ángulos de visión, etc.

coincidencia de características

Coincidencia de Knn del vecino más cercano
Algoritmo de coincidencia FLANN
GMS: Explotación de la información de suavizado de movimiento para una coincidencia de funciones rápida y sólida, CVPR2017
Adala: Un algoritmo de eliminación de coincidencias de errores que tiene en cuenta la distribución de puntos correspondiente y la coherencia afín, y la imagen se divide en bloques según la transformación afín RANSAC
Redes SGM: Coincidencia semiglobal mediante redes neuronales, CVPR2017
PointCN: después de la coincidencia de fuerza bruta, utilice un perceptrón multicapa para proponer una coincidencia de errores, CVPR2018
Combinación de superpegamento: Coincidencia sólida basada en una red neuronal gráfica y un mecanismo de atención, CVPR2020
LoFTR: Uso de Transformer para la coincidencia de funciones locales sin extractor de funciones, CVPR2021