Escolar Documentos
Profissional Documentos
Cultura Documentos
Resumen
Este trabajo presenta un conjunto de métodos de segmentación para varios tipos de nubes de
puntos 3D. La segmentación de datos 3D densos (por ejemplo, escáneres Riegl) se optimiza a través
de una simple pero eficiente voxelización del espacio. Se demuestra empíricamente que la
extracción previa del suelo mejora significativamente el rendimiento de la segmentación. La
segmentación de datos escasos en 3D (por ejemplo, escáneres Velodyne) se trata utilizando
modelos de tierra de resolución no constante que proporcionan una superficie probabilística
continua o una malla de terreno construida a partir de la estructura de una imagen de rango. Todos
los algoritmos se prueban en varios conjuntos de datos etiquetados manualmente utilizando dos
nuevas métricas para la evaluación de la segmentación.
Introducción:
C. Segmentation for Sparse Data Two (Segmentación para datos dispersos Dos)
Se presentan dos métodos de segmentación complementarios para datos escasos; Proceso
Gaussiano de Consenso Incremental de Muestra (GP-INSAC) y Basado en Malla
Segmentación. Estos métodos proporcionan una versión escasa de ExtractGround, seguida
del uso del enfoque Cluster-All de la Sección III-B. El método GP-INSAC está diseñado para
operar en nubes de puntos 3D arbitrarias en un marco de referencia cartesiano común. Esto
proporciona la flexibilidad para procesar cualquier fuente de datos 3D, incluyendo múltiples
fuentes de datos 3D que se han fusionado en un marco común. Aprovechando el patrón de
exploración del sensor, el método basado en malla se optimiza para datos de nube de
puntos 3D en un solo marco de sensor. Esto proporciona una velocidad o precisión adicional
para determinados tipos de sensores.
Sin embargo, los métodos GP suelen suponer que la mayoría de los datos pertenecen a
la superficie del terreno y no a los objetos o el desorden; Suponen que hay pocos valores
atípicos. Aquí, el problema es reformulado como uno de los rechazos de los atípicos
basados en modelos, donde los inliers son puntos que pertenecen a la superficie del
suelo y los outliers pertenecen a objetos no superficiales desordenados, que en última
instancia serán segmentados. El algoritmo GP-INSAC mantiene las propiedades de las
técnicas de modelado de terreno GP y les otorga una capacidad de rechazo de valores
atípicos.
Si la primera desigualdad falla, un punto se clasifica como desconocido. Los puntos que
superan la primera desigualdad se clasifican como inliers si también pasan la segunda
desigualdad, de lo contrario son valores atípicos. A partir de la semilla, se acumulan
inliers por iteración. Esto permite que INSAC 'busque' los datos para encontrar inliers,
sin permitir que puntos desconocidos corrompan el modelo. Las iteraciones se realizan
hasta que no se encuentren más inliers. El proceso combina tanto la extrapolación como
la interpolación del modelo, pero sólo en regiones donde la certeza es suficientemente
alta. Esto se puede ver en la secuencia de iteraciones de GP-INSAC en la Figura 2. La
primera iteración extrapola pero pierde un punto porque la incertidumbre de los datos
es demasiado grande. Por la tercera iteración, ha capturado este punto mediante la
interpolación, una vez que el modelo / acuerdo de datos es más probable. Al igual que
RANSAC, este método puede ser usado con cualquier modelo básico, sin embargo la
justificación para hacerlo es más fuerte para modelos probabilísticos complejos como
GPs.
La personalización del algoritmo INSAC para la estimación del terreno utilizando GPs se
da en Algoritmo 3. El algoritmo comprende cuatro pasos clave; Compresión de datos,
cálculo de semillas, INSAC y descompresión de datos. La Figura 2 muestra tres
iteraciones del algoritmo básico para datos 2D simulados, para ilustrar el proceso, sin
incluir la compresión.
La capacidad de los modelos GP para manejar datos escasos permite un paso opcional
de comprimir los datos, para disminuir el tiempo de cálculo. La compresión se realiza
en dos etapas en las líneas 1 y 2 del Algoritmo 3. Los datos se asignan primero a una
estructura de cuadrícula fija en 3D con un tamaño de celda constante de r metros. En
cada celda, el contenido está representado por su media 3D. En la segunda etapa, los
datos se diezman manteniendo 1 en cada d de los medios de cuadrícula. La primera
etapa comprime los datos hacia una densidad uniforme, evitando errores de
cuantificación de cuadrícula calculando los medios. La segunda etapa permite una
mayor compresión, sin requerir tamaños de celdas mayores (menos precisos).
Una vez que se realiza la compresión opcional, se determina una semilla inicial de
puntos de tierra probables usando la función de semilla específica de aplicación. Para
este estudio, se eligen los puntos dentro de un radio fijo Rs del sensor que están
también por debajo de la altura de base Bs del sensor (| x | <Rs y xz <Bs), suponiendo
que esta región está localmente despejada por objetos no enterrados . El INSAC se
realiza entonces según el Algoritmo 2, en los medios de retícula diezmados. Esto
clasifica los datos medios de la rejilla diezmada en las tres clases; Inliers, outliers o
desconocidos y proporciona el modelo GP que representa la superficie continua del
suelo de acuerdo con los inliers.
Para la segmentación escasa, los datos de tierra producidos por GP-INSAC en Algoritmo
3 se consideran como una partición. Los datos no terrestres son procesados por
SegmentVoxelGrid con el método Cluster-All de la Sección III-B.2 para producir las
restantes particiones no-tierra. Los puntos desconocidos permanecen clasificados como
tales.
La generación de una malla de una imagen de rango sigue el enfoque de [10], que
explora la disposición de ráster para la definición de topología rápida (alrededor de 10
ms por exploración).
Un ejemplo de la malla resultante se muestra en la Fig. 3 (a). Con datos escasos, una
malla de este tipo crea una conectividad punto a punto que no podría ser capturada con
una cuadrícula de resolución constante. Como consecuencia, la partición de tierra
puede crecer a partir de una región de siembra (aquí, el origen del escaneado) a través
de la topología conectada.
Una vez que se calcula el campo de gradiente, la partición de tierra se obtiene creciendo
un grupo de nudos de tierra desde el más cercano a la línea de trama más lejana. En la
línea de trama más cercana (el anillo más interno en la Fig. 3 (a)), la etiqueta GROUND
se asigna a la secuencia más larga de nodos sg con gradientes por debajo de maxgrad.
Además, las secuencias de los nodos si del anillo interior con gradientes por debajo del
umbral maxgrad también están marcadas GROUND si, dado que ni y ng son los nodos
más cercanos en si y sg, respectivamente, su altura está dentro de maxdh. Para las otras
líneas de trama, un nodo está marcado como TIERRA si su valor de degradado está por
debajo de maxgrad, y tiene al menos uno de sus vecinos directos ya identificados como
TIERRA; Si este vecino está en la misma línea de trama o en la anterior. Este último
requisito codifica el crecimiento iterativo de la división de tierra y evita que las
particiones planas no de tierra (como el techo de un automóvil) sean confundidas como
parte del suelo. Este proceso de propagación supone que el suelo se puede observar
alrededor del sensor; Más específicamente, asume que al menos parte de la línea de
trama más próxima al sensor cae sobre el suelo, y el conjunto correspondiente de nodos
forma la secuencia plana más larga.
Se propone una métrica para cuantificar el acuerdo entre dos segmentaciones del mismo conjunto
de datos. Esto se puede utilizar para cuantificar el rendimiento de diferentes algoritmos de
segmentación, en comparación con una escena segmentada a mano. El concepto general de la
métrica se ilustra en la Fig. 4. El árbol marcado B es la segmentación manual y el árbol marcado A
es un ejemplo de segmentación defectuosa. El segmento más grande de los voxels en A que
comprende el árbol se considera la coincidencia, en este caso el área roja de la parte superior del
árbol, y todas las demás particiones se consideran errores. Una vez que un segmento ha sido
considerado como una coincidencia, se considerará como un error en cualquier intento de
coincidencia posterior. El proceso de comparación específico es el siguiente. En primer lugar, las
particiones de los datos escogidos manualmente se clasifican de mayor a menor. Para cada partición
de referencia, cada punto de datos coincide con el mismo punto en la segmentación de prueba. Se
acumula una lista de tamaños de partición basada en los ID de partición de los puntos. La partición
más grande de los puntos de prueba que corresponden a la partición seleccionada a mano se
considera entonces una coincidencia. El ID de partición que se considera coincidente se marca
entonces como utilizado y, a continuación, cuando se encuentran otros puntos con ese ID se
consideran que están en error. Debido a que la comparación se realiza en orden desde la partición
más grande hasta la más pequeña, si un objeto pequeño se agrupa incorrectamente en un objeto
grande, el objeto más pequeño se considerará erróneamente particionado y no el objeto más
grande. A partir de los puntos marcados como coincidencias y aquellos marcados como errores, se
calcula un porcentaje de coincidencia. Métricas alternativas también se consideran. En particular,
puntuación en términos de voxels en lugar de puntos. Puesto que todos los puntos en un voxel
deben tener el mismo ID de partición, los voxels se pueden marcar como coincidentes o errores
cuando se determina el estado de cualquier punto dentro del voxel. También se calcula el porcentaje
de coincidencia de voxel. El porcentaje de concordancia de voxel tiende a ser más volátil que el
porcentaje de coincidencia de puntos. La calidad de la partición de objetos más pequeños, más
escasos y más difíciles de particionar suele estar mejor representada por la puntuación del voxel
debido a una menor dominación por puntos de tierra y de pared. Por ejemplo, en uno de los
conjuntos de datos utilizados aquí, el terreno comprende más de 700.000 puntos de los 1.6 millones
de puntos en el escaneo (44%), pero sólo 35.600 voxels de los 143.000 voxels en la segmentación
(24%).
V. EXPERIMENTS
Este análisis empírico sigue los principios establecidos por Hoover et al. En su trabajo de referencia
sobre las evaluaciones experimentales de los métodos de segmentación de imágenes de rango [7].
En particular, el espacio de parámetros de cada algoritmo es muestreado uniformemente para
encontrar la combinación de parámetros que proporcionan los mejores resultados de segmentación
con respecto a varios conjuntos de datos rotulados manualmente (el uso de optimizadores más
sofisticados se deja para trabajos futuros). Los porcentajes de coincidencia (relativos a los datos
segmentados a mano) y los tiempos de cálculo se registran y promedian sobre los conjuntos de
datos de prueba para cada combinación de parámetros probados. Los mejores resultados para datos
densos y escasos se proporcionan en las Tablas I y II, respectivamente. Los mejores resultados a
través de los métodos se indican en negrita. También se indica el tipo de implementación utilizada.
Para la evaluación de los métodos escasos se utilizan escáneres Velodyne (con etiquetas
puntuales) de cuatro manos. Los resultados se presentan en la Tabla II y se obtuvieron
promediando el rendimiento y los tiempos de cálculo en las cuatro exploraciones marcadas
(lo mismo que los resultados de los datos densos).
1. Clúster-Toda la Segmentación: Los siguientes tres parámetros Eters son variados para
obtener las mejores puntuaciones de punto y voxel: maxvstd, la desviación estándar
vertical máxima en un voxel por debajo del cual este voxel se identifica como
perteneciente al suelo en la función ExtractGround; Groundres, la resolución de la red
utilizada en ExtractGround; Objectres, la resolución de la cuadrícula utilizada en
SegmentVoxelGrid. Los resultados se muestran en la fig. 7 (b). En ambos casos, los
valores óptimos de los parámetros son 0.3m para maxvstd, 0.5m para groundres y 0.2m
para objectres, y corresponden a las mejores puntuaciones reportadas en la Tabla II.
Set {r = 0.6m, d = 30}, INSAC {tmodel = 0.2m, tdata = 3sd}, GP {ls = 14.01m, σp = 0.88m,
σd = 0.060m}. In- teresiblemente, los parámetros GP óptimo fueron aprendidos de una
de las dos muestras de entrenamiento.
Los resultados que usan la elección óptima de parámetros de este ensayo se muestran
en la Tabla II. La métrica indica que se produce una segmentación precisa en el tiempo
de cálculo más rápido. Sin embargo, los parámetros podrían ser elegidos para seguir
haciendo hincapié en la precisión de un costo computacional más grande. El trabajo
futuro incluye la prueba de los algoritmos para la estabilidad en un conjunto más grande
de datos y se sospecha que GP-INSAC requerirá una parametrización 'más lenta' para
lograr estabilidad a largo plazo.
En ese caso, es probable que la segmentación de malla esté más cerca del rendimiento
en tiempo real cuando se puede procesar en el marco del sensor. El diferenciador clave
del algoritmo GP-INSAC es que puede procesar datos arbitrarios en 3D de cualquier
fuente o fuentes fusionadas múltiples.
3. Mesh Based Segmentation: Los siguientes tres parámetros son variados para obtener
las mejores puntuaciones de punto y voxel: mingraddist, maxgrad y maxdh (detalladas
en la Sec. III-C.2). Los resultados de la prueba se muestran en la Fig. 7 (c). La mejor
puntuación se logra cuando mingraddist es 0.4m, maxgrad es 0.1 y maxdh es 0.05m. La
mejor puntuación de voxel se logra cuando mingraddist es 0.35m, maxgrad es 0.1 y
maxdz es 0.1m. Las puntuaciones correspondientes se presentan en la Tabla II. Con base
en los resultados de la Sec. V-B.1, la resolución de la cuadrícula utilizada en
SegmentVoxelGrid se estableció en 0.2m. Mediante la generación de una malla de
resolución variable en el marco del sensor en lugar de depender de una rejilla de
resolución fija para el modelo de terreno como en el método Cluster-All, el segmento
basado en malla es capaz de recuperar mejor la conectividad subyacente de los objetos.
La Tabla II muestra una mejora en la puntuación de voxel de hasta 24%. Representar
directamente la escasez de los datos también permite reducir el tamaño de las
estructuras de datos desplegadas que a su vez conduce a la ganancia en los tiempos de
cálculo. La Tabla II muestra que el segmento basado en malla es aproximadamente 30%
más rápido que el método 'Cluster-All' (ambas implementaciones se ejecutan en una
computadora de escritorio 3GHz). La tendencia se revertiría sin embargo en el caso de
datos densos ya que la malla del terreno se volvería más densa mientras que una
retícula de tamaño fijo esparciera eficazmente los datos a una cantidad relacionada con
su resolución.
4. Convexity Based Segmentation: El método propuesto por Moosmann et al. [10] fue
implementado y probado para este análisis, ya que la malla basada en el segmentador
se basa en el mismo terreno malla. Las principales diferencias entre los dos enfoques
están relacionadas con la identificación del suelo.
Aquí se integra al proceso de segmentación, mientras que en [10] se obtiene a partir de
la clasificación posterior. También, el razonamiento en la malla se utiliza aquí para la
extracción de tierra sólo (en la función ExtractGround), mientras que genera la
segmentación de todo el espacio 3D en [10]. La Tabla II muestra que el rendimiento de
este último método es menor. En cuanto a las otras técnicas, se probó un rango de
valores de parámetros y se promediaron los resultados en las cuatro exploraciones
etiquetadas. Siguiendo las anotaciones en [10], \ alpha 1 se varió de 0 a 45 con un
tamaño de paso de 5, \ varphi _ {2} varió de 0 a 60 con un tamaño de paso de 10 y 3 de
0 a 0,7 con un tamaño de paso de 0,1 . Para las puntuaciones de punto y voxel, se
encontró que los valores óptimos eran 40 para 1, 50 para 2 y 0,5 para 3. El rendimiento
inferior se debe en parte al tamaño limitado del conjunto etiquetado y al
comportamiento de la métrica de segmentación: Ciertas combinaciones de parámetros,
la segmentación es visualmente cercana a la obtenida con el segmentador de malla,
pero el suelo se divide en unas pocas partes principales lo que causa una gran penalidad,
ya que el suelo tiene un peso predominante tanto en el punto como en el voxel.
VI. CONCLUSION