(Meta: No conozco un lugar apropiado para esto en Stack Exchange. No parece haber ningún grupo relacionado con la tecnología de conducción autónoma y los sistemas de percepción/visión 3D por ordenador).
En el caso de los vehículos autoconducidos que utilizan LIDAR 3D de percepción de profundidad en una autopista con cientos de otros vehículos que también utilizan otros escáneres de emisión LIDAR de haz de barrido o de campo puntual (estilo kinect), ¿cómo es capaz de distinguir sus propios retornos de señal del escaneado que realizan los otros sistemas?
En el caso de una autopista extremadamente grande de varios carriles, o de intersecciones complejas de varias vías, dichas emisiones pueden verse en todas direcciones, cubriendo todas las superficies, y no hay forma de evitar la detección de las emisiones del haz de otros escáneres.
Este parece ser el principal obstáculo técnico para implantar el LIDAR en los vehículos de conducción autónoma. No importa que funcione a la perfección si es el único vehículo de la carretera que utiliza LIDAR.
La verdadera cuestión es cómo se las apaña para hacer frente a la inundación de señales espurias procedentes de sistemas similares en un escenario futuro en el que el LIDAR esté presente en todos los vehículos, potencialmente con múltiples escáneres por vehículo y escaneando en todas las direcciones alrededor de cada vehículo.
¿Es capaz de funcionar con normalidad, puede distinguir de algún modo su propia exploración y rechazar otras o, en el peor de los casos, puede fallar por completo y limitarse a informar de datos basura que no sirven para nada, y no sabe que está informando de datos basura?
Esto, al menos, parece ser un argumento de peso a favor de tener una visión 3D pasiva por ordenador que sólo se base en la luz natural y en la integración de la profundidad de la cámara estereoscópica, como se hace en el cerebro humano.