Cámaras digitales, radares y LIDAR: los ojos de los vehículos autónomos
Desde la aparición de la primera unidad de gestión del motor y de la inyección electrónica de combustible, la cantidad y sofisticación de los sistemas electrónicos de automoción no ha dejado de aumentar. Cada nueva función requiere el uso de nuevos tipos de sensores para procesar los datos en tiempo real.
ADAS y la explosión de los sensores
Por ejemplo, el convertidor catalítico utilizado para reducir las emisiones de monóxido de carbono (CO) del escape de un motor de gasolina solo puede funcionar si la mezcla de aire y combustible de admisión se mide de manera precisa y el reglaje del encendido es igualmente preciso. Un sensor especial denominado "medidor de masa de aire" mide la cantidad de aire que fluye hacia el interior del motor, mientras que otro mide el flujo de combustible. El control de emisiones es un sistema de bucle cerrado que recibe información del sensor de oxígeno, un dispositivo de control de los gases de escape. Las primeras unidades de control electrónico (ECU) instaladas en los vehículos realizaban la función de gestión del motor al controlar la inyección de combustible y el reglaje del encendido para garantizar la máxima eficiencia y la mínima contaminación de escape. La fiabilidad de la ECU no se consideraba un problema de seguridad en ese momento. El sistema antibloqueo de frenos (ABS) que se usaba era enteramente mecánico-hidráulico y estaba diseñado "a prueba de fallos". Y así lo era. Prácticamente.
En la actualidad, los sensores de rotación digital de cada rueda proporcionan datos a otra ECU que puede anular las entradas del acelerador (control de tracción) y del pedal de freno del conductor (ABS). Se trata de una versión anterior de lo que ahora se conoce como "sistema de asistencia al conductor avanzado" (ADAS), y la fiabilidad está estrechamente ligada a la seguridad.
Fuente de la imagen: nvidia
Sistemas de visión: sensores
Antes de que el desarrollo de los vehículos autónomos se hiciera viral gracias al DARPA Grand Challenge y a Google, los sensores de ADAS eran bastante sencillos y ofrecían velocidades de muestreo bajas y procesamiento de ECU dentro de las capacidades de un microcontrolador bastante débil. Todo eso cambió cuando se descubrió que sustituir la entrada sensorial (ojos) y el procesamiento de las imágenes (cerebro) humanos sería una tarea colosal. Hasta ese momento, el sistema más sofisticado para controlar lo que pasaba fuera del vehículo era el radar de estacionamiento, que se basaba en transductores ultrasónicos. Ahora se está trabajando para desarrollar un sensor de visión tan bueno como el ojo humano. O eso parece. De hecho, si nos fijamos en las especificaciones de los ojos artificiales que pueden proporcionar datos con la calidad necesaria para la automatización de la conducción, el ojo humano, en comparación, no sale muy bien parado. Echa un vistazo a estas especificaciones generales de nuestro sistema de visión:
- Debe proporcionar una cobertura horizontal de 360° alrededor del vehículo
- Debe detectar objetos en 3D muy cerca y muy lejos del vehículo
- Debe detectar/identificar varios objetos estáticos/en movimiento hasta un rango máximo
- Debe hacer todo lo anterior en todas las condiciones atmosféricas y de visibilidad
- Finalmente, tiene que proporcionar todos estos datos "en tiempo real"
Así es cómo cumple estos requisitos la visión humana:
- Dos ojos proporcionan un campo de visión horizontal (FOV) de hasta 200° con el movimiento del ojo
- Hay una visión 3D (binocular) de 130° del FOV
- Solo entre los 45° y 50° centrales del FOV ofrecen "alta resolución", con movimiento y percepción del color máximos
- Fuera de la zona central, la percepción cae rápidamente ("visión periférica")
- El iris automático proporciona un buen rendimiento en diversas condiciones de iluminación
- Calidad similar a la "frecuencia de imagen" de un vídeo en la zona central, pero insuficiente en los límites de la visión periférica
- Cada ojo tiene un "punto ciego" en la zona en la que el nervio óptico incide en la retina
- Todo lo anterior, por supuesto, sin tener en cuenta la edad, las enfermedades ni los problemas relacionados con lesiones
La conclusión de esto es que los ojos de los conductores humanos solo proporcionan una visión aceptable de una zona estrecha si miramos de frente. Y además hay un punto ciego. Teniendo en cuenta las limitaciones del "wetware" del globo ocular, ¿por qué no vemos la vida como si se tratara de una estrecha claraboya que no nos deja ver parte de la imagen? La respuesta radica en el cerebro, que se encarga de interpolar o "rellenar los vacíos" haciendo conjeturas inteligentes. Aunque es fácil de engañar.
Ojos artificiales: cámara de vídeo digital
La cámara de vídeo digital (DV) es una candidata evidente para actuar como ojo artificial, ya que en muchos sentidos ofrece un rendimiento superior al de su equivalente natural:
- Mantiene una alta resolución en píxeles y colores en todo el ancho de su campo de visión
- Mantiene una "frecuencia de imagen" constante del campo de visión
- Dos cámaras proporcionan una visión 3D estereoscópica
- Se trata de un sistema "pasivo", por lo que no hay problemas de coexistencia con las transmisiones de otros vehículos
- El rendimiento se mantiene con el tiempo, ya que no se ve afectada por la rinitis alérgica ni por la degeneración macular
La Figura 1 anterior muestra un sistema adecuado para ADAS que proporciona funciones tales como evitación de colisiones delanteras, avisos de salida de carril, detección de peatones, aparcamiento asistido y control de crucero adaptativo. La ausencia de una cobertura de 360° hace que el diseño no sea adecuado para la conducción automática de nivel 4 y 5. Es posible contar con una percepción total de los alrededores del vehículo, pero se necesitan al menos seis cámaras y un gran volumen de procesamiento digital. En esta situación, sin embargo, se equiparan o incluso se superan las capacidades de los ojos humanos. Pese a todo, todavía hay tres ámbitos de preocupación:
- Rendimiento en condiciones de poca iluminación, es decir, por la noche
- Rendimiento en condiciones atmosféricas adversas. ¿Qué sucede si las lentes se cubren de suciedad o hielo?
- Se necesitan cámaras caras y resistentes que puedan trabajar en un amplio rango de temperaturas
La capacidad de ver el tráfico delantero no es la única que se ve alterada: las líneas de carril se pueden oscurecer por el agua y la nieve, lo que hace que cualquier sistema de aviso de salida de carril deje de ser fiable.
Ojos artificiales: LIDAR
Un sistema de detección de luz y medición de distancia o LIDAR se basa en el mismo principio que un radar de microondas tradicional. Los impulsos de la luz láser se reflejan sobre un objeto y vuelven al detector, y se mide el tiempo de vuelo. El haz es muy estrecho y la velocidad de escaneo es lo suficientemente rápida para poder generar las representaciones 3D del entorno que rodea al coche "en tiempo real". El LIDAR supera a la cámara DV de diferentes formas:
- Total cobertura 3D en 360° disponible con una sola unidad
- No se ve afectado por el nivel de iluminación y tiene un mejor rendimiento bajo condiciones atmosféricas adversas
- Mejor estimación de la distancia
- Alcance más largo
- Los datos del sensor LIDAR requieren un procesamiento mucho menor que los de una cámara de vídeo
Un escáner LIDAR instalado en el techo de un vehículo (consulta la Figura 2 anterior) puede, en teoría, proporcionar prácticamente toda la información necesaria para las capacidades de conducción automática o ADAS avanzadas. Los primeros prototipos de Google contaban con una cúpula característica, y algunos fabricantes creen que se puede conseguir un funcionamiento seguro solo con el LIDAR, pero presenta algunas desventajas:
- La resolución es peor que la de una cámara DV
- No puede "ver" las marcas de la carretera en 2D, por lo que no es adecuado para los avisos de salida de carril
- Por el mismo motivo, no puede "leer" las señales de la carretera
- El prominente hardware electromecánico era hasta el momento muy caro
- La potencia de salida del láser está limitada, ya que las longitudes de onda de luz de 600-1.000 nm pueden provocar daños oculares a otros usuarios de la carretera. las futuras unidades pueden usar una longitud de onda de 1550 nm, menos dañina
El coste de los escáneres LIDAR se está reduciendo con la aparición de las versiones de estado sólido, pero esto también implica una reducción de la resolución al utilizarse menos canales (quizás solo 8, en lugar de 64). Algunos están diseñados para distribuirse por el vehículo, de manera que cada uno de ellos proporciona una cobertura parcial y se evitan así las antiestéticas protuberancias del techo.
Ojos artificiales: radar
El radar de microondas se puede usar para detectar objetos a corto alcance (10 m) y largo alcance (100 m). Puede gestionar funciones como el control de crucero adaptativo, la evitación de colisión frontal, la detección de punto ciego, el aparcamiento asistido y las alertas precolisión (consulta la Figura 3 a continuación). Se suelen usar dos bandas de frecuencia: 24-29 GHz para el corto alcance y 76-77 GHz para el largo alcance. La banda inferior tiene restricciones de potencia y ancho de banda limitado, ya que se comparte con otros usuarios. La banda superior (que pronto se ampliará hasta 81 GHz) tiene un ancho de banda mucho mejor y permite usar niveles de potencia más altos. Un ancho de banda superior se traduce en una mejor resolución para el funcionamiento a corto y largo alcance, y próximamente puede permitir la supresión progresiva de 24-29 GHz del radar. Está disponible de dos formas: tiempo de vuelo de impulso simple y onda continua modulada por frecuencia (FMCW). El radar de FMCW tiene una gran cantidad de redundancia en la señal transmitida, lo que permite que el receptor funcione en condiciones con un gran ruido de RF. Esto significa que se puede disfrutar de un alcance considerablemente ampliado en buenas condiciones, así como tolerar graves interferencias a corto alcance. No es lo suficientemente bueno por sí solo para la conducción automática, pero ofrece algunas ventajas adicionales:
- No se ve afectado por el nivel de iluminación y tiene un buen rendimiento bajo condiciones atmosféricas adversas
- Está disponible desde hace tiempo, por lo que se trata de un hardware de automoción suficientemente desarrollado en el mercado
- La tecnología SiGe más barata sustituye a la tecnología GaAs en los nuevos dispositivos
Aunque se le pueden dar varios usos, el radar tiene limitaciones que lo restringen al ADAS básico:
- El radar no tiene la resolución necesaria para la identificación de objetos, solo para la detección
- El radar de 24-29 GHz de banda no puede diferenciar entre varios objetivos de manera fiable
- El radar de FMCW requiere un procesamiento de señal complejo en el receptor
El cerebro
Tanto los LIDAR como las cámaras DV necesitan potentes ordenadores para convertir las señales de salida en un mapa 3D del mundo que rodea al vehículo con la identificación de objetos estáticos y en movimiento, así como el seguimiento de estos últimos, y todo ello en tiempo real. Esta potencia de procesamiento está disponible en formatos de una sola placa, que son lo suficientemente pequeños y baratos para poner a nuestro alcance la conducción automática de nivel 4 y 5. NVIDIA DRIVE PX Pegasus, por ejemplo, no solo puede realizar 320 billones de operaciones por segundo para el procesamiento de IA con la fusión de sensores, sino que también está certificado según el estándar de seguridad funcional de automoción ISO 26262 ASIL-D. También está el módulo SIP Renesas R-Car H3, que cuenta con ocho núcleos ARM Cortex-A57 y A53 con un núcleo de seguridad con bloqueo escalonado y doble Cortex-R7 para ofrecer una medición adecuada. Aunque no es suficientemente para el nivel 5, puede gestionar ocho cámaras y dirigir el sistema de información y entretenimiento del vehículo, todo ello de conformidad con ISO 26262 ASIL-B.
Conclusión
La conclusión evidente es que todos estos elementos (las cámaras DV, los LIDAR, los radares e incluso los radares ultrasónicos o Sonar) serán necesarios para conseguir una conducción automática segura de nivel 4 y 5, a menos a corto plazo. Combinar las salidas de todos estos sistemas de sensores en un software de conducción real que se pueda usar será un importante reto de fusión de sensores. Sin duda, la inteligencia artificial en forma de redes neurológicas profundas se utilizará ampliamente, no solo para el procesamiento de imágenes y la identificación de objetos, sino también como reserva de "experiencias de conducción" para la toma de decisiones.
Si te has quedado con ganas de más, puedes seguir mi cuenta de Twitter, donde publico enlaces a artículos interesantes sobre electrónica y tecnologías relacionadas, y retuiteo información sobre robots, inteligencia artificial, exploración espacial y otros temas.