Je viens d’apprendre que ce n’est pas entièrement de notre faute, en tant qu’Homo sapiens, si nous causons 95 % des accidents de voiture. C’est parce que nous n’avons pas développé la capacité physiologique de voir suffisamment loin devant et de traiter suffisamment les données visuelles pour éliminer les « accidents ». J’ai appris cela lorsqu’une société californienne appelée Neural Propulsion Systems (NPS) a dévoilé son produit de fusion de capteurs AtomicSense Platform, qui, selon elle, peut détecter et interpréter suffisamment de données pour éviter les accidents.
NPS a écrit un article théorisant que percevoir l’environnement suffisamment loin, suffisamment clair et suffisamment tôt pour éliminer les décès sur les routes (c’est-à-dire ceux dus à des accidents évitables) nécessite un taux d’acquisition et de traitement de données de 100 térabits par seconde, soit 10 millions de fois l’estimation débit de données sensorielles circulant de vos yeux vers votre cerveau lorsque vous n’êtes pas ivre ou distrait.
NPS a donc conçu une suite de capteurs de système sur puce entièrement à semi-conducteurs (faites ces puces – beaucoup d’entre eux) pour faire exactement cela, en tirant parti des recherches du ministère de la Défense. Le système AtomicSense comprend de nombreuses caméras fusionnées avec trois percées technologiques : radar multibande numérique, lidar à entrées multiples/sorties multiples (MIMO) et informatique aux normes atomiques.
Le radar automobile 77 GHz d’aujourd’hui est excellent pour pénétrer le brouillard, mais il brosse un tableau très flou de ce qui se passe et les gouttes de pluie peuvent le disperser. Cependant, le radar à 1 GHz remarque à peine la pluie, les ondes se diffractent pour « voir » autour des courbes et des coins, et elles peuvent même traverser certains matériaux solides. Un faisceau focalisé de radar haute fréquence donne une résolution de type lidar mais est limité à la ligne de visée.
En utilisant quatre fréquences radar, NPS réalise le plein potentiel du radar, atteignant une fiabilité 100 fois supérieure à celle des radars automobiles typiques. La diffusion d’impulsions numériques de radar élimine pratiquement le risque d’interférences provenant d’autres signaux radar. Veuillez cliquer ici pour une explication plus approfondie de la façon dont le radar multifaisceaux voit dans les coins.
Le lidar MIMO de NPS utilise un réseau à semi-conducteurs composé de plusieurs émetteurs et récepteurs laser, chacun focalisé sur une petite zone et éclairé brièvement, entre 20 et 100 fois par seconde. Ce clignotement rend les impulsions laser plus puissantes sans danger pour les yeux humains, ce qui permet une imagerie claire à plus de 540 mètres, soit environ le double de la portée des autres lidars. Des mesures récentes sur la piste Crows Landing de la NASA ont détecté un cycliste à une distance record de 1 285 mètres.
La tâche ardue de fusionner ces riches données radar et lidar avec l’imagerie de la caméra et de donner un sens à tout cela est là où l’informatique aux normes atomiques entre en jeu. Ce concept de compression des données réduit les mesures nécessaires pour atteindre les performances de perception souhaitées. Il a été initialement développé pour considérablement réduire le temps que les patients devaient passer dans un tube IRM. AtomicSense divise le monde numérisé en voxels (pixels 3D) mesurant environ 8 x 8 x 8 pouces. Numériser chaque bit de cet espace générerait 6,8 pétabits/seconde de données à traiter, mais dans n’importe quelle scène, 99,0 à 99,9 % des voxels sont vides et peuvent être ignorés. Cela réduit la charge de travail totale du flux de données à un niveau plus gérable de 100 térabits/seconde.
En dirigeant numériquement les faisceaux radar et lidar, le système peut « interroger » plus en profondeur les voxels d’intérêt, ceux contenant des objets proches de la direction de déplacement. Les voxels vides peuvent être vérifiés 20 fois par seconde, tandis que ceux occupés sont examinés 100 fois. L’informatique aux normes atomiques permet à la plate-forme AtomicSense d’égaler les performances des suites de capteurs conventionnels avec 1/50e de la puissance de transmission tout en offrant une résolution beaucoup plus élevée et beaucoup plus de résultats sur la cible. Cela lui permet de percevoir de manière fiable les piétons à 600 mètres.
La suite de capteurs de la plate-forme AtomicSense, prévue pour la production en 2023, comprend le logiciel permettant d’identifier les objets tout autour du véhicule, y compris les cibles entre les voitures garées ou autour des coins qui ne peuvent pas être vus. Il appartiendra aux fournisseurs ou aux constructeurs automobiles d’intégrer AtomicSense dans un système de conduite autonome, en augmentant éventuellement ses capacités en fusionnant des données provenant de cartes haute définition, de communications V2V ou V2X, etc. Les prix (et le facteur de forme) évolueront pour s’adapter aux véhicules privés. , pas seulement les robotaxis et les camions lourds.
Le monde a eu un bon aperçu de la « conduite entièrement autonome » informée uniquement par des caméras ; Je sais que je me sentirai 10 millions de fois plus à l’aise avec AtomicSense pour traiter 100 To de données triplement redondantes.